Clustering, K-means clustering, Détection d'anomalie, Isolaton Forest algorithm, Réduction de la dimensionnalité, Principale Components Analysis, PCA Principal Components Analysis, Analyse en composantes principales, L'apprentissage non supervisé, apprentissage non supervisé, machine learning
Ce document contient un TP en matière d'apprentissage non supervisé.
[...] La ta lle de mage est de 8 x 8 = 64 p xels. V sual sez quelques mages en vous ut l sant plt. mshow( mages[10]) par exemple. Entrée plt.imshow(Images[10]) Out[39]:
[...] Les anomal es est de l'ordre de 2%. F ltrez toutes préd ct ons égales à (outl ers = model.prect(X)==-1), pu s analysez le contenu de outl ers. Entrée outliers = model.predict(X)==-1 Entrée print(outliers) [False False False . False False False] C'est un tableau de booléen qu vér f e s dans la préd ct on nous avons b en la cond t on su vante est b en vér f ée : model.pred ct(X) = -1. Et, donc, on vo t qu' l y a une adéquat on entre les résultats c et notre réponse à la quest on précédente. [...]
[...] Quelle est la s gn f cat on des axes ? Plus les po nts sont proches du centre des axes, plus ls sont b en écr ts s tot ls sont mals écr ts. 10) Analyser le contenu de chaque composantes : Entrée model.components_.shape Out[17]: 64) Cela va donner le nombre de composantes et le nombre de features. Compress on de données localhost:8890/notebooks/Jupyter lab/Diagnstic par apprentissage/TP3.ipynb 11/14 06/12/2022 15:48 TP3 - Jupyter Notebook Commencez par entra ner le modèle sur le même nombre de d mens on que X : Entrée model = PCA(n_components = Entra nez le model : Entrée X_reduced = model.fit_transform(X) Exam nez le pourcentage de var ance préserver par chacune des composantes : Entrée model.explained_variance_ratio_ Out[49]: array([0.14890594, 0.13618771]) Techn quement parlant, la quant té de var ance expl quée par chaque composante pr nc pale est mesurée par ce que l'on appelle la valeur propre. [...]
[...] Ma s meme à une d mens on de nformat on est conservée. Analysez ensu te la somme cumulée de var ance : Entrée np.cumsum(model.explained_variance_ratio_) Out[50]: array([0.14890594, 0.28509365]) Ces deux var ables "dom nent" près du quart par rapport aux var ables. Et à 64, nous obtenons une var ance cumulée à 1. Tracez le pourcentage de var ance cumulée en fonct on du nombre de composantes : Entrée tab = for i in range(1,64): model = PCA(n_components = X_reduced = model.fit_transform(X) tab.append(np.cumsum(model.explained_variance_ratio_[-1])) plt.plot(np.cumsum(model.explained_variance_ratio_)) plt.show() En vous appuyant sur le graph que de la quest on précédente, déterm nez à part r de comb en de composantes, on atte nt 90% de var ance cumulée. [...]
[...] Cela donne le nombre de clusters à former a ns que le nombre de centro des à générer. le nombre d' n t al sat on f xé par défaut. Elle est de 10 le nombre d' térat ons max mal ut l sé par défaut. Ic , elle est de 300 la méthode d' n t al sat on ut l sée. La méthode n nt al sat on est k-means localhost:8890/notebooks/Jupyter lab/Diagnstic par apprentissage/TP3.ipynb 1/14 06/12/2022 15:48 TP3 - Jupyter Notebook comment sont cho s s les po nts des centres ? [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture