Depuis plusieurs années, la numérisation des signaux EEG a été utilisée pour étudier les différents états de vigilance d'un sujet humain. Plusieurs techniques ont été utilisées pour classifier ces états. Par exemple SOM, LVQ, MLP, etc.
Un travail précédent utilisant les MLP pour classer les états de vigilance a montré ses limites à cause du choix d'architecture des MLP à priori et du phénomène de sur-apprentissage.
L'apparition dans la littérature des techniques de renforcement d'apprentissage par agrégation d'apprenants faibles tels que les MLP ont permis théoriquement de remédier aux problèmes d'architecture et de sur-apprentissage. Parmi ces techniques, nous notons l'algorithme d'ADABOOST autour duquel ce travail va se situer.
Nous avons alors proposé un ADABOOST multidimensionnel inspiré de la littérature existante capable de classifier plusieurs états de vigilance caractérisés par des signaux EEG fournis par le service de Neurophysiologie de CHU Sahloul.
Le présent mémoire s'organise en trois grands chapitres :
Au cours du premier chapitre intitulé Réseaux de neurones, l'intérêt porte sur l'étude générale de la notion des réseaux de neurones artificiels en détaillant seulement les parties qui constituent un outil pour la suite tels que les algorithmes d'apprentissage.
Dans le deuxième chapitre intitulé Boosting Adaptatif, nous avons étudié l'algorithme ADABOOST classique qui concerne les problèmes bi-classes. En se basant sur la littérature existante, nous avons transformé le problème multi-classe en plusieurs problèmes bi-classes. Ensuite, nous avons proposé l'ADABOOST multidimentionnel qui permet, à partir des partial strong learners venant de différents problèmes de type bi-classe, de construire un strong learner multidimensionnel dont le rôle sera d'approcher une fonction de classification en multi-classes.
Enfin le troisième chapitre intitulé Classification des états de vigilance caractérisés par des signaux EEG : expérimentations et résultats, présente les expérimentations et les résultats obtenus pour l'algorithme ADABOOST multidimensionnel en se basant sur des bases EEG réelles fournis par le service du Pr. Mohammed Dogui.
Chapitre I Les réseaux de neurones
I.1 Perceptron simple
Présenté originellement par Rosenblatt, en 1958, le Perceptron est la forme la plus simple de réseau de neurones, et permet de classifier correctement des objets appartenant à deux classes linéairement séparables. Il consiste en un seul neurone qui possède un seuil ainsi qu'un vecteur de poids synaptiques ajustables, tout comme le modèle de neurone de Mc Culloch & Pitts (...)
Les paramètres du Perceptron, c'est-à-dire les poids synaptiques des neurones, peuvent être déterminés grâce à un entraînement supervisé. Le Perceptron partitionne l'espace des variables d'entrée en deux régions correspondant chacune à une classe, selon des frontières de décision linéaires, constituées d'hyperplans (...)
[...] a La droite en pointill´s montre une fonction lin´aire que l'on voudrait approximer en ne connaise e sant que les points noirs. La courbe en trait plein et clair montre ce qu'un r´seau hypoth´tique pourrait apprendre. e e On constate que la courbe passe par tous les points d'entraˆ ınement et donc l'erreur d'apprentissage est nulle. Sahtout Zahrat El Imen 30 M´moire de fin d'´tudes e e Chapitre I : Les r´seaux de neurones : e Par contre, ce r´seau a une mauvaise capacit´ de g´n´ralisation, c'est ` dire, nous consid´rons e e e e a e des points autres que les points noirs : l'erreur est grande. [...]
[...] Soit un ensemble d'apprentissage de Q associations stimulis/cible (pq , dq q = : u pq : repr´sente un vecteur stimulus. e dq : un vecteur cible. On consid`re : e Q : Le nombre d'observations dans l'´chantillon. e R : La dimension d'une observation. S : Le nombre de neurones dans la couche. A un instant on calcule un vecteur sortie d'une entr´e p(t). e Etant dans un apprentissage supervis´, nous notons la sortie de l'entr´e p(t). e e e e Soit = l'erreur entre la r´ponse du r´seau de neurones et la cible. [...]
[...] e Comme pour l'adaline nous utilisons la moyenne de l'erreur quadratique, c'est l'esp´rance du e carr´ de la diff´rance entre ce qu'on obtient et ce qu'on d´sire obtenir. e e e Si on calcule la d´riv´e partielle de la moyenne de l'erreur quadratique par rapport aux e e poids des connexions (d'o` le il est possible de corriger ces poids de mani`re ` se u e a rapprocher du r´sultat souhait´ c'est ` dire les poids qui minimisent la fonction coˆt. [...]
[...] e e Algorithme ADABOOST multidimensionnel Soit y1 . (xN , yN xi X ; yi Y = { l'ensemble des donn´es ´tiquet´es. e e e Pour l = C initialiser la distribution uniforme : N D1 = 1 N i=1 δi sur Sl Pour t = T Faire l'apprentissage sans la distribution Dt du weak learner : hl,t : Sl sur Sl : N l,t 1 Si 0 [...]
[...] e e e II.7 Adaboost multdimensionnel pour le multiclasse : L'algorithme Adaboost pour le multiclasse est une extension de celui en biclasse. Soit S = , yn n = N } X Y l'ensemble de donn´es ´tiquet´es : e e e u X est l'´chantillon ` notre disposition e a Y = { est l'ensemble des ´tiquettes des classes en question. e C = Y est le nombre des classes de partitionnemment de notre probl`me 3 pour parler e de multi-classe). [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture