TP de Matlab pour se familiariser avec les techniques de méthodologie statistique vu en cours. Pour cela trois exercices, le premier pour estimer un modèle non linéaire, le second pour simuler un mélange de lois normales et enfin le troisième pour implémenter l'algorithme EM (Estimation, Maximisation) qui permet d'estimer par itérations les paramètres qui définissent un modèle.
[...] nbriter=100; thetak=[12 - 0.2 thetaklist=zeros(2,nbriter+1); thetaklist(:,1)=thetak; for(i=1:nbriter) thetak=calculthetak(thetak,Y); thetaklist(:,i+1)=thetak; end thetaklist plot(1:nbriter+1,thetaklist(1,:),'r',1:nbriter+1,thetaklist(2,:),'k'); figure(1); title(['Convergence des estimateur \beta et commande 3 On souhaite contrôler la convergence des estimateurs de . Pour cela on trace le graphe des valeurs des ( à chaque itération. Figure Convergence des estimateurs Les estimateurs convergent très rapidement vers une valeur . On a fixé arbitrairement la valeur initiale du couple de paramètres, on veut maintenant pouvoir fixer cette valeur grâce aux estimateurs par moindres carrés de pour le modèle de régression linéaire simple suivant . On trouve pour ce modèle l'estimation . Le couple initial des estimateurs du modèle linéaire est donné par . [...]
[...] METHODOLOGIE STATISTIQUE : MODULE MODELISATION Le but de ce TP en matlab est de se familiariser avec les techniques de méthodologie statistique vu en cours. Pour cela nous avons fait trois exercices, le premier pour estimer un modèle non linéaire, le second pour simuler un mélange de lois normales et enfin le troisième pour implémenter l'algorithme EM (Estimation, Maximisation) qui permet d'estimer par itérations les paramètres qui définissent un modèle. Exercice 1 : Modèle non-linéaire On considère le modèle non linéaire exponentiel suivant : Equation 1 Il est nécessaire que le modèle s'apparente à un modèle linéaire pour pouvoir appliquer l'algorithme EM. [...]
[...] %ex2 0.7 ; n=10^4; vecteur=zeros(n,1); vecteur(1:p*n)=randn(p*n,1); vecteur(p*n+1:n)=randn(n-p*n,1)+3; histo(vecteur); commande 5 Figure Répartition du mélange Exercice 3 : Algorithme EM et Mélanges On va maintenant implémenter l'algorithme EM appliqué à un mélange pour estimer les paramètres du mélange de avec les poids p et 1-p. On simule grâce à ce qui a été programmé en exercice 2 auparavant répétitions d'une variable . Pour implémenter l'étape E de cet algorithme, on a besoin de calculer les probabilités conditionnelles sachant Y. avec , la densité gaussienne standard. [...]
[...] Les paramètres sont les valeurs de à l'itération k. On définit alors les fonctions suivantes calculant la probabilité conditionnelle et la densité gaussienne standard. %thetak=(pk mu1k mu2k) function X=EtapeE(Y,thetak) X=thetak(1)*phi(thetak(3),Y)./((1- thetak(1))*phi(thetak(2),Y)+thetak(1)*phi(thetak(3),Y)); End %fonction qui calcule la densite gaussienne de parametre mu et connaissant function Z=phi(mu,Y) end commande 6 : Etape E Pour l'étape on définit ensuite une fonction permettant de calculer les estimateurs par maximun de vraisemblance avec les formules suivantes : function thetakchap=EtapeM(Y,X) thetakchap=zeros(3,1); thetakchap(1)=sum(X)/length(X); thetakchap(2)=sum(Y.*(1-X))/sum(1-X); thetakchap(3)=sum(Y.*X)/sum(X); end commande Etape M Nous itérons maintenant l'algorithme EM grâce à ce programme. [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture