Précédent / Suivant / Table des matières

Chapitre IV

Analyse du plan S×0

            El Methni M.

            IV-1. O est un (seul) facteur à effets fixes

IV-1-1 Généralités

O est un facteur à r modalités o1, o2,  or (Occasions). S est le facteur sujet (à effets aléatoires) dont les modalités sont les n sujets s1, s2,  sn. Pour chaque modalité  du facteur O on « utilise » les n sujets. On a donc des mesures ysi répétées pour chaque sujet s dans l’occasion (modalité) Oi.

En psychologie et en méthodologie on parle de plan intra, en statistique on parle de plan à mesures répétées.

On dispose donc de N=n×r mesures ysi que l’on présente sous la forme d’un tableau :

 

 

Facteur  O  (Occasions)

Sujets

o1

o2

oi

or

s1

y11

y12

y1i

y1r

s2

y21

y22

y2i

y2r

 

ss

ys1

ys2

ysi

ysr

sn

yn1

yn2

 

yni

 

ynr

 

Remarque : Un premier avantage d’un tel plan par rapport au plan S<O> est une « économie » du nombre de sujets. D’autre part avec un tel plan on peut diminuer l’erreur expérimentale (résidu). En effet le contrôle du facteur sujet permet de séparer son effet des effets résiduels. Mais le résidu sera confondu avec l’interaction entre S et O.

 

IV-1-2 Modèle univarié :

Les données peuvent être d’une part, considérées comme les N=n×r observations de la variable réponse Y dans les N=n×r conditions expérimentales décrites par le croisement du facteur sujet et du facteur occasion. Elles peuvent d’autre part, être regardées comme les n observations d’un vecteur de r variables réponses. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas et le modèle multivarié dans le second (voir condition de validation IV-1-5).

Nous étudierons le modèle mixte univarié dans lequel on considère que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Le facteur occasion est lui un facteur à effets fixes.

Chaque donnée ysi correspond alors à l’observation d’une variable aléatoire réelle Ysi décrite par le modèle suivant :      Ysi = μi + πs + εsi    

Où :

·     les μi sont des constantes mesurant les effets fixes des modalités i (i=1, 2, …, r) du facteur O

·     les πs sont des variables aléatoires indépendantes de loi N(0, σ2π) mesurant les effets aléatoires des modalités s (s=1, 2, …, n) du facteur S

·     les résidus εsi sont des variables aléatoires indépendantes de loi N(0, σ2). On suppose en plus que les πs et les εsi sont indépendantes.

On peut réécrire l’effet de la modalité i sous la forme : μi = μ + αi   on a donc : Ysi = μ + αi + πs + εsi

Où :

·     μ constante s’interprétant comme un niveau général de réponse

·     les αi sont des constantes mesurant les effets fixes des modalités i et vérifiant :  (contrainte d’identifiabilité)

Conséquence : D’après ce modèle les Ysi sont des variables aléatoires de loi N(μ+αi, σ2π+σ2). L’effet du facteur fixe se traduit sur la moyenne de la variable réponse tandis que l’effet du facteur aléatoire se traduit sur la variance de la variable réponse.

Pour ce modèle, l’interaction entre le facteur sujet et le facteur occasion est confondue avec le résidu car pour chaque modalité de l’un et de l’autre on ne dispose que d’une seule observation.

 

IV-1-3 Décomposition de la variation :

On décompose la variation totale en variation inter-sujets (due au facteur sujet) et variation intra-sujets (due à l’effet du facteur O). SCTobs = SCinter-sujets + SCintra-sujets

La variation inter-sujets est due au facteur sujet et la variation intra-sujets est due d’une part à l’effet du facteur O et d’autre part à l’effet des autres facteurs non contrôlés

SCintra-sujets = SCOobs + SCRobs

Conclusion : Dans le cas du plan complet S×O, la variation totale se décompose de façon additive en : SCTobs = SCSobs + SCOobs + SCRobs

De même on a la décomposition des degrés de liberté : nr-1 = (n-1) + (r-1) + (n-1)(r-1)

Les différentes sommes de carrées se calculent par :

 

 

SCR est calculé par : SCRobs = SCTobs - SCSobs - SCOobs

 

En pratique on peut effectuer les calculs en utilisant le tableau suivant :

 

 

Facteur  O  (Occasions)

 

 

Sujets

o1

o2

oi

or

 

 

s1

y11

y12

y1i

y1r

 

 

s2

y21

y22

y2i

y2r

 

 

 

ss

ys1

ys2

ysi

ysr

 

 

sn

yn1

yn2

 

yni

 

ynr

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

IV-1-4 Statistiques des tests :

On montre le théorème suivant :

Théorème : sous les hypothèses du modèle on a

·     E(SCO) = (r - 1)σ2 + nαi2

·     E(SCS) = (n - 1)(σ2 + rσ2π)

·     E(SCR) = (n - 1)(r - 1)σ2           

 

En considérant les moyennes des carrés :  

On peut réécrire le théorème précédent sous la forme :

Théorème : sous les hypothèses du modèle on a

·      

·      

·     E(MCR) = σ2

 

De nouveau on constate que MCR est un estimateur sans biais de la variance σ2 et que MCO est un également un estimateur de la variance σ2 augmentée d’une valeur positive traduisant l’effet du facteur. On considérera donc la statistique  pour effectuer le test suivant :

Test de l’effet du facteur O sur la variable :

hypothèse nulle                       H0 : O n’a pas d’effet (iαi = 0 (tous les αi sont nuls) contre  l’hypothèse alternative :         H1 : O a un effet (iαi  0 (l’un au moins des αi est non nul).

 

Sous l’hypothèse nulle MCO et MCR sont deux estimateurs indépendants de σ2 , leur rapport FO est distribué selon une loi de Fischer à ν1 = r - 1 et  ν2 = (n - 1)(r - 1) ddl.

 

Le test est alors défini au seuil de signification α par la règle de décision suivante :

            si FO obs  λα  alors on rejette l’hypothèse nulle

λα est donné par l’équation :  α = P(FOλα).

 

Les résultats sont présentés dans le tableau d’analyse de la variance suivant :

 

Source de variation

SC

ddl

MC

FO

Inter S

SCSobs

n - 1

MCSobs

 

Intra S

SCintra-sujets

n(r  1)

 

 

O

SCOobs

r - 1

MCOobs

FO obs

R

SCRobs

(n - 1)(r - 1)

MCRobs

 

Total

SCTobs

rn - 1 =N - 1

 

 

 

IV-1-5 Condition de validation :

Les données peuvent être d’une part, considérées comme les N=n×r observations de la variable réponse Y dans les N=n×r conditions expérimentales décrites par le croisement du facteur sujet et du facteur occasion. Elles peuvent d’autre part, être regardées comme les n observations d’un vecteur de r variables réponses. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas et le modèle multivarié dans le second.

 

Le fait de mesurer plusieurs fois la variable réponse sur le même sujet introduit des corrélations entre les observations faites sur ce même sujet. Dans le cas du modèle mixte univarié on montre que :                                 

Dans le cas du modèle multivarié on considère que les données sont les réalisations de r vecteurs aléatoires de dimension n. Ys=(Ys1, Ys2, …, Ysr) indépendants et de même loi normale caractérisés par : E(Ysi)=μi               Var(Ysi)=σ2i               cov(Ysi , Ysi) = covii’

Le modèle mixte univarié est donc un cas particulier du modèle multivarié se caratérisant par un matrice de variance-covariance Σ de la forme :

 

Une telle matrice où tous les termes sont positifs et où tous les termes diagonaux sont égaux et tous les autres sont égaux est dite matrice circulaire, et cette propriété est appelée la symétrie composée de la matrice.

Sur la diagonale principale de la matrice des variances-covariances Σ se trouvent les variances et les éléments hors diagonale sont des covariances.

L’hypothèse d’homogénéité des variances (homoscédasticité) se traduit par l’égalité des éléments de la diagonale de la matrice Σ, Les éléments en dehors de la diagonale principale de la matrice Σ doivent être de même ordre.

De même on peut considérer la matrice des corrélations ρ :

 

De ce fait, dans le cas du choix de modèle mixte univarié, en calculant les variances-covariances nous obtenons  l’estimation de la matrice des variances-covariances (et aussi l'estimation de la matrice des corrélations).

Si les éléments de la diagonale de la matrice des variances-covariances  sont de même ordre, alors la condition de l'homoscédasticité (homogénéité des variances) est vérifiée.

Si les éléments hors diagonale de la matrice des variances-covariance (ou des corrélations) sont de même ordre que les variances, alors le choix du modèle mixte univarié est justifié. C'est-à-dire que la condition de la circularité (de sphéricité) est acquise.

 

IV-1-6 Exemple :

Pendant  d’heure on compte le nombre d’actions exercées par chacun des 7 rats sur un levier. Et ceci dans trois conditions de renforcement :

1ere condition : on présente au rat des aliments très appréciés.

2eme condition : on présente au rat des aliments moyennement appréciés.

3eme condition : on présente au rat des aliments peu appréciés.

On obtient les résultats donnés par le tableau ci-contre.

 

 

Facteur

O

 

 

Sujets

A

B

C

moyenne

 

s1

8

6

2

 =5,333

1,416

s2

6

5

1

 =4

0,020

s3

7

5

0

 =4

0,020

s4

9

3

3

 =5

0,734

s5

5

4

1

 =3,333

0,656

s6

7

5

2

 =4,667

0,274

s7

6

2

0

 =2,667

2,178

moyenne

 =6,857

 =4,286

 =1,286

 =4,143

5,298×3=15,90

 

7,365

0,020

8,162

15,547×7=108,857

 

 

SCT=138,5714           SCO=108,857

SCS=15,90                 SCR=SCT- SCO- SCS=13,8

               

Les résultats sont présentés dans le tableau d’analyse de la variance suivant :

 

Source de variation

SC

ddl

MC

FO

Inter S

SCSobs=15,90

n  1=6

MCSobs=2,65

 

Intra S

SCintra-sujets

n(r  1)=14

 

 

O

SCOobs=108,857

r  1=2

MCOobs=54,45

FO obs=47,34

R

SCRobs=13,8

(n - 1)(r - 1)=12

MCRobs=1,15

 

Total

SCTobs=138,5714

rn - 1 =N  1=20

 

 

 

Pour vérifier la condition de la symétrie composée, nous allons établir la matrice des variances-covariances et aussi la matrice des corrélations pour les colonnes du tableau des observations.

              

Matrice des variances-covariances

 

Matrice des corrélations

 

On constate que les estimations des variances ne sont pas très différentes. L’hypothèse d’homogénéité des variances (homoscédasticité) peut être considérée comme acquise.

En ce qui concerne les covariances ou les corrélations, on constate une corrélation relativement forte entre les résultats des conditions 1 et 3 (r13 = 0,7).

Dans la condition 3 (aliments peu appréciés), les rats n'ont pas trop d'actions. Mais, les rats très actifs dans la condition 1 (aliments très appréciés) sont aussi actifs dans la condition 3, alors que les résultats de la condition 2 ne sont pas corrélés ni avec la condition 1 ni avec la condition 2.

Ces résultats suggèrent une réflexion supplémentaire sur ces données. Peut être faut-il examiner un modèle multivarié et effectuer une MANOVA.

El Methni M.

 

IV-1. O est un (seul) facteur à effets fixes

IV-1-1 Généralités

O est un facteur à r modalités o1, o2,  or (Occasions). S est le facteur sujet (à effets aléatoires) dont les modalités sont les n sujets s1, s2,  sn. Pour chaque modalité  du facteur O on « utilise » les n sujets. On a donc des mesures ysi répétées pour chaque sujet s dans l’occasion (modalité) Oi.

En psychologie et en méthodologie on parle de plan intra, en statistique on parle de plan à mesures répétées.

On dispose donc de N=n×r mesures ysi que l’on présente sous la forme d’un tableau :

 

 

Facteur  O  (Occasions)

Sujets

o1

o2

oi

or

s1

y11

y12

y1i

y1r

s2

y21

y22

y2i

y2r

 

ss

ys1

ys2

ysi

ysr

sn

yn1

yn2

 

yni

 

ynr

 

Remarque : Un premier avantage d’un tel plan par rapport au plan S<O> est une « économie » du nombre de sujets. D’autre part avec un tel plan on peut diminuer l’erreur expérimentale (résidu). En effet le contrôle du facteur sujet permet de séparer son effet des effets résiduels. Mais le résidu sera confondu avec l’interaction entre S et O.

 

IV-1-2 Modèle univarié :

Les données peuvent être d’une part, considérées comme les N=n×r observations de la variable réponse Y dans les N=n×r conditions expérimentales décrites par le croisement du facteur sujet et du facteur occasion. Elles peuvent d’autre part, être regardées comme les n observations d’un vecteur de r variables réponses. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas et le modèle multivarié dans le second (voir condition de validation IV-1-5).

Nous étudierons le modèle mixte univarié dans lequel on considère que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Le facteur occasion est lui un facteur à effets fixes.

Chaque donnée ysi correspond alors à l’observation d’une variable aléatoire réelle Ysi décrite par le modèle suivant :      Ysi = μi + πs + εsi    

Où :

·     les μi sont des constantes mesurant les effets fixes des modalités i (i=1, 2, …, r) du facteur O

·     les πs sont des variables aléatoires indépendantes de loi N(0, σ2π) mesurant les effets aléatoires des modalités s (s=1, 2, …, n) du facteur S

·     les résidus εsi sont des variables aléatoires indépendantes de loi N(0, σ2). On suppose en plus que les πs et les εsi sont indépendantes.

On peut réécrire l’effet de la modalité i sous la forme : μi = μ + αi   on a donc : Ysi = μ + αi + πs + εsi

Où :

·     μ constante s’interprétant comme un niveau général de réponse

·     les αi sont des constantes mesurant les effets fixes des modalités i et vérifiant :  (contrainte d’identifiabilité)

Conséquence : D’après ce modèle les Ysi sont des variables aléatoires de loi N(μ+αi, σ2π+σ2). L’effet du facteur fixe se traduit sur la moyenne de la variable réponse tandis que l’effet du facteur aléatoire se traduit sur la variance de la variable réponse.

Pour ce modèle, l’interaction entre le facteur sujet et le facteur occasion est confondue avec le résidu car pour chaque modalité de l’un et de l’autre on ne dispose que d’une seule observation.

 

IV-1-3 Décomposition de la variation :

On décompose la variation totale en variation inter-sujets (due au facteur sujet) et variation intra-sujets (due à l’effet du facteur O). SCTobs = SCinter-sujets + SCintra-sujets

La variation inter-sujets est due au facteur sujet et la variation intra-sujets est due d’une part à l’effet du facteur O et d’autre part à l’effet des autres facteurs non contrôlés

SCintra-sujets = SCOobs + SCRobs

Conclusion : Dans le cas du plan complet S×O, la variation totale se décompose de façon additive en : SCTobs = SCSobs + SCOobs + SCRobs

De même on a la décomposition des degrés de liberté : nr-1 = (n-1) + (r-1) + (n-1)(r-1)

Les différentes sommes de carrées se calculent par :

 

 

SCR est calculé par : SCRobs = SCTobs - SCSobs - SCOobs

 

En pratique on peut effectuer les calculs en utilisant le tableau suivant :

 

 

Facteur  O  (Occasions)

 

 

Sujets

o1

o2

oi

or

 

 

s1

y11

y12

y1i

y1r

 

 

s2

y21

y22

y2i

y2r

 

 

 

ss

ys1

ys2

ysi

ysr

 

 

sn

yn1

yn2

 

yni

 

ynr

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

IV-1-4 Statistiques des tests :

On montre le théorème suivant :

Théorème : sous les hypothèses du modèle on a

·     E(SCO) = (r - 1)σ2 + nαi2

·     E(SCS) = (n - 1)(σ2 + rσ2π)

·     E(SCR) = (n - 1)(r - 1)σ2           

 

En considérant les moyennes des carrés :  

On peut réécrire le théorème précédent sous la forme :

Théorème : sous les hypothèses du modèle on a

·      

·      

·     E(MCR) = σ2

 

De nouveau on constate que MCR est un estimateur sans biais de la variance σ2 et que MCO est un également un estimateur de la variance σ2 augmentée d’une valeur positive traduisant l’effet du facteur. On considérera donc la statistique  pour effectuer le test suivant :

Test de l’effet du facteur O sur la variable :

hypothèse nulle                       H0 : O n’a pas d’effet (iαi = 0 (tous les αi sont nuls) contre  l’hypothèse alternative :         H1 : O a un effet (iαi  0 (l’un au moins des αi est non nul).

 

Sous l’hypothèse nulle MCO et MCR sont deux estimateurs indépendants de σ2 , leur rapport FO est distribué selon une loi de Fischer à ν1 = r - 1 et  ν2 = (n - 1)(r - 1) ddl.

 

Le test est alors défini au seuil de signification α par la règle de décision suivante :

            si FO obs  λα  alors on rejette l’hypothèse nulle

λα est donné par l’équation :  α = P(FOλα).

 

Les résultats sont présentés dans le tableau d’analyse de la variance suivant :

 

Source de variation

SC

ddl

MC

FO

Inter S

SCSobs

n - 1

MCSobs

 

Intra S

SCintra-sujets

n(r  1)

 

 

O

SCOobs

r - 1

MCOobs

FO obs

R

SCRobs

(n - 1)(r - 1)

MCRobs

 

Total

SCTobs

rn - 1 =N - 1

 

 

 

IV-1-5 Condition de validation :

Les données peuvent être d’une part, considérées comme les N=n×r observations de la variable réponse Y dans les N=n×r conditions expérimentales décrites par le croisement du facteur sujet et du facteur occasion. Elles peuvent d’autre part, être regardées comme les n observations d’un vecteur de r variables réponses. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas et le modèle multivarié dans le second.

 

Le fait de mesurer plusieurs fois la variable réponse sur le même sujet introduit des corrélations entre les observations faites sur ce même sujet. Dans le cas du modèle mixte univarié on montre que :                                 

Dans le cas du modèle multivarié on considère que les données sont les réalisations de r vecteurs aléatoires de dimension n. Ys=(Ys1, Ys2, …, Ysr) indépendants et de même loi normale caractérisés par : E(Ysi)=μi               Var(Ysi)=σ2i               cov(Ysi , Ysi) = covii’

Le modèle mixte univarié est donc un cas particulier du modèle multivarié se caratérisant par un matrice de variance-covariance Σ de la forme :

 

Une telle matrice où tous les termes sont positifs et où tous les termes diagonaux sont égaux et tous les autres sont égaux est dite matrice circulaire, et cette propriété est appelée la symétrie composée de la matrice.

Sur la diagonale principale de la matrice des variances-covariances Σ se trouvent les variances et les éléments hors diagonale sont des covariances.

L’hypothèse d’homogénéité des variances (homoscédasticité) se traduit par l’égalité des éléments de la diagonale de la matrice Σ, Les éléments en dehors de la diagonale principale de la matrice Σ doivent être de même ordre.

De même on peut considérer la matrice des corrélations ρ :

 

De ce fait, dans le cas du choix de modèle mixte univarié, en calculant les variances-covariances nous obtenons  l’estimation de la matrice des variances-covariances (et aussi l'estimation de la matrice des corrélations).

Si les éléments de la diagonale de la matrice des variances-covariances  sont de même ordre, alors la condition de l'homoscédasticité (homogénéité des variances) est vérifiée.

Si les éléments hors diagonale de la matrice des variances-covariance (ou des corrélations) sont de même ordre que les variances, alors le choix du modèle mixte univarié est justifié. C'est-à-dire que la condition de la circularité (de sphéricité) est acquise.

 

IV-1-6 Exemple :

Pendant  d’heure on compte le nombre d’actions exercées par chacun des 7 rats sur un levier. Et ceci dans trois conditions de renforcement :

1ere condition : on présente au rat des aliments très appréciés.

2eme condition : on présente au rat des aliments moyennement appréciés.

3eme condition : on présente au rat des aliments peu appréciés.

On obtient les résultats donnés par le tableau ci-contre.

 

 

Facteur

O

 

 

Sujets

A

B

C

moyenne

 

s1

8

6

2

 =5,333

1,416

s2

6

5

1

 =4

0,020

s3

7

5

0

 =4

0,020

s4

9

3

3

 =5

0,734

s5

5

4

1

 =3,333

0,656

s6

7

5

2

 =4,667

0,274

s7

6

2

0

 =2,667

2,178

moyenne

 =6,857

 =4,286

 =1,286

 =4,143

5,298×3=15,90

 

7,365

0,020

8,162

15,547×7=108,857

 

 

SCT=138,5714           SCO=108,857

SCS=15,90                 SCR=SCT- SCO- SCS=13,8

               

Les résultats sont présentés dans le tableau d’analyse de la variance suivant :

 

Source de variation

SC

ddl

MC

FO

Inter S

SCSobs=15,90

n  1=6

MCSobs=2,65

 

Intra S

SCintra-sujets

n(r  1)=14

 

 

O

SCOobs=108,857

r  1=2

MCOobs=54,45

FO obs=47,34

R

SCRobs=13,8

(n - 1)(r - 1)=12

MCRobs=1,15

 

Total

SCTobs=138,5714

rn - 1 =N  1=20

 

 

 

Pour vérifier la condition de la symétrie composée, nous allons établir la matrice des variances-covariances et aussi la matrice des corrélations pour les colonnes du tableau des observations.

              

Matrice des variances-covariances

 

Matrice des corrélations

 

On constate que les estimations des variances ne sont pas très différentes. L’hypothèse d’homogénéité des variances (homoscédasticité) peut être considérée comme acquise.

En ce qui concerne les covariances ou les corrélations, on constate une corrélation relativement forte entre les résultats des conditions 1 et 3 (r13 = 0,7).

Dans la condition 3 (aliments peu appréciés), les rats n'ont pas trop d'actions. Mais, les rats très actifs dans la condition 1 (aliments très appréciés) sont aussi actifs dans la condition 3, alors que les résultats de la condition 2 ne sont pas corrélés ni avec la condition 1 ni avec la condition 2.

Ces résultats suggèrent une réflexion supplémentaire sur ces données. Peut être faut-il examiner un modèle multivarié et effectuer une MANOVA.