Précédent / Suivant / Table des matières

Chapitre V

Analyse du plan S×A×B

             El Methni M.

 

V-1. A et B sont deux facteurs à effets fixes

V-1-1 Généralités

On considère le plan complet S×A×B défini par le croisement de trois facteurs S, A et B.
S est le facteur sujet (aléatoire) à n modalités. A et B sont deux facteurs à effets fixes, A possède r modalités et B c modalités. Chacun des n sujets est observé dans chacun des r×c croisements des modalités de A et B.

 

On dispose donc de N=n×r×c observations ysij que l’on présente sous la forme d’un tableau :

 

 

Sujets

a1

ai

ar

b1

bj

bc

b1

bj

bc

b1

bj

bc

1

y111

y11j

y11c

y1i1

y1ij

y1ic

y1r1

y1rj

y1rc

2

y211

y21j

y21c

y2i1

y2ij

y2ic

y2r1

y2rj

y2rc

s

ys11

ys1j

ys1c

ysi1

ysij

ysic

ysr1

ysrj

ysrc

n

yn11

yn1j

yn1c

yni1

ynij

ynic

ynr1

ynrj

ynrc

 

V-1-2 Modèle univarié :

Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule  variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S, A et B. Elles peuvent d’autre part, être regardées comme les  n observations d’un vecteur de r×c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.

Comme pour le plan S×O, nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ysij correspond alors à l’observation d’une variable aléatoire Ysij et on pose le modèle mixte suivant :

Ysij = μij + πs + (απ)is + (βπ)js + (αβπ)sij + esij

Pour chaque croisement des modalités s, i et j nous ne disposons que d’une seule observation, l’interaction (αβπ)sij sera confondue avec le résidu et on pose : εsij=(αβπ)sij + esij

On a donc : Ysij = μij + πs + (απ)is + (βπ)js + εsij

Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B

Les πs (s = 1, 2, …, n) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S

Les (απ)si (s = 1, 2, …, n, i = 1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²απ) qui mesurent les effets aléatoires d’interactions entre le facteur S et le facteur A

Les (βπ)sj (s = 1, 2, …, n, j = 1, 2, …, c) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²βπ) qui mesurent les effets aléatoires d’interactions entre le facteur S et le facteur B

Les résidus εsij sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)

De plus, on suppose que les résidus εsij sont indépendantes des πs, des (απ)si et des (βπ)sj .

Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :

µij = µ + αi + βj + (αβ)ij

Où :

Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,

Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A

Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B

Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet de la modalité (i,j) du croisement A×B (l’effet d’interaction de A et B).

Le modèle mixte univarié peut finalement s’écrire :

Ysij = μ + αi + βj + (αβ)ij + πs + (απ)is + (βπ)js + εsij

Où : les Ysij sont des variables aléatoires de loi :  

Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :

 

 

V-1-3 Décomposition de la variation :

On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets

 

 

La variation inter-sujets est due au facteur sujet et la variation intra-sujets est due aux effets du croisement A×B et à l’effet des autres facteurs non contrôlés. L’effet du facteur A×B se fait à deux niveaux : effet principal et effet d’interaction.

SCintra-sujets = SC(A×B)obs + SC(A×B)Sobs + SCRobs

Avec : SC(A×B)obs= SC(A)obs + SC(B)obs + SC(AB)obs

et : SC(A×B)Sobs = SC(AS)obs + SC(BS)obs + SC(ABS)obs

Ne disposant que d’une seule observation pour chaque croisement (i,j,s) on ne peut donc séparer l’interaction SAB du résidu on a donc : SC(ABS)obs = SCR

Conclusion : Dans le cas du plan complet S×A×B, la variation totale se décompose de façon additive en :

SCTobs = SCSobs + SCAobs + SCBobs + SCABobs + SCASobs + SCBSobs + SCRobs

 

De même on a la décomposition des degrés de liberté :

N-1=ncr-1 = (n-1) + n(rc-1) = (n-1) + n(rc-1) - (c-1)(r-1)(n-1) + (c-1)(r-1)(n-1)

N-1=ncr-1 =(n-1)+(r-1)+(c-1)+(c-1)(r-1)+(r-1)(n-1)+(c-1)(n-1)

Les différentes sommes de carrées se calculent de façon habituelles par :

 =N×variance de toutes les observations

 =N×variance des n moyennes des sujets

 =N×variance des r moyennes par modalités de A

 =N×variance des c moyennes par modalités de B

 =N×variance des r×c moyennes par croisement de A et B

SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs

 =N×variance des r×n moyennes par croisement de A et S

SC(AS)obs = SC(A×S)obs - SCAobs - SCSobs

 =N×variance des n×c moyennes par croisement de B et S

SC(BS)obs = SC(B×S)obs - SCBobs - SCSobs

SCRobs = SCTobs - SCSobs - SCAobs - SCBobs - SC(AB)obs - SC(AS)obs - SC(BS)obs

 

Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.

On montre le théorème fondamental suivant :

 

Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCS, SCAB, SCAS, SCBS et SCR sont indépendantes et d’espérances respectives :

                         

 

On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.

 

 

 

 

Ceci nous permet de réécrire le théorème précédent sous la forme suivante :

 

Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS, MCAB, MCAS, MCBS et MCR sont indépendantes et d’espérances respectives :

                         

 

Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :

 

Test 1 :

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r - 1 et
(n - 1)(r - 1)  degrés de liberté.

 

Le test1 est alors défini au seuil de signification α par la règle de décision suivante :

            si FA obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

 

Test 2 :

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c - 1 et
(n - 1)(c - 1)  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

 

Test 3 :

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)  et  (n - 1)(c - 1) (r - 1)  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

 

On présente l’étude dans le tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Inter-sujets : S

SCSobs

n - 1

 

 

Intra-sujets :

 

 

 

 

A

SCAobs

r - 1

MCAobs

FA obs

AS

SC(AS)obs

(r - 1)(n - 1)

MC(AS)obs

 

B

SCBobs

c - 1

MCBobs

FB obs

BS

SC(BS)obs

(c - 1)(n - 1)

MC(BS)obs

 

AB

SC(AB)obs

(r - 1)(c - 1)

MC(AB)obs

FAB obs

R

SCRobs

(r - 1)(c - 1)(n - 1)

MCRobs

 

Total

SCTobs

N - 1

 

 

 

V-1-5 Condition de validation :

Le fait de mesurer plusieurs fois la variable réponse sur le même sujet introduit des corrélations entre les observations faites sur ce même sujet. Dans le cas du modèle mixte univarié on montre que :                                  

Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys1, Ys2, …, Ysrc) indépendants et de même loi normale caractérisés par : E(Ysk)=μij             Var(Ysk)=σ2ij             cov(Ysk , Ysk) = covkk’

Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité de la matrice de variance-covariance Σ de la forme :

 


 

A1

 

Ai

 

Ar

 

B1

Bc

B1

Bj

Bc

B1

Bc

 

 

A1

B1

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bc

σ2π+σ2πα

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ai

B1

σ2π+σ2πβ

 

σ2π

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bj

σ2π

 

σ2π

 

σ2π+σ2πα

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bc

σ2π

 

σ2π+σ2πβ

 

σ2π+σ2πα

 

σ2π+σ2πα

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ar

B1

σ2π+σ2πβ

 

σ2π

 

σ2π+σ2πβ

 

σ2π

 

σ2π

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bc

σ2π

 

σ2π+σ2πβ

 

σ2π

 

σ2π

 

σ2π+σ2πβ

 

σ2π+σ2πα

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

B1

 

Bj

 

Bc

 

A1

Ar

A1

Ai

Ar

A1

Ar

 

 

B1

A1

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ar

σ2π+σ2πβ

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bj

A1

σ2π+σ2πα

 

σ2π

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ai

σ2π

 

σ2π

 

σ2π+σ2πβ

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ar

σ2π

 

σ2π+σ2πα

 

σ2π+σ2πβ

 

σ2π+σ2πβ

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Bc

A1

σ2π+σ2πα

 

σ2π

 

σ2π+σ2πα

 

σ2π

 

σ2π

 

σ2π + σ2πα+ σ2πβ+ σ2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ar

σ2π

 

σ2π+σ2πα

 

σ2π

 

σ2π

 

σ2π+σ2πα

 

σ2π+σ2πβ

 

σ2π + σ2πα+ σ2πβ+ σ2

 



V-1-6 Exemple :

 

 

Test 1

 

 

Test 2

 

Sujet

M1

M2

M6

M1

M2

M6

1

10

11

9

3

6

3

2

18

20

17

16

20

14

3

6

8

8

5

6

3

4

4

9

9

10

10

6

Un expérimentateur veut étudier l’effet de la consommation de lécithine sur les troubles de mémoire. Il choisit 4 sujets auxquels il administre un traitement quotidien. Au bout d’un mois, de deux mois et de six mois de traitements, il fait passer à chaque sujet deux tests. Le premier test (test 1) est le même chaque mois, le deuxième test (test 2) est une forme parallèle chaque mois.

 

Pratique des calculs :

 

 

 

Test 1

 

 

 

Test 2

 

 

 

Sujet

M1

M2

M6

 

M1

M2

M6

 

 

1

10

11

9

 

3

6

3

 

 

2

18

20

17

 

16

20

14

 

 

3

6

8

8

 

5

6

3

 

 

4

4

9

9

 

10

10

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pratique des calculs : autre méthode

 

A     B

M1

M2

M6

moyennes

 

A    S

1

2

3

4

T1

9,50

12,00

10,75

10,75

 

T1

10,00

18,33

7,33

7,33

T2

8,50

10,50

6,50

8,50

 

T2

4,00

16,67

4,67

8,67

moyennes

9,00

11,25

8,625

9,625

 

moyennes

7,00

17,50

6,00

8,00

 


B    S

1

2

3

4

M1

6,50

17,00

5,50

7,00

M2

8,50

20,00

7,00

9,50

M6

6,00

15,50

5,50

7,50

moyennes

7,00

17,50

6,00

8,00

 

Calcul des sommes des carrées :

SCT=645,625             SCS=508,125             SCA=30,375              SCB=32,25

SC(A×B)=74,875     SC(AB)=12,25           SC(A×S)=579,5652 SC(AS)=41,133

SC(B×S)=546,125    SC(BS)=5,75              SCR=15,742


 

                                               Tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Inter S

SCSobs=508,125

n - 1=3

 

 

Intra S

 

 

 

 

A

SCAobs=30,375

r - 1=1

MCAobs=30,375

FA obs=2,215

AS

SC(AS)obs=41,133

(r - 1)(n - 1)=3

MC(AS)obs=13,711

 

B

SCBobs=32,25

c - 1=2

MCBobs=16,125

FB obs=16,827

BS

SC(BS)obs=5,75

(c - 1)(n - 1)=6

MC(BS)obs=0,9583

 

AB

SC(AB)obs=12,25

(r - 1)(c - 1)=2

MC(AB)obs=6,125

FAB obs=2,334

R

SCRobs=15,742

(r - 1)(c - 1)(n - 1)=6

MCRobs=2,624

 

Total

SCTobs=645,625

N - 1=23

 

 

 

 

Test de l’existence des différents effets :

 

Test 1 : Effet principal du facteur A

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r  1=1 et
(n - 1)(r - 1)=3  degrés de liberté.

 

Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :

            si FA obs  λα=10,1  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

Or  FA obs =2,215 < λα=10,1  on en conclue qu’il n’y a pas d’effet principal du facteur A

 

Test 2 : Effet principal du facteur B

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c  1=2 et
(n - 1)(c - 1)=6  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα =5,14 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

Or  FB obs =16,827 > λα=5,14  on en conclue qu’il y a  un effet principal du facteur B

 

Test 3 : Test de l’effet d’interaction des facteurs A et B

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)=2  et  (n - 1)(c - 1) (r - 1)=6  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα =5,14 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

Or  FAB obs =2,334 < λα=5,14  on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B

Condition de validation du modèle :

Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié. Les résultats sont présentés sous forme de blocs homogènes (qui devraient l’être).

Matrice de Variances Covariances

 

A

Test1

Test2

A

B

M1

M2

M6

M1

M2

M6

 

Test1

M1

28,750

 

 

 

 

 

M2

24,500

22,500

 

 

 

 

M6

17,875

17,000

13,188

 

 

 

 

Test2

M1

16,250

18,750

15,875

25,250

 

 

M2

24,250

18,750

20,125

27,750

32,750

 

M6

19,250

19,750

15,875

21,750

25,750

20,250

Matrice des corrélations.

 

A

Test 1

Test 2

A

B

M1

M2

M6

M1

M2

M6

 

Test 1

M1

1

 

 

 

 

 

M2

0,9633

1

 

 

 

 

M6

0,9180

0,9869

1

 

 

 

 

Test 2

M1

0,6031

0,7866

0,8700

1

 

 

M2

0,7903

0,7276

0,9684

0,9650

1

 

M6

0,7978

0,9253

0,9714

0,9619

0,9999

1

Le premier bloc (en haut et à gauche) est le bloc des variables issues des modalités de B alors que A prend la modalité « test1 ». Le deuxième bloc (en bas et à droite) est le bloc des variables issues des modalités de B alors que A prend la modalité « test2 ». Et le troisième bloc (en bas et à gauche) est le bloc des variables issues des modalités de B et aussi des modalités de A (test1 et test2) à la fois. Dans ce dernier bloc, on distingue les éléments de la diagonale, dont les modalités de B sont les mêmes des éléments hors diagonale.

Nous constatons qu'à l'intérieur des blocs nous avons, (plus ou moins) une homogénéité des covariances (et aussi des corrélations). En ce qui concerne la condition d'homoscédasticité (homogénéité des variances), nous ne constatons pas une différence importante sur la diagonale principale de la matrice, donc nous pouvons penser que cette condition est également acquise.