Précédent / Suivant / Table des matières

Chapitre VI

Analyse du plan S<A>×B

El Methni M.

            VI-1. A et B sont deux facteurs à effets fixes

VI-1-1 Généralités

On considère le plan quasi-complet S<A>×B où les sujets sont répartis dans des groupes définis par les r modalités du facteur A. Chaque sujet est observé dans les différentes occasions définies par les c modalités du facteur B. Il y a n sujets par groupe. On a donc échantillonné n×r sujets et on dispose donc de N=n×r×c observations ys(i)j que l’on présente sous la forme d’un tableau :

 

 

Sujets

a1

ai

ar

 

b1

bj

bc

b1

bj

bc

b1

bj

bc

1

y1(1)1

y1(1)j

y1(1)c

y1(i)1

y1(i)j

y1(i)c

y1(r)1

y1(r)j

y1(r)c

 

2

y2(1)1

y2(1)j

y2(1)c

y2(i)1

y2(i)j

y2(i)c

y2(r)1

y2(r)j

y2(r)c

 

 

s

ys(1)1

ys(1)j

ys(1)c

ys(i)1

ys(i)j

ys(i)c

ys(r)1

ys(r)j

ys(r)c

 

 

n

yn(1)1

yn(1)j

yn(1)c

yn(i)1

yn(i)j

yn(i)c

yn(r)1

yn(r)j

yn(r)c

 

 

VI-1-2 Modèle univarié :

Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule  variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S emboîté dans A et B. Elles peuvent d’autre part, être regardées comme les  n×r observations d’un vecteur de c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.

Comme pour les plans S×O et S×A×B nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ys(i)j correspond alors à l’observation d’une variable aléatoire Ys(i)j et on pose le modèle mixte suivant :

Ys(i)j = μij + πs(i) + (πβ)sj + es(i)j

Pour chaque croisement des modalités s et j nous ne disposons que d’une seule observation, l’interaction (πβ)sj sera confondue avec le résidu et on pose : εs(i)j=(πβ)sj + es(i)j

On a donc : Ys(i)j = μij + πs(i) + εs(i)j

Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B

Les πs(i) (s = 1, 2, …, n, i =1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S

Les résidus εs(i)j sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)

De plus, on suppose que les résidus εs(i)j sont indépendantes des πs(i).

Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :

µij = µ + αi + βj + (αβ)ij

Où :

Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,

Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A

Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B

Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet d’interaction des modalités i et j.

Le modèle mixte univarié peut finalement s’écrire :

Ys(i)j = µ + αi + βj + (αβ)ij + πs(i) + εs(i)j

Où : les Ys(i)j sont des variables aléatoires de loi :  

Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :

 

 

VI-1-3 Décomposition de la variation :

On note :  la moyenne des c observations de la modalité s(i) de l’emboîtement S<A>

 la moyenne des nc observations de la modalité i de A

 la moyenne des nr observations de la modalité j de B

 la moyenne des n observations de la modalité (i,j) du croisement A×B et  la moyenne générale

 

On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets

 

 

On décompose la variation inter-sujets en variation inter A et variation intra A. On obtient :

SCinter-sujets = SCSobs = SCinter A+ SCintra A  où :

 

 

La variation intra-sujets est due aux effets du facteur B  et à l’effet des autres facteurs non contrôlés. L’effet du facteur B se fait à deux niveaux : effet principal et effet d’interaction avec A. On a :

SCintra-sujets = SCBobs + SC(AB)obs + SCRobs

Avec : SC(AB)obs = SC(A×B)obs - SC(A)obs - SC(B)obs

Conclusion : Dans le cas du plan complet S<A>×B, la variation totale se décompose de façon additive en :

SCTobs = SCAobs + SCS(A)obs + SCBobs + SCABobs + SCRobs

 

De même on a la décomposition des degrés de liberté :

N-1=ncr-1 = (r-1)+r(n-1)+(c-1)+(r-1)(c-1)+r(c-1)(n-1)

Les différentes sommes de carrées se calculent de façon habituelles par :

 =N×variance de toutes les observations

 =N×variance des r moyennes par modalités de A

 =N×variance des r×n moyennes des sujets

SCS(A)obs = SCSobs - SCAobs

 =N×variance des c moyennes par modalités de B

 =N×variance des r×c moyennes par croisement de A et B

SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs

SCRobs = SCTobs - SCAobs - SCBobs - SC(AB)obs - SCS(A)obs

 

Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.

On montre le théorème fondamental suivant :

 

Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCAB, SCS(A), et SCR sont indépendantes et d’espérance respective :

                         

 

On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.

 

 

Ceci nous permet de réécrire le théorème précédent sous la forme suivante :

 

Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS(A), MCAB, et MCR sont indépendantes et d’espérances respectives :

                         

 

Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :

 

Test 1 :

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r - 1 et
r(n - 1) degrés de liberté.

 

Le test1 est alors défini au seuil de signification α par la règle de décision suivante :

            si FA obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

 

Test 2 :

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1)  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

 

Test 3 :

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)  et  r(n - 1)(c - 1)  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

On présente l’étude dans le tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Intra-S :

 

 

 

 

A

SCAobs

r - 1

MCAobs

FA obs

S(A)

SCS(A)obs

r(n - 1)

MCS(A)obs

 

Inter-S :

 

 

 

 

B

SCBobs

c - 1

MCBobs

FB obs

AB

SC(AB)obs

(r - 1)(c - 1)

MC(AB)obs

FAB obs

R

SCRobs

r(c - 1)(n - 1)

MCRobs

 

Total

SCTobs

N - 1

 

 

 

VI-1-5 Condition de validation :

Le fait de mesurer plusieurs fois la variable réponse sur le même sujet introduit des corrélations entre les observations faites sur ce même sujet. Dans le cas du modèle mixte univarié on montre que :                                 

Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys(i)1, Ys(i)2, …, Ys(i)c) indépendants et de même loi normale caractérisés par : E(Ys(i)j)=μij                     Var(Ys(i)j)=σ2ij                       cov(Ys(i)j , Ys(i)j) = cov(i)jj’

Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité et d’homogénéité des matrices des variances-covariances Σι  (i =1, 2, …, r) de la forme :

 

De même on peut considérer la matrice des corrélations ρ :

 


 

V-1-6 Exemple :

 

 

G 1

 

 

G 2

 

Sujet

L 1

L 2

L 3

L 1

L 2

L 3

1

10

11

9

3

6

3

2

18

20

17

16

20

14

3

6

8

8

5

6

3

4

4

9

9

10

10

6

Dans une expérience les sujets doivent estimer la longueur d’une barre métallique. Les barres présentées ont trois longueurs différentes. On forme deux groupes de 4 sujets distincts, dans chaque groupe on présente à chaque sujet trois barres de longueurs différentes …

 

Pratique des calculs :

 

 

 

G 1

 

 

 

G 2

 

 

Sujet

L 1

L 2

L 3

 

L 1

L 2

L 3

 

1

10

11

9

 

3

6

3

 

2

18

20

17

 

16

20

14

 

3

6

8

8

 

5

6

3

 

4

4

9

9

 

10

10

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pratique des calculs : autre méthode

 

A     B

L1

L2

L3

moyennes

 

A    S

1

2

3

4

G1

9,50

12,00

10,75

10,75

 

G1

10,00

18,33

7,33

7,33

G2

8,50

10,50

6,50

8,50

 

G2

4,00

16,67

4,67

8,67

moyennes

9,00

11,25

8,625

9,625

 

 

 

 

 

 

 

SCT=645,625             SCS=579,853             SCA=30,375              SCB=32,25

SC(A×B)=74,875     SC(AB)=12,25           SCS(A)=549,478       SCR=21,272

 

                                               Tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Intra-S :

 

 

 

 

A

SCAobs=30,375

r - 1=1

MCAobs=30,375

FA obs=0,331  

S(A)

SCS(A)obs=549,478

r(n - 1)=6

MC(AS)obs=91,579

 

Inter-S :

 

 

 

 

B

SCBobs=32,25

c - 1=2

MCBobs=16,125

FB obs=9,099

AB

SC(AB)obs=12,25

(r - 1)(c - 1)=2

MC(AB)obs=6,125

FAB obs=3,4565

R

SCRobs=21,272

r(c - 1)(n - 1)=12

MCRobs=1,772

 

Total

SCTobs=645,625

N - 1=23

 

 

 

 

 

 

Test de l’existence des différents effets :

 

Test 1 : Effet principal du facteur A

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r - 1 et
r(n - 1) degrés de liberté.

 

Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :

            si FA obs  λα=10,1  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

Or  FA obs =0,331<1 Dans ce cas particulier on considère 1/ FA obs = 1/0,331=3,015 et la comparaison se fait par rapport à la valeur lue dans la table de Fisher en inversant les degrés de liberté. 3,015 < λα=234  on en conclue qu’il n’y a pas d’effet principal du facteur A

 

Test 2 : Effet principal du facteur B

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1)  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα =3,89 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

Or  FB obs =9,099 > λα=3,89 on en conclue qu’il y a  un effet principal du facteur B

 

Test 3 : Test de l’effet d’interaction des facteurs A et B

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)  et  r(n - 1)(c - 1)  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα =3,89 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

Or  FAB obs =3,4565 < λα=3,89  on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B

 

 

 

 

 

 

 

Condition de validation du modèle :

Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié.

 

Matrice des variances-covariances

Groupe 1 (A=G1)                                            Groupe 2 (A=G2)

                        

 

On considère la matrice des variances-covariances « moyenne »

 

et la matrice des corrélations associée :

 

 

La validité du modèle mixte univarié est considérée comme acquise.El Methni M.

 

VI-1. A et B sont deux facteurs à effets fixes

VI-1-1 Généralités

On considère le plan quasi-complet S<A>×B où les sujets sont répartis dans des groupes définis par les r modalités du facteur A. Chaque sujet est observé dans les différentes occasions définies par les c modalités du facteur B. Il y a n sujets par groupe. On a donc échantillonné n×r sujets et on dispose donc de N=n×r×c observations ys(i)j que l’on présente sous la forme d’un tableau :

 

 

Sujets

a1

ai

ar

 

b1

bj

bc

b1

bj

bc

b1

bj

bc

1

y1(1)1

y1(1)j

y1(1)c

y1(i)1

y1(i)j

y1(i)c

y1(r)1

y1(r)j

y1(r)c

 

2

y2(1)1

y2(1)j

y2(1)c

y2(i)1

y2(i)j

y2(i)c

y2(r)1

y2(r)j

y2(r)c

 

 

s

ys(1)1

ys(1)j

ys(1)c

ys(i)1

ys(i)j

ys(i)c

ys(r)1

ys(r)j

ys(r)c

 

 

n

yn(1)1

yn(1)j

yn(1)c

yn(i)1

yn(i)j

yn(i)c

yn(r)1

yn(r)j

yn(r)c

 

 

VI-1-2 Modèle univarié :

Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule  variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S emboîté dans A et B. Elles peuvent d’autre part, être regardées comme les  n×r observations d’un vecteur de c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.

Comme pour les plans S×O et S×A×B nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ys(i)j correspond alors à l’observation d’une variable aléatoire Ys(i)j et on pose le modèle mixte suivant :

Ys(i)j = μij + πs(i) + (πβ)sj + es(i)j

Pour chaque croisement des modalités s et j nous ne disposons que d’une seule observation, l’interaction (πβ)sj sera confondue avec le résidu et on pose : εs(i)j=(πβ)sj + es(i)j

On a donc : Ys(i)j = μij + πs(i) + εs(i)j

Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B

Les πs(i) (s = 1, 2, …, n, i =1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S

Les résidus εs(i)j sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)

De plus, on suppose que les résidus εs(i)j sont indépendantes des πs(i).

Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :

µij = µ + αi + βj + (αβ)ij

Où :

Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,

Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A

Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B

Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet d’interaction des modalités i et j.

Le modèle mixte univarié peut finalement s’écrire :

Ys(i)j = µ + αi + βj + (αβ)ij + πs(i) + εs(i)j

Où : les Ys(i)j sont des variables aléatoires de loi :  

Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :

 

 

VI-1-3 Décomposition de la variation :

On note :  la moyenne des c observations de la modalité s(i) de l’emboîtement S<A>

 la moyenne des nc observations de la modalité i de A

 la moyenne des nr observations de la modalité j de B

 la moyenne des n observations de la modalité (i,j) du croisement A×B et  la moyenne générale

 

On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets

 

 

On décompose la variation inter-sujets en variation inter A et variation intra A. On obtient :

SCinter-sujets = SCSobs = SCinter A+ SCintra A  où :

 

 

La variation intra-sujets est due aux effets du facteur B  et à l’effet des autres facteurs non contrôlés. L’effet du facteur B se fait à deux niveaux : effet principal et effet d’interaction avec A. On a :

SCintra-sujets = SCBobs + SC(AB)obs + SCRobs

Avec : SC(AB)obs = SC(A×B)obs - SC(A)obs - SC(B)obs

Conclusion : Dans le cas du plan complet S<A>×B, la variation totale se décompose de façon additive en :

SCTobs = SCAobs + SCS(A)obs + SCBobs + SCABobs + SCRobs

 

De même on a la décomposition des degrés de liberté :

N-1=ncr-1 = (r-1)+r(n-1)+(c-1)+(r-1)(c-1)+r(c-1)(n-1)

Les différentes sommes de carrées se calculent de façon habituelles par :

 =N×variance de toutes les observations

 =N×variance des r moyennes par modalités de A

 =N×variance des r×n moyennes des sujets

SCS(A)obs = SCSobs - SCAobs

 =N×variance des c moyennes par modalités de B

 =N×variance des r×c moyennes par croisement de A et B

SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs

SCRobs = SCTobs - SCAobs - SCBobs - SC(AB)obs - SCS(A)obs

 

Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.

On montre le théorème fondamental suivant :

 

Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCAB, SCS(A), et SCR sont indépendantes et d’espérance respective :

                         

 

On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.

 

 

Ceci nous permet de réécrire le théorème précédent sous la forme suivante :

 

Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS(A), MCAB, et MCR sont indépendantes et d’espérances respectives :

                         

 

Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :

 

Test 1 :

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r - 1 et
r(n - 1) degrés de liberté.

 

Le test1 est alors défini au seuil de signification α par la règle de décision suivante :

            si FA obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

 

Test 2 :

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1)  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

 

Test 3 :

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)  et  r(n - 1)(c - 1)  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

On présente l’étude dans le tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Intra-S :

 

 

 

 

A

SCAobs

r - 1

MCAobs

FA obs

S(A)

SCS(A)obs

r(n - 1)

MCS(A)obs

 

Inter-S :

 

 

 

 

B

SCBobs

c - 1

MCBobs

FB obs

AB

SC(AB)obs

(r - 1)(c - 1)

MC(AB)obs

FAB obs

R

SCRobs

r(c - 1)(n - 1)

MCRobs

 

Total

SCTobs

N - 1

 

 

 

VI-1-5 Condition de validation :

Le fait de mesurer plusieurs fois la variable réponse sur le même sujet introduit des corrélations entre les observations faites sur ce même sujet. Dans le cas du modèle mixte univarié on montre que :                                 

Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys(i)1, Ys(i)2, …, Ys(i)c) indépendants et de même loi normale caractérisés par : E(Ys(i)j)=μij                     Var(Ys(i)j)=σ2ij                       cov(Ys(i)j , Ys(i)j) = cov(i)jj’

Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité et d’homogénéité des matrices des variances-covariances Σι  (i =1, 2, …, r) de la forme :

 

De même on peut considérer la matrice des corrélations ρ :

 


 

V-1-6 Exemple :

 

 

G 1

 

 

G 2

 

Sujet

L 1

L 2

L 3

L 1

L 2

L 3

1

10

11

9

3

6

3

2

18

20

17

16

20

14

3

6

8

8

5

6

3

4

4

9

9

10

10

6

Dans une expérience les sujets doivent estimer la longueur d’une barre métallique. Les barres présentées ont trois longueurs différentes. On forme deux groupes de 4 sujets distincts, dans chaque groupe on présente à chaque sujet trois barres de longueurs différentes …

 

Pratique des calculs :

 

 

 

G 1

 

 

 

G 2

 

 

Sujet

L 1

L 2

L 3

 

L 1

L 2

L 3

 

1

10

11

9

 

3

6

3

 

2

18

20

17

 

16

20

14

 

3

6

8

8

 

5

6

3

 

4

4

9

9

 

10

10

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pratique des calculs : autre méthode

 

A     B

L1

L2

L3

moyennes

 

A    S

1

2

3

4

G1

9,50

12,00

10,75

10,75

 

G1

10,00

18,33

7,33

7,33

G2

8,50

10,50

6,50

8,50

 

G2

4,00

16,67

4,67

8,67

moyennes

9,00

11,25

8,625

9,625

 

 

 

 

 

 

 

SCT=645,625             SCS=579,853             SCA=30,375              SCB=32,25

SC(A×B)=74,875     SC(AB)=12,25           SCS(A)=549,478       SCR=21,272

 

                                               Tableau d’analyse de la variance :

 

Source

SCobs

ddl

MCobs

Fobs

Intra-S :

 

 

 

 

A

SCAobs=30,375

r - 1=1

MCAobs=30,375

FA obs=0,331  

S(A)

SCS(A)obs=549,478

r(n - 1)=6

MC(AS)obs=91,579

 

Inter-S :

 

 

 

 

B

SCBobs=32,25

c - 1=2

MCBobs=16,125

FB obs=9,099

AB

SC(AB)obs=12,25

(r - 1)(c - 1)=2

MC(AB)obs=6,125

FAB obs=3,4565

R

SCRobs=21,272

r(c - 1)(n - 1)=12

MCRobs=1,772

 

Total

SCTobs=645,625

N - 1=23

 

 

 

 

 

 

Test de l’existence des différents effets :

 

Test 1 : Effet principal du facteur A

hypothèse nulle                         H0A : pas d’effet principal du facteur A (i) αi = 0 contre

l’hypothèse alternative :           H1A : il existe un effet principal du facteur A (i) αi  0

 

Théorème : sous l’hypothèse H0A, la statistique   suit une loi de Fischer à r - 1 et
r(n - 1) degrés de liberté.

 

Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :

            si FA obs  λα=10,1  alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FA  λα).

Or  FA obs =0,331<1 Dans ce cas particulier on considère 1/ FA obs = 1/0,331=3,015 et la comparaison se fait par rapport à la valeur lue dans la table de Fisher en inversant les degrés de liberté. 3,015 < λα=234  on en conclue qu’il n’y a pas d’effet principal du facteur A

 

Test 2 : Effet principal du facteur B

hypothèse nulle                         H0B : pas d’effet principal du facteur B (j) βj = 0 contre

l’hypothèse alternative :           H1B : il existe un effet principal du facteur B (j) βj  0

 

Théorème : sous l’hypothèse H0B, la statistique   suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1)  degrés de liberté.

 

Le test2 est alors défini au seuil de signification α par la règle de décision suivante :

            si FB obs  λα =3,89 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FB  λα).

Or  FB obs =9,099 > λα=3,89 on en conclue qu’il y a  un effet principal du facteur B

 

Test 3 : Test de l’effet d’interaction des facteurs A et B

hypothèse nulle                         H0AB : pas d’effet d’interaction (i,j) (αβ)ij = 0 contre

l’hypothèse alternative :           H1AB : il existe une interaction (i,j) (αβ)ij  0

 

Théorème : sous l’hypothèse H0AB, la statistique   suit une loi de Fischer à
(r - 1)(c - 1)  et  r(n - 1)(c - 1)  degrés de liberté.

 

Le test3 est alors défini au seuil de signification α par la règle de décision suivante :

            si FAB obs  λα =3,89 alors on rejette l’hypothèse nulle

λα  est donné par l’équation :  α = P(FAB  λα).

Or  FAB obs =3,4565 < λα=3,89  on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B

 

 

 

 

 

 

 

Condition de validation du modèle :

Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié.

 

Matrice des variances-covariances

Groupe 1 (A=G1)                                            Groupe 2 (A=G2)

                        

 

On considère la matrice des variances-covariances « moyenne »

 

et la matrice des corrélations associée :

 

 

La validité du modèle mixte univarié est considérée comme acquise.