Chapitre V
El Methni M.
V-1-1 Généralités
On considère le plan complet S×A×B
défini par le croisement de trois facteurs S, A et B.
S est le facteur sujet (aléatoire) à n
modalités. A et B sont deux facteurs à effets fixes, A
possède r modalités et B c modalités. Chacun des n sujets est observé dans chacun des r×c croisements des modalités de A
et B.
On dispose donc de N=n×r×c observations ysij que l’on présente sous la forme d’un tableau :
Sujets |
a1 |
… |
ai |
… |
ar |
||||||||||||
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
|
1 |
y111 |
… |
y11j |
… |
y11c |
… |
y1i1 |
… |
y1ij |
… |
y1ic |
… |
y1r1 |
… |
y1rj |
… |
y1rc |
2 |
y211 |
… |
y21j |
… |
y21c |
… |
y2i1 |
… |
y2ij |
… |
y2ic |
… |
y2r1 |
… |
y2rj |
… |
y2rc |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
s |
ys11 |
… |
ys1j |
… |
ys1c |
… |
ysi1 |
… |
ysij |
… |
ysic |
… |
ysr1 |
… |
ysrj |
… |
ysrc |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
n |
yn11 |
… |
yn1j |
… |
yn1c |
… |
yni1 |
… |
ynij |
… |
ynic |
… |
ynr1 |
… |
ynrj |
… |
ynrc |
V-1-2 Modèle univarié :
Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S, A et B. Elles peuvent d’autre part, être regardées comme les n observations d’un vecteur de r×c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.
Comme pour le plan S×O, nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ysij correspond alors à l’observation d’une variable aléatoire Ysij et on pose le modèle mixte suivant :
Ysij = μij + πs + (απ)is + (βπ)js + (αβπ)sij + esij
Pour chaque croisement des modalités s, i et j nous ne disposons que d’une seule observation, l’interaction (αβπ)sij sera confondue avec le résidu et on pose : εsij=(αβπ)sij + esij
On a donc : Ysij = μij + πs + (απ)is + (βπ)js + εsij
Où
Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B
Les πs (s = 1, 2, …, n) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S
Les (απ)si (s = 1, 2, …, n, i = 1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²απ) qui mesurent les effets aléatoires d’interactions entre le facteur S et le facteur A
Les (βπ)sj (s = 1, 2, …, n, j = 1, 2, …, c) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²βπ) qui mesurent les effets aléatoires d’interactions entre le facteur S et le facteur B
Les résidus εsij sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)
De plus, on suppose que les résidus εsij sont indépendantes des πs, des (απ)si et des (βπ)sj .
Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :
µij = µ + αi + βj + (αβ)ij
Où :
Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,
Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A
Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B
Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet de la modalité (i,j) du croisement A×B (l’effet d’interaction de A et B).
Le modèle mixte univarié peut finalement s’écrire :
Ysij = μ + αi + βj + (αβ)ij + πs + (απ)is + (βπ)js + εsij
Où : les Ysij
sont des variables aléatoires de loi :
Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :
V-1-3 Décomposition de la variation :
On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets
La variation inter-sujets est due au facteur sujet et la variation intra-sujets est due aux effets du croisement A×B et à l’effet des autres facteurs non contrôlés. L’effet du facteur A×B se fait à deux niveaux : effet principal et effet d’interaction.
SCintra-sujets = SC(A×B)obs + SC(A×B)Sobs + SCRobs
Avec : SC(A×B)obs= SC(A)obs + SC(B)obs + SC(AB)obs
et : SC(A×B)Sobs = SC(AS)obs + SC(BS)obs + SC(ABS)obs
Ne disposant que d’une seule observation pour chaque croisement (i,j,s) on ne peut donc séparer l’interaction SAB du résidu on a donc : SC(ABS)obs = SCR
Conclusion : Dans le cas du plan complet S×A×B, la variation totale se décompose de façon additive en :
SCTobs = SCSobs + SCAobs + SCBobs + SCABobs + SCASobs + SCBSobs + SCRobs
De même on a la décomposition des degrés de liberté :
N-1=ncr-1 = (n-1) + n(rc-1) = (n-1) + n(rc-1) - (c-1)(r-1)(n-1) + (c-1)(r-1)(n-1)
N-1=ncr-1 =(n-1)+(r-1)+(c-1)+(c-1)(r-1)+(r-1)(n-1)+(c-1)(n-1)
Les différentes sommes de carrées se calculent de façon habituelles par :
=N×variance de toutes les observations
=N×variance des n moyennes des sujets
=N×variance des r moyennes par modalités de A
=N×variance des c moyennes par modalités de B
=N×variance des r×c moyennes par croisement de A et
B
SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs
=N×variance des r×n moyennes par croisement de A et
S
SC(AS)obs = SC(A×S)obs - SCAobs - SCSobs
=N×variance des n×c moyennes par croisement de B et
S
SC(BS)obs = SC(B×S)obs - SCBobs - SCSobs
SCRobs = SCTobs - SCSobs - SCAobs - SCBobs - SC(AB)obs - SC(AS)obs - SC(BS)obs
Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.
On montre le théorème fondamental suivant :
Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCS, SCAB, SCAS, SCBS et SCR sont indépendantes et d’espérances respectives :
On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.
Ceci nous permet de réécrire le théorème précédent sous la forme suivante :
Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS, MCAB, MCAS, MCBS et MCR sont indépendantes et d’espérances respectives :
Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :
Test 1 :
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r - 1 et
(n - 1)(r - 1) degrés de liberté.
Le test1 est alors défini au seuil de signification α par la règle de décision suivante :
si FA obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Test 2 :
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c - 1 et
(n - 1)(c - 1) degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Test 3 :
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1) et (n
- 1)(c - 1) (r - 1) degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
On présente l’étude dans le tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Inter-sujets : S |
SCSobs |
n - 1 |
|
|
Intra-sujets : |
|
|
|
|
A |
SCAobs |
r - 1 |
MCAobs |
FA obs |
AS |
SC(AS)obs |
(r - 1)(n - 1) |
MC(AS)obs |
|
B |
SCBobs |
c - 1 |
MCBobs |
FB obs |
BS |
SC(BS)obs |
(c - 1)(n - 1) |
MC(BS)obs |
|
AB |
SC(AB)obs |
(r - 1)(c - 1) |
MC(AB)obs |
FAB obs |
R |
SCRobs |
(r - 1)(c - 1)(n - 1) |
MCRobs |
|
Total |
SCTobs |
N - 1 |
|
|
V-1-5 Condition de validation :
Le fait de
mesurer plusieurs fois la variable réponse sur le même sujet introduit des
corrélations entre les observations faites sur ce même sujet. Dans le cas du
modèle mixte univarié on montre que :
Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys1, Ys2, …, Ysrc) indépendants et de même loi normale caractérisés par : E(Ysk)=μij Var(Ysk)=σ2ij cov(Ysk , Ysk’) = covkk’
Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité de la matrice de variance-covariance Σ de la forme :
|
A1 |
|
Ai |
|
Ar |
|
||||||||||||||||||||||||
B1 |
… |
Bc |
… |
B1 |
… |
Bj |
… |
Bc |
… |
B1 |
… |
Bc |
|
|||||||||||||||||
A1 |
B1 |
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
Bc |
σ2π+σ2πα |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ai |
B1 |
σ2π+σ2πβ |
|
σ2π |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
|||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
Bj |
σ2π |
|
σ2π |
|
σ2π+σ2πα |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
||||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
Bc |
σ2π |
|
σ2π+σ2πβ |
|
σ2π+σ2πα |
|
σ2π+σ2πα |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
||||||||||||||||
|
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ar |
B1 |
σ2π+σ2πβ |
|
σ2π |
|
σ2π+σ2πβ |
|
σ2π |
|
σ2π |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
Bc |
σ2π |
|
σ2π+σ2πβ |
|
σ2π |
|
σ2π |
|
σ2π+σ2πβ |
|
σ2π+σ2πα |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
||||||||||||||||
|
B1 |
… |
Bj |
… |
Bc |
|
|||||||||||||||||||||||
A1 |
… |
Ar |
A1 |
… |
Ai |
… |
Ar |
A1 |
… |
Ar |
|
||||||||||||||||||
B1 |
A1 |
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ar |
σ2π+σ2πβ |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Bj |
A1 |
σ2π+σ2πα |
|
σ2π |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|
|
||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ai |
σ2π |
|
σ2π |
|
σ2π+σ2πβ |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|
|
|||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ar |
σ2π |
|
σ2π+σ2πα |
|
σ2π+σ2πβ |
|
σ2π+σ2πβ |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
|
|
|||||||||||||||
|
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Bc |
A1 |
σ2π+σ2πα |
|
σ2π |
|
σ2π+σ2πα |
|
σ2π |
|
σ2π |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|
|
||||||||||||||
… |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Ar |
σ2π |
|
σ2π+σ2πα |
|
σ2π |
|
σ2π |
|
σ2π+σ2πα |
|
σ2π+σ2πβ |
|
σ2π + σ2πα+ σ2πβ+ σ2 |
|
|||||||||||||||
V-1-6 Exemple :
|
|
Test 1 |
|
|
Test 2 |
|
Sujet |
M1 |
M2 |
M6 |
M1 |
M2 |
M6 |
1 |
10 |
11 |
9 |
3 |
6 |
3 |
2 |
18 |
20 |
17 |
16 |
20 |
14 |
3 |
6 |
8 |
8 |
5 |
6 |
3 |
4 |
4 |
9 |
9 |
10 |
10 |
6 |
Un expérimentateur veut étudier l’effet de la consommation de lécithine sur les troubles de mémoire. Il choisit 4 sujets auxquels il administre un traitement quotidien. Au bout d’un mois, de deux mois et de six mois de traitements, il fait passer à chaque sujet deux tests. Le premier test (test 1) est le même chaque mois, le deuxième test (test 2) est une forme parallèle chaque mois.
Pratique des calculs :
|
|
Test 1 |
|
|
|
Test 2 |
|
|
|
Sujet |
M1 |
M2 |
M6 |
|
M1 |
M2 |
M6 |
|
|
1 |
10 |
11 |
9 |
|
3 |
6 |
3 |
|
|
2 |
18 |
20 |
17 |
|
16 |
20 |
14 |
|
|
3 |
6 |
8 |
8 |
|
5 |
6 |
3 |
|
|
4 |
4 |
9 |
9 |
|
10 |
10 |
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Pratique des calculs : autre méthode
A B |
M1 |
M2 |
M6 |
moyennes |
|
A S |
1 |
2 |
3 |
4 |
T1 |
9,50 |
12,00 |
10,75 |
10,75 |
|
T1 |
10,00 |
18,33 |
7,33 |
7,33 |
T2 |
8,50 |
10,50 |
6,50 |
8,50 |
|
T2 |
4,00 |
16,67 |
4,67 |
8,67 |
moyennes |
9,00 |
11,25 |
8,625 |
9,625 |
|
moyennes |
7,00 |
17,50 |
6,00 |
8,00 |
B S |
1 |
2 |
3 |
4 |
M1 |
6,50 |
17,00 |
5,50 |
7,00 |
M2 |
8,50 |
20,00 |
7,00 |
9,50 |
M6 |
6,00 |
15,50 |
5,50 |
7,50 |
moyennes |
7,00 |
17,50 |
6,00 |
8,00 |
Calcul des sommes des carrées :
SCT=645,625 SCS=508,125 SCA=30,375 SCB=32,25
SC(A×B)=74,875 SC(AB)=12,25 SC(A×S)=579,5652 SC(AS)=41,133
SC(B×S)=546,125 SC(BS)=5,75 SCR=15,742
Tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Inter S |
SCSobs=508,125 |
n - 1=3 |
|
|
Intra S |
|
|
|
|
A |
SCAobs=30,375 |
r - 1=1 |
MCAobs=30,375 |
FA obs=2,215 |
AS |
SC(AS)obs=41,133 |
(r - 1)(n - 1)=3 |
MC(AS)obs=13,711 |
|
B |
SCBobs=32,25 |
c - 1=2 |
MCBobs=16,125 |
FB obs=16,827 |
BS |
SC(BS)obs=5,75 |
(c - 1)(n - 1)=6 |
MC(BS)obs=0,9583 |
|
AB |
SC(AB)obs=12,25 |
(r - 1)(c - 1)=2 |
MC(AB)obs=6,125 |
FAB obs=2,334 |
R |
SCRobs=15,742 |
(r - 1)(c - 1)(n - 1)=6 |
MCRobs=2,624 |
|
Total |
SCTobs=645,625 |
N - 1=23 |
|
|
Test de l’existence des différents effets :
Test 1 : Effet principal du facteur A
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r
1=1 et
(n - 1)(r - 1)=3 degrés de liberté.
Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :
si FA obs ≥ λα=10,1 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Or FA obs =2,215 < λα=10,1 on en conclue qu’il n’y a pas d’effet principal du facteur A
Test 2 : Effet principal du facteur B
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c
1=2 et
(n - 1)(c - 1)=6 degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα =5,14 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Or FB obs =16,827 > λα=5,14 on en conclue qu’il y a un effet principal du facteur B
Test 3 : Test de l’effet d’interaction des facteurs A et B
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1)=2 et (n
- 1)(c - 1) (r - 1)=6 degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα =5,14 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
Or FAB obs =2,334 < λα=5,14 on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B
Condition de validation du modèle :
Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié. Les résultats sont présentés sous forme de blocs homogènes (qui devraient l’être).
Matrice de Variances Covariances
|
A |
Test1 |
Test2 |
||||
A |
B |
M1 |
M2 |
M6 |
M1 |
M2 |
M6 |
Test1 |
M1 |
28,750 |
|
|
|
|
|
M2 |
24,500 |
22,500 |
|
|
|
|
|
M6 |
17,875 |
17,000 |
13,188 |
|
|
|
|
Test2 |
M1 |
16,250 |
18,750 |
15,875 |
25,250 |
|
|
M2 |
24,250 |
18,750 |
20,125 |
27,750 |
32,750 |
|
|
M6 |
19,250 |
19,750 |
15,875 |
21,750 |
25,750 |
20,250 |
Matrice des corrélations.
|
A |
Test 1 |
Test 2 |
||||
A |
B |
M1 |
M2 |
M6 |
M1 |
M2 |
M6 |
Test 1 |
M1 |
1 |
|
|
|
|
|
M2 |
0,9633 |
1 |
|
|
|
|
|
M6 |
0,9180 |
0,9869 |
1 |
|
|
|
|
Test 2 |
M1 |
0,6031 |
0,7866 |
0,8700 |
1 |
|
|
M2 |
0,7903 |
0,7276 |
0,9684 |
0,9650 |
1 |
|
|
M6 |
0,7978 |
0,9253 |
0,9714 |
0,9619 |
0,9999 |
1 |
Le premier bloc (en haut et à gauche) est le bloc des variables issues des modalités de B alors que A prend la modalité « test1 ». Le deuxième bloc (en bas et à droite) est le bloc des variables issues des modalités de B alors que A prend la modalité « test2 ». Et le troisième bloc (en bas et à gauche) est le bloc des variables issues des modalités de B et aussi des modalités de A (test1 et test2) à la fois. Dans ce dernier bloc, on distingue les éléments de la diagonale, dont les modalités de B sont les mêmes des éléments hors diagonale.
Nous constatons qu'à l'intérieur des blocs nous avons, (plus ou moins) une homogénéité des covariances (et aussi des corrélations). En ce qui concerne la condition d'homoscédasticité (homogénéité des variances), nous ne constatons pas une différence importante sur la diagonale principale de la matrice, donc nous pouvons penser que cette condition est également acquise.