Chapitre VI
VI-1-1 Généralités
On considère le plan quasi-complet S<A>×B où les sujets sont répartis dans des groupes définis par les r modalités du facteur A. Chaque sujet est observé dans les différentes occasions définies par les c modalités du facteur B. Il y a n sujets par groupe. On a donc échantillonné n×r sujets et on dispose donc de N=n×r×c observations ys(i)j que l’on présente sous la forme d’un tableau :
Sujets |
a1 |
… |
ai |
… |
ar |
|
||||||||||||||||||||||||||||
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
||||||||||||||||||
1 |
y1(1)1 |
… |
y1(1)j |
… |
y1(1)c |
… |
y1(i)1 |
… |
y1(i)j |
… |
y1(i)c |
… |
y1(r)1 |
… |
y1(r)j |
… |
y1(r)c |
|
||||||||||||||||
2 |
y2(1)1 |
… |
y2(1)j |
… |
y2(1)c |
… |
y2(i)1 |
… |
y2(i)j |
… |
y2(i)c |
… |
y2(r)1 |
… |
y2(r)j |
… |
y2(r)c |
|
||||||||||||||||
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
|
||||||||||||||||
s |
ys(1)1 |
… |
ys(1)j |
… |
ys(1)c |
… |
ys(i)1 |
… |
ys(i)j |
… |
ys(i)c |
… |
ys(r)1 |
… |
ys(r)j |
… |
ys(r)c |
|
||||||||||||||||
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
|
||||||||||||||||
n |
yn(1)1 |
… |
yn(1)j |
… |
yn(1)c |
… |
yn(i)1 |
… |
yn(i)j |
… |
yn(i)c |
… |
yn(r)1 |
… |
yn(r)j |
… |
yn(r)c |
|
||||||||||||||||
VI-1-2 Modèle univarié :
Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S emboîté dans A et B. Elles peuvent d’autre part, être regardées comme les n×r observations d’un vecteur de c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.
Comme pour les plans S×O et S×A×B nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ys(i)j correspond alors à l’observation d’une variable aléatoire Ys(i)j et on pose le modèle mixte suivant :
Ys(i)j = μij + πs(i) + (πβ)sj + es(i)j
Pour chaque croisement des modalités s et j nous ne disposons que d’une seule observation, l’interaction (πβ)sj sera confondue avec le résidu et on pose : εs(i)j=(πβ)sj + es(i)j
On a donc : Ys(i)j = μij + πs(i) + εs(i)j
Où
Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B
Les πs(i) (s = 1, 2, …, n, i =1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S
Les résidus εs(i)j sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)
De plus, on suppose que les résidus εs(i)j sont indépendantes des πs(i).
Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :
µij = µ + αi + βj + (αβ)ij
Où :
Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,
Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A
Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B
Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet d’interaction des modalités i et j.
Le modèle mixte univarié peut finalement s’écrire :
Ys(i)j = µ + αi + βj + (αβ)ij + πs(i) + εs(i)j
Où : les Ys(i)j sont des variables aléatoires de loi :
Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :
VI-1-3 Décomposition de la variation :
On
note : la moyenne des c observations de la
modalité s(i) de l’emboîtement S<A>
la moyenne des nc observations de la
modalité i de A
la moyenne des nr observations de la
modalité j de B
la moyenne des n observations de la
modalité (i,j) du croisement A×B
et
la moyenne générale
On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets
On décompose la variation inter-sujets en variation inter A et variation intra A. On obtient :
SCinter-sujets = SCSobs = SCinter A+ SCintra A où :
La variation intra-sujets est due aux effets du facteur B et à l’effet des autres facteurs non contrôlés. L’effet du facteur B se fait à deux niveaux : effet principal et effet d’interaction avec A. On a :
SCintra-sujets = SCBobs + SC(AB)obs + SCRobs
Avec : SC(AB)obs = SC(A×B)obs - SC(A)obs - SC(B)obs
Conclusion : Dans le cas du plan complet S<A>×B, la variation totale se décompose de façon additive en :
SCTobs = SCAobs + SCS(A)obs + SCBobs + SCABobs + SCRobs
De même on a la décomposition des degrés de liberté :
N-1=ncr-1 = (r-1)+r(n-1)+(c-1)+(r-1)(c-1)+r(c-1)(n-1)
Les différentes sommes de carrées se calculent de façon habituelles par :
=N×variance de toutes les observations
=N×variance des r moyennes par modalités de A
=N×variance des r×n moyennes des sujets
SCS(A)obs = SCSobs - SCAobs
=N×variance des c moyennes par modalités de B
=N×variance des r×c moyennes par croisement de A et
B
SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs
SCRobs = SCTobs - SCAobs - SCBobs - SC(AB)obs - SCS(A)obs
Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.
On montre le théorème fondamental suivant :
Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCAB, SCS(A), et SCR sont indépendantes et d’espérance respective :
On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.
Ceci nous permet de réécrire le théorème précédent sous la forme suivante :
Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS(A), MCAB, et MCR sont indépendantes et d’espérances respectives :
Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :
Test 1 :
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r - 1 et
r(n
- 1) degrés de liberté.
Le test1 est alors défini au seuil de signification α par la règle de décision suivante :
si FA obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Test 2 :
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1) degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Test 3 :
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1) et r(n
- 1)(c - 1) degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
On présente l’étude dans le tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Intra-S : |
|
|
|
|
A |
SCAobs |
r - 1 |
MCAobs |
FA obs |
S(A) |
SCS(A)obs |
r(n - 1) |
MCS(A)obs |
|
Inter-S : |
|
|
|
|
B |
SCBobs |
c - 1 |
MCBobs |
FB obs |
AB |
SC(AB)obs |
(r - 1)(c - 1) |
MC(AB)obs |
FAB obs |
R |
SCRobs |
r(c - 1)(n - 1) |
MCRobs |
|
Total |
SCTobs |
N - 1 |
|
|
VI-1-5 Condition de validation :
Le fait de
mesurer plusieurs fois la variable réponse sur le même sujet introduit des
corrélations entre les observations faites sur ce même sujet. Dans le cas du
modèle mixte univarié on montre que :
Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys(i)1, Ys(i)2, …, Ys(i)c) indépendants et de même loi normale caractérisés par : E(Ys(i)j)=μij Var(Ys(i)j)=σ2ij cov(Ys(i)j , Ys(i)j’) = cov(i)jj’
Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité et d’homogénéité des matrices des variances-covariances Σι (i =1, 2, …, r) de la forme :
De même on peut considérer la matrice des corrélations ρ :
V-1-6 Exemple :
|
|
G 1 |
|
|
G 2 |
|
Sujet |
L 1 |
L 2 |
L 3 |
L 1 |
L 2 |
L 3 |
1 |
10 |
11 |
9 |
3 |
6 |
3 |
2 |
18 |
20 |
17 |
16 |
20 |
14 |
3 |
6 |
8 |
8 |
5 |
6 |
3 |
4 |
4 |
9 |
9 |
10 |
10 |
6 |
Dans une expérience les sujets doivent estimer la longueur d’une barre métallique. Les barres présentées ont trois longueurs différentes. On forme deux groupes de 4 sujets distincts, dans chaque groupe on présente à chaque sujet trois barres de longueurs différentes …
Pratique des calculs :
|
|
G 1 |
|
|
|
G 2 |
|
|
Sujet |
L 1 |
L 2 |
L 3 |
|
L 1 |
L 2 |
L 3 |
|
1 |
10 |
11 |
9 |
|
3 |
6 |
3 |
|
2 |
18 |
20 |
17 |
|
16 |
20 |
14 |
|
3 |
6 |
8 |
8 |
|
5 |
6 |
3 |
|
4 |
4 |
9 |
9 |
|
10 |
10 |
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Pratique des calculs : autre méthode
A B |
L1 |
L2 |
L3 |
moyennes |
|
A S |
1 |
2 |
3 |
4 |
G1 |
9,50 |
12,00 |
10,75 |
10,75 |
|
G1 |
10,00 |
18,33 |
7,33 |
7,33 |
G2 |
8,50 |
10,50 |
6,50 |
8,50 |
|
G2 |
4,00 |
16,67 |
4,67 |
8,67 |
moyennes |
9,00 |
11,25 |
8,625 |
9,625 |
|
|
|
|
|
|
SCT=645,625 SCS=579,853 SCA=30,375 SCB=32,25
SC(A×B)=74,875 SC(AB)=12,25 SCS(A)=549,478 SCR=21,272
Tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Intra-S : |
|
|
|
|
A |
SCAobs=30,375 |
r - 1=1 |
MCAobs=30,375 |
FA obs=0,331 |
S(A) |
SCS(A)obs=549,478 |
r(n - 1)=6 |
MC(AS)obs=91,579 |
|
Inter-S : |
|
|
|
|
B |
SCBobs=32,25 |
c - 1=2 |
MCBobs=16,125 |
FB obs=9,099 |
AB |
SC(AB)obs=12,25 |
(r - 1)(c - 1)=2 |
MC(AB)obs=6,125 |
FAB obs=3,4565 |
R |
SCRobs=21,272 |
r(c - 1)(n - 1)=12 |
MCRobs=1,772 |
|
Total |
SCTobs=645,625 |
N - 1=23 |
|
|
Test de l’existence des différents effets :
Test 1 : Effet principal du facteur A
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r - 1 et
r(n
- 1) degrés de liberté.
Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :
si FA obs ≥ λα=10,1 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Or FA obs =0,331<1 Dans ce cas particulier on considère 1/ FA obs = 1/0,331=3,015 et la comparaison se fait par rapport à la valeur lue dans la table de Fisher en inversant les degrés de liberté. 3,015 < λ’α=234 on en conclue qu’il n’y a pas d’effet principal du facteur A
Test 2 : Effet principal du facteur B
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1) degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα =3,89 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Or FB obs =9,099 > λα=3,89 on en conclue qu’il y a un effet principal du facteur B
Test 3 : Test de l’effet d’interaction des facteurs A et B
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1) et r(n
- 1)(c - 1) degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα =3,89 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
Or FAB obs =3,4565 < λα=3,89 on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B
Condition de validation du modèle :
Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié.
Matrice des variances-covariances
Groupe 1 (A=G1) Groupe 2 (A=G2)
On considère la matrice des variances-covariances « moyenne »
et la matrice des corrélations associée :
La validité du modèle mixte univarié est considérée comme acquise.El Methni M.
VI-1-1 Généralités
On considère le plan quasi-complet S<A>×B où les sujets sont répartis dans des groupes définis par les r modalités du facteur A. Chaque sujet est observé dans les différentes occasions définies par les c modalités du facteur B. Il y a n sujets par groupe. On a donc échantillonné n×r sujets et on dispose donc de N=n×r×c observations ys(i)j que l’on présente sous la forme d’un tableau :
Sujets |
a1 |
… |
ai |
… |
ar |
|
||||||||||||||||||||||||||||
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
… |
b1 |
… |
bj |
… |
bc |
||||||||||||||||||
1 |
y1(1)1 |
… |
y1(1)j |
… |
y1(1)c |
… |
y1(i)1 |
… |
y1(i)j |
… |
y1(i)c |
… |
y1(r)1 |
… |
y1(r)j |
… |
y1(r)c |
|
||||||||||||||||
2 |
y2(1)1 |
… |
y2(1)j |
… |
y2(1)c |
… |
y2(i)1 |
… |
y2(i)j |
… |
y2(i)c |
… |
y2(r)1 |
… |
y2(r)j |
… |
y2(r)c |
|
||||||||||||||||
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
|
||||||||||||||||
s |
ys(1)1 |
… |
ys(1)j |
… |
ys(1)c |
… |
ys(i)1 |
… |
ys(i)j |
… |
ys(i)c |
… |
ys(r)1 |
… |
ys(r)j |
… |
ys(r)c |
|
||||||||||||||||
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
… |
|
||||||||||||||||
n |
yn(1)1 |
… |
yn(1)j |
… |
yn(1)c |
… |
yn(i)1 |
… |
yn(i)j |
… |
yn(i)c |
… |
yn(r)1 |
… |
yn(r)j |
… |
yn(r)c |
|
||||||||||||||||
VI-1-2 Modèle univarié :
Les données peuvent être d’une part, considérées comme les N = n×r×c observations d’une seule variable aléatoire Y dans les N = n×r×c conditions expérimentales décrites par le croisement des trois facteurs S emboîté dans A et B. Elles peuvent d’autre part, être regardées comme les n×r observations d’un vecteur de c variables aléatoires. Ces deux points de vue conduisent à l’élaboration de deux modèles, le modèle mixte univarié dans le premier cas, et le modèle multivarié dans le second.
Comme pour les plans S×O et S×A×B nous allons étudier le modèle mixte univarié dans lequel nous considérons que les modalités du facteur sujet ont été obtenues par échantillonnage, le facteur sujet est donc un facteur aléatoire. Les facteurs A et B sont des facteurs à effets fixes. Chaque donnée ys(i)j correspond alors à l’observation d’une variable aléatoire Ys(i)j et on pose le modèle mixte suivant :
Ys(i)j = μij + πs(i) + (πβ)sj + es(i)j
Pour chaque croisement des modalités s et j nous ne disposons que d’une seule observation, l’interaction (πβ)sj sera confondue avec le résidu et on pose : εs(i)j=(πβ)sj + es(i)j
On a donc : Ys(i)j = μij + πs(i) + εs(i)j
Où
Les µij (i =1, 2, …, r, j=1, 2, …, c) sont des constantes qui mesurent les effets fixes des modalités (i,j) du croisement A×B
Les πs(i) (s = 1, 2, …, n, i =1, 2, …, r) sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²π) qui mesurent les effets aléatoires des modalités s du facteur S
Les résidus εs(i)j sont des variables aléatoires indépendantes et identiquement distribuées (iid) de loi N(0 ;σ²)
De plus, on suppose que les résidus εs(i)j sont indépendantes des πs(i).
Nous pouvons réécrire l’effet fixe de la modalité (i,j) sous la forme suivante :
µij = µ + αi + βj + (αβ)ij
Où :
Le paramètre µ s’interprète comme un niveau général de réponse commun pour l’ensemble des observations,
Le paramètre αi = µi - µ s’interprète comme l’effet de la modalité i du facteur A
Le paramètre βj = µj - µ s’interprète comme l’effet de la modalité j du facteur B
Le paramètre (αβ)ij = µij - µi - µj + µ s’interprète comme l’effet d’interaction des modalités i et j.
Le modèle mixte univarié peut finalement s’écrire :
Ys(i)j = µ + αi + βj + (αβ)ij + πs(i) + εs(i)j
Où : les Ys(i)j sont des variables aléatoires de loi :
Une telle paramétrisation nécessite de rajouter les contraintes d’identifiabilité suivantes :
VI-1-3 Décomposition de la variation :
On
note : la moyenne des c observations de la
modalité s(i) de l’emboîtement S<A>
la moyenne des nc observations de la
modalité i de A
la moyenne des nr observations de la
modalité j de B
la moyenne des n observations de la
modalité (i,j) du croisement A×B
et
la moyenne générale
On commence par décomposer la variation totale en variation inter-sujets et variation intra-sujets : SCTobs = SCinter-sujets + SCintra-sujets
On décompose la variation inter-sujets en variation inter A et variation intra A. On obtient :
SCinter-sujets = SCSobs = SCinter A+ SCintra A où :
La variation intra-sujets est due aux effets du facteur B et à l’effet des autres facteurs non contrôlés. L’effet du facteur B se fait à deux niveaux : effet principal et effet d’interaction avec A. On a :
SCintra-sujets = SCBobs + SC(AB)obs + SCRobs
Avec : SC(AB)obs = SC(A×B)obs - SC(A)obs - SC(B)obs
Conclusion : Dans le cas du plan complet S<A>×B, la variation totale se décompose de façon additive en :
SCTobs = SCAobs + SCS(A)obs + SCBobs + SCABobs + SCRobs
De même on a la décomposition des degrés de liberté :
N-1=ncr-1 = (r-1)+r(n-1)+(c-1)+(r-1)(c-1)+r(c-1)(n-1)
Les différentes sommes de carrées se calculent de façon habituelles par :
=N×variance de toutes les observations
=N×variance des r moyennes par modalités de A
=N×variance des r×n moyennes des sujets
SCS(A)obs = SCSobs - SCAobs
=N×variance des c moyennes par modalités de B
=N×variance des r×c moyennes par croisement de A et
B
SC(AB)obs = SC(A×B)obs - SCAobs - SCBobs
SCRobs = SCTobs - SCAobs - SCBobs - SC(AB)obs - SCS(A)obs
Dans le cadre du modèle statistique ces sommes de carrés sont des réalisations de variables aléatoires dont on calcule les espérances et plus généralement les distributions des probabilités.
On montre le théorème fondamental suivant :
Théorème : Sous les hypothèses du modèle, les statistiques SCA, SCB, SCAB, SCS(A), et SCR sont indépendantes et d’espérance respective :
On ramène toutes les sommes de carrés à des moyennes de carrés en divisant par les degrés de liberté correspondants.
Ceci nous permet de réécrire le théorème précédent sous la forme suivante :
Théorème : Sous les hypothèses du modèle, les statistiques MCA, MCB, MCS(A), MCAB, et MCR sont indépendantes et d’espérances respectives :
Ceci nous permet de tester l’existence des différents effets des facteurs. On peut construire des tests indépendants sur chacune des sources de variations :
Test 1 :
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r - 1 et
r(n
- 1) degrés de liberté.
Le test1 est alors défini au seuil de signification α par la règle de décision suivante :
si FA obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Test 2 :
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1) degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Test 3 :
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1) et r(n
- 1)(c - 1) degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
On présente l’étude dans le tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Intra-S : |
|
|
|
|
A |
SCAobs |
r - 1 |
MCAobs |
FA obs |
S(A) |
SCS(A)obs |
r(n - 1) |
MCS(A)obs |
|
Inter-S : |
|
|
|
|
B |
SCBobs |
c - 1 |
MCBobs |
FB obs |
AB |
SC(AB)obs |
(r - 1)(c - 1) |
MC(AB)obs |
FAB obs |
R |
SCRobs |
r(c - 1)(n - 1) |
MCRobs |
|
Total |
SCTobs |
N - 1 |
|
|
VI-1-5 Condition de validation :
Le fait de
mesurer plusieurs fois la variable réponse sur le même sujet introduit des
corrélations entre les observations faites sur ce même sujet. Dans le cas du
modèle mixte univarié on montre que :
Dans le cas du modèle multivarié on considère que les données sont les réalisations de n vecteurs aléatoires de dimension rc. Ys=(Ys(i)1, Ys(i)2, …, Ys(i)c) indépendants et de même loi normale caractérisés par : E(Ys(i)j)=μij Var(Ys(i)j)=σ2ij cov(Ys(i)j , Ys(i)j’) = cov(i)jj’
Le modèle mixte univarié est donc un cas particulier du modèle multivarié correspondant aux hypothèses de circularité et d’homogénéité des matrices des variances-covariances Σι (i =1, 2, …, r) de la forme :
De même on peut considérer la matrice des corrélations ρ :
V-1-6 Exemple :
|
|
G 1 |
|
|
G 2 |
|
Sujet |
L 1 |
L 2 |
L 3 |
L 1 |
L 2 |
L 3 |
1 |
10 |
11 |
9 |
3 |
6 |
3 |
2 |
18 |
20 |
17 |
16 |
20 |
14 |
3 |
6 |
8 |
8 |
5 |
6 |
3 |
4 |
4 |
9 |
9 |
10 |
10 |
6 |
Dans une expérience les sujets doivent estimer la longueur d’une barre métallique. Les barres présentées ont trois longueurs différentes. On forme deux groupes de 4 sujets distincts, dans chaque groupe on présente à chaque sujet trois barres de longueurs différentes …
Pratique des calculs :
|
|
G 1 |
|
|
|
G 2 |
|
|
Sujet |
L 1 |
L 2 |
L 3 |
|
L 1 |
L 2 |
L 3 |
|
1 |
10 |
11 |
9 |
|
3 |
6 |
3 |
|
2 |
18 |
20 |
17 |
|
16 |
20 |
14 |
|
3 |
6 |
8 |
8 |
|
5 |
6 |
3 |
|
4 |
4 |
9 |
9 |
|
10 |
10 |
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Pratique des calculs : autre méthode
A B |
L1 |
L2 |
L3 |
moyennes |
|
A S |
1 |
2 |
3 |
4 |
G1 |
9,50 |
12,00 |
10,75 |
10,75 |
|
G1 |
10,00 |
18,33 |
7,33 |
7,33 |
G2 |
8,50 |
10,50 |
6,50 |
8,50 |
|
G2 |
4,00 |
16,67 |
4,67 |
8,67 |
moyennes |
9,00 |
11,25 |
8,625 |
9,625 |
|
|
|
|
|
|
SCT=645,625 SCS=579,853 SCA=30,375 SCB=32,25
SC(A×B)=74,875 SC(AB)=12,25 SCS(A)=549,478 SCR=21,272
Tableau d’analyse de la variance :
Source |
SCobs |
ddl |
MCobs |
Fobs |
Intra-S : |
|
|
|
|
A |
SCAobs=30,375 |
r - 1=1 |
MCAobs=30,375 |
FA obs=0,331 |
S(A) |
SCS(A)obs=549,478 |
r(n - 1)=6 |
MC(AS)obs=91,579 |
|
Inter-S : |
|
|
|
|
B |
SCBobs=32,25 |
c - 1=2 |
MCBobs=16,125 |
FB obs=9,099 |
AB |
SC(AB)obs=12,25 |
(r - 1)(c - 1)=2 |
MC(AB)obs=6,125 |
FAB obs=3,4565 |
R |
SCRobs=21,272 |
r(c - 1)(n - 1)=12 |
MCRobs=1,772 |
|
Total |
SCTobs=645,625 |
N - 1=23 |
|
|
Test de l’existence des différents effets :
Test 1 : Effet principal du facteur A
hypothèse nulle H0A : pas d’effet principal du facteur A (
i) αi = 0 contre
l’hypothèse alternative : H1A
: il existe un effet principal du facteur A (
i) αi ≠ 0
Théorème : sous l’hypothèse H0A,
la statistique suit une loi de Fischer à r - 1 et
r(n
- 1) degrés de liberté.
Le test1 est alors défini au seuil de signification α=5% par la règle de décision suivante :
si FA obs ≥ λα=10,1 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FA ≥ λα).
Or FA obs =0,331<1 Dans ce cas particulier on considère 1/ FA obs = 1/0,331=3,015 et la comparaison se fait par rapport à la valeur lue dans la table de Fisher en inversant les degrés de liberté. 3,015 < λ’α=234 on en conclue qu’il n’y a pas d’effet principal du facteur A
Test 2 : Effet principal du facteur B
hypothèse nulle H0B : pas d’effet principal du facteur B (
j) βj = 0 contre
l’hypothèse alternative : H1B
: il existe un effet principal du facteur B (
j) βj ≠ 0
Théorème : sous l’hypothèse H0B,
la statistique suit une loi de Fischer à c - 1 et
r(n - 1)(c - 1) degrés de liberté.
Le test2 est alors défini au seuil de signification α par la règle de décision suivante :
si FB obs ≥ λα =3,89 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FB ≥ λα).
Or FB obs =9,099 > λα=3,89 on en conclue qu’il y a un effet principal du facteur B
Test 3 : Test de l’effet d’interaction des facteurs A et B
hypothèse nulle H0AB : pas d’effet d’interaction (
i,j) (αβ)ij =
0 contre
l’hypothèse alternative : H1AB
: il existe une interaction (
i,j) (αβ)ij ≠ 0
Théorème : sous l’hypothèse H0AB, la
statistique suit une loi de Fischer à
(r - 1)(c - 1) et r(n
- 1)(c - 1) degrés de liberté.
Le test3 est alors défini au seuil de signification α par la règle de décision suivante :
si FAB obs ≥ λα =3,89 alors on rejette l’hypothèse nulle
où λα est donné par l’équation : α = P(FAB ≥ λα).
Or FAB obs =3,4565 < λα=3,89 on en conclue qu’il n’y a pas d’effet d’interaction des facteurs A et B
Condition de validation du modèle :
Calculons la matrice de variances covariances empirique (et aussi la matrice des corrélations) pour examiner la condition de validité du modèle mixte univarié.
Matrice des variances-covariances
Groupe 1 (A=G1) Groupe 2 (A=G2)
On considère la matrice des variances-covariances « moyenne »
et la matrice des corrélations associée :
La validité du modèle mixte univarié est considérée comme acquise.