Précédent / Suivant / Table des matières

Chapitre VII

Analyse des comparaisons a priori  

El Methni M.

 

VII-1. Généralités

VII-1-1 Notion de comparaison

Contrairement à l’analyse de la variance canonique nous nous intéressons aux situations où les hypothèses portent sur des comparaisons entre les effets associés à certaines modalités des facteurs. De ce fait on ne considère que des facteurs à effets fixes. Dans le cas d’un facteur à effets fixes, le modèle pose que les effets du facteur portent sur la moyenne de la VD. Comparer les effets de certaines modalités revient donc à comparer les moyennes qui leur sont associées dans le modèle.

Définition 1 : On appelle contraste entre k moyennes μ1, μ2, …, μk toute combinaison linéaire de la forme :  

On appelle comparaison tout ensemble de contrastes.

 

VII-1-2 Construction d’un contraste

Une hypothèse portant sur une comparaison entre des moyennes est traduite par la donnée d'un contraste entre les moyennes. Ce contraste est caractérisé par la donnée d'un ensemble de coefficients de somme nulle. Nous donnons un procédé particulier permettant de choisir ces coefficients. Ce procédé repose sur une propriété classique de la moyenne arithmétique pondérée.

Proposition 1 : Etant donnée un ensemble de valeurs et une pondération quelconque sur cet ensemble de valeurs, la somme des écarts pondérés à la moyenne pondérée est nulle.

Comparer des moyennes revient à

·      Ordonner les moyennes ou les écarts entre les moyennes.

·      Associer à chaque moyenne un rang selon l'hypothèse à tester.

·      Calculer la moyenne des rangs, puis centrer les rangs par rapport à leur moyenne.

·     Les coefficients sont alors calculés à partir des rangs centrés en utilisant la proposition précédente.

Remarque 1 : L'usage conduit à considérer des pondérations proportionnelles aux poids des modalités. Ainsi quand les groupes sont équilibrés, on calcule une simple moyenne arithmétique. Par contre, dans le cas d'un plan non équilibré, les effectifs des groupes constituent les poids des modalités.

Certaines moyennes peuvent ne pas être concernées par des hypothèses. Les coefficients relatifs à ces moyennes seront nuls.

 

 

VII-1-3 Tests d’hypothèses sur les comparaisons

Nous avons vu que poser une hypothèse sur certains effets du facteur revient à construire un contraste C. Pour définir le test d'hypothèses, nous pouvons écrire les hypothèses de test pour le contraste C : H0 : C = 0     contre   H1 : C  0 (respectivement C>0 ou C<0)

Dans le cas d'une comparaison simple sur deux modalités particulières, le contraste correspondant est écrit sur les moyennes théoriques µ1 et µ2 : C = µ1 - µ2

et la statistique de test est définie à partir des observations :  

La distribution d'échantillonnage de la statistique de test  dépend des hypothèses faites sur le modèle, (taille, échantillons, … ) et peut être soit la loi normale soit la loi de Student.

Dans le cas général, la construction des tests de comparaisons est fondée sur l'évaluation des contrastes à partir des observations. Pour effectuer un test d'hypothèses sur le contraste  la statistique de test est définie par  :  

On généralise ainsi le test de comparaison entre deux moyennes au test de comparaison entre deux groupes de moyennes.

 

VII-1-4 Les erreurs de première espèce

La question principale qui se pose dans tout examen des procédures de comparaisons multiples est liée à la probabilité de commettre des erreurs de première espèce. La plupart des différences entre les méthodes proposées sont dues au fait qu'on y adopte des approches différentes dans la manière de contrôler les erreurs. Le problème est en partie technique, mais il relève bien plus encore d'une question subjective : comment veut-on définir le taux d'erreur et quelle marge se donne-t-on pour le taux maximal d'erreur possible ?

Étant donné un ensemble de comparaisons, on est amené à distinguer deux types d'erreurs de première espèce :

·      l'erreur par comparaison notée α(EC) :

α(EC) = P(rejeter H0 à tort) dans une comparaison donnée.

Nous avons déjà utilisé l'erreur par comparaison (EC). Il s'agit de la probabilité de commettre une erreur de première espèce dans une comparaison donnée. Si, par exemple, nous procédons à une comparaison en effectuant un test t entre deux groupes et rejetons l'hypothèse nulle parce que notre t excède t0,05, nous travaillons avec une erreur par comparaison de α=0,05.

·     l'erreur de l'ensemble notée α(EE) :

α(EE) = P(rejeter au moins une fois H0 à tort) dans l'ensemble des comparaisons.

Lorsque nous aurons effectué un ensemble de comparaisons entre nos moyennes de groupes, nous arrivons à un ensemble (souvent appelé famille) de conclusions. Par exemple, la famille pourrait se composer des affirmations : µ1 < µ2 et µ3 < µ4 et µ1 < (µ3 + µ4)/2.

La probabilité de voir cette famille de conclusions contenir au moins une erreur de première espèce est appelée erreur de l'ensemble α(EE).

De nombreuses procédures que nous examinons visent de façon spécifique à contrôler l'erreur d'ensemble α(EE).

Dans une expérience qui n'implique qu'une seule comparaison on a α(EC) = α(EE). Par contre, à mesure que le nombre de comparaisons augmente, ces deux probabilités se différencient. On peut donner un calcul approché de la relation entre ces deux probabilités α(EC) et α(EE).

Considérons une famille de r comparaisons C1, C2, …, Cr et soit α le seuil de signification pour chaque comparaison simple : α(EC) = α.

Pour une comparaison donnée, P(ne pas rejeter H0) = 1-α.

Pour un ensemble de comparaisons :

P(aucune erreur de première espèce)=P(pas d’ erreur de première espèce pour C1  pas d’ erreur de première espèce pour C2  …  pas d’ erreur de première espèce pour Cr)

Si les comparaisons sont indépendantes alors : P(aucune erreur de première espèce)=P(pas d’ erreur de première espèce pour C1 × P(pas d’ erreur de première espèce pour C2) × … × P(pas d’ erreur de première espèce pour Cr)=(1-α)×(1-α)××(1-α)=(1-α)r

Et donc : α(EE) = 1 - (1 - α(EC))r.

Par exemple, pour c = 5 et α(EC) = 0,05, on obtient α(EE) = 1 - (1 - 0,05)5 = 0,226. On constate ici l'importance de contrôler l'erreur de l'ensemble.

Si on fixe la valeur de α(EE) dans le cas de comparaisons indépendantes, on peut déduire la valeur de α(EC) pour chacune des comparaisons :  

Par exemple pour cinq comparaisons indépendantes : α(EE) = 10%                  α(EC) = 2,09% α(EE) = 5%           α(EC) = 1,02%         α(EE) = 1%          α(EC) = 0,20%

 

VII-1-5 Comparaisons a priori et a posteriori

Une comparaison traduit une hypothèse de l'expérimentateur. On peut distinguer alors deux types de comparaisons :

·     les comparaisons a priori définies avant la collecte des données et qui traduisent une hypothèse théorique de l'expérimentateur,

·     les comparaisons a posteriori planifiées lorsque l'expérimentateur a rassemblé les données, examiné les moyennes et noté quelles moyennes sont éloignées et quelles moyennes sont proches l'une de l'autre.

La distinction entre deux types d'erreur apparaît bien lorsque l'on compare les procédures de comparaisons a priori et les procédures de comparaisons a posteriori. Considérons le cas où le facteur possède 5 modalités et nous avons 5 moyennes. Dans ce cas, il y a 10 comparaisons possibles impliquant des paires de moyennes (ex.  par rapport à ,  par rapport à , etc.). Supposons que l'hypothèse nulle (absence d'effet) soit vérifiée.

Pour effectuer ce test nous sommes amenés à comparer les moyennes empiriques. Supposons que  et  soient suffisamment éloignées pour nous amener à rejeter l'hypothèse µ3 = µ4, et aucun autre test ne révélant une différence significative entre les moyennes. Si nous devons planifier à l'avance une comparaison unique parmi les 10 comparaisons par paires possibles, nous avons une chance sur dix de faire la comparaison qui implique une erreur de première espèce. Par contre, si nous examinons les données avant de faire le test, nous sommes certains de faire une erreur de première espèce. En effet, au vu des données, même si on veut n'effectuer qu'une seule comparaison, on procède implicitement à l'examen de toutes les comparaisons par paires avant de choisir la plus significative. Cela équivaut alors à la situation où l’on effectue une famille de comparaisons.

Les procédures de comparaisons a posteriori ajustent α(EC) comme s'il s'agissait d'une famille de comparaisons.

Cet exemple montre que si les comparaisons sont planifiées a priori et constituent un sous-ensemble strict de l'ensemble de toutes les comparaisons possibles, alors la probabilité de commettre une erreur de première espèce est plus petite que si les comparaisons interviennent a posteriori.

 

VII-2. Analyse des comparaisons a priori dans un plan à un facteur

On étudie des tests portant sur des hypothèses a priori dans le cas d’un plan (inter S<A> ou intra S×A) où A est un facteur à effets fixes. Le facteur A à k modalités et le plan peut être soit équilibré et dans ce cas on dispose de n observations de la variable dépendante Y dans chacune des k conditions expérimentales (N=kn), soit un plan non équilibré et on dispose de ni observations de la variable dépendante Y dans la modalité i du facteur A (  ).

Rappelons que les données sont alors décrites par le modèle : l’observation du sujet s dans la condition i est la réalisation d’une variable aléatoire Ysi de loi N(μi, σ2Y), (s=1,…, ni ; i=1,…, k) avec :  

 

VII-2-1 Analyse d’un contraste

Soit C un contraste entre les moyennes :  

On veut tester H: C=0 contre H: C0 (respectivement C>0 ou C<0) au vu des N observations de la variable dépendante Y.

Proposition 2 : En estimant les moyennes μi par les  on peut construire un estimateur de C par : .

Sous les hypothèses du modèle,  est une variable aléatoire normalement distribuée d’espérance :  et de variance :  

L’estimation  est une réalisation de cette variable aléatoire .

Sous l’hypothèse nulle H0 la moyenne de  est nulle et on est donc ramené au test de comparaison à 0 de la moyenne d’une loi normale de variance inconnue. On peut procéder de deux manières.

 

Test de Student :

Pour un plan équilibré on prendra la statistique de test :  

Pour un plan non équilibré on prendra la statistique de test :  

S2 est un estimateur de σ2. Or on sait que MCR est aussi un estimateur de σ2, on a donc :

Pour un plan équilibré on prendra la statistique de test :  

Pour un plan non équilibré on prendra la statistique de test :  

Proposition 3 : Sous l’hypothèse nulle H0 la statistique T suit une loi de Student à ν=ddl(MCR) degrés de liberté.

 

Décision statistique :

Le test H: C=0 contre H: C0  de niveau α est défini par la règle de décision : si |t|=|Tobs|λα on rejette H0 avec λα donné par la table de Student à ν degrés de liberté : P(λα)=1-α/2

Le test H: C=0 contre H: C>0  de niveau α est défini par la règle de décision : si t=Tobsλα on rejette H0 avec λα donné par la table de Student à ν degrés de liberté : P(λα)=1-α

Le test H: C=0 contre H: C<0  de niveau α est défini par la règle de décision : si t=Tobs-λα on rejette H0 avec λα donné par la table de Student à ν degrés de liberté : P(λα)=1-α

 

Test de Fisher :

On a vu qu’un contraste exprime la différence entre deux groupes de moyennes. En regroupant les moyennes correspondantes à chacun des deux groupes, on se ramène à l’analyse de la variance à un facteur à deux modalités. MCR est calculé par l’analyse de variance canonique. On montre que :

Pour un plan équilibré :  

Pour un plan non équilibré :  

Cette somme des carrés est appelée somme des carrés du contraste et notée SCC. On peut présenter les calculs sous la forme d’une table d’analyse de la variance :

 

Source

SC

ddl

MC

F

Contraste C

SCC

1

MCC=SCC

 

Résidu R

SCR

ν

MCR

 

 

Remarque 2 : Le degré de liberté d’un contraste est toujours égal à 1 (deux groupes) on a donc MCc= SCc

Pour un plan équilibré on prendra la statistique de test :  

Pour un plan non équilibré on prendra la statistique de test :  

 

Proposition 4 : Sous l’hypothèse nulle H0 la statistique FC suit une loi de Fisher à ν1=1 et ν2=ν=ddl(MCR) degrés de liberté.

 

Décision statistique :

Le test H: C=0 contre H: C0  de niveau α est défini par la règle de décision : si FC =FC obsλα on rejette H0 avec λα donné par la table de Fisher à 1 et ν degrés de liberté : P(λα)=1-α

Remarque 3 : Les deux méthodes sont équivalentes car FC=T2

 

VII-2-2 Contrastes indépendants, contrastes orthogonaux

Définition 2 : étant donnés r contrastes C1, C2, …, Cr et r nombres λ1, λ2, …, λr l’expression
λ1C1+ λ2C2+…,+λrCr est une combinaison linéaire des r contrastes.

Définition 3 : un contraste est (linéairement) indépendant d’un ensemble de contrastes s’il ne peut s’écrire comme combinaison linéaire de ces contrastes.

Proposition 5 : Tout ensemble de contrastes portant sur k moyennes contient au plus k-1 contrastes linéairement indépendants.

Définition 4 : Considérons deux contrastes  

Dans le cas d’un plan équilibré les deux contrastes C1 et C2 sont orthogonaux si et seulement  

Dans le cas d’un plan non équilibré les deux contrastes C1 et C2 sont orthogonaux si et seulement  

 

Proposition 6 : Dans le cas d’un plan inter, si deux contrastes sont orthogonaux alors leurs estimateurs sont non corrélés. (Ce qui équivaut, dans le cas de variables gaussiennes, à l’indépendance).

 

Proposition 7 : Soit une comparaison multiple définie par r contrastes C1, C2, …, Cr alors la somme des carrés associée à la comparaison est donnée par :  et son degré de liberté est égal à r.

 

Remarque 4 : Dans le cas de contrastes orthogonaux, l’usage veut de fixer l’erreur de première espèce α(EC).

 

VII-2-3 Analyse de tendance et contrastes polynomiaux

Lorsque les modalités du facteur sont ordonnées le long d’un continuum, on peut modéliser l’effet du facteur sur la variable dépendante par la donnée d’une fonction f telle que : E(VD)=f(facteur)

La fonction f est caractérisée par une expression : y=f(x). Les fonctions élémentaires sont les fonctions polynomiales : f(x)=a0+a1x+a2x2+ … +apxp  p est le degré du polynôme a0+a1x+ … +apxp. Ce polynôme est une somme de monômes de degré q p.

q=1 : composante linéaire  a1x           q=2 : composante quadratique  a2x2

q=3 : composante cubique  a3x3         q=4 : composante d’ordre 4  a4x4

Les composantes sont appelées tendance.

Tester une forme particulière de liaison entre le facteur et la variable dépendante revient à tester la présence d’une composante d’un certain degré de la fonction . Ceci revient à tester certains contrastes.

Il existe des procédures très générales permettant de calculer les coefficients des contrastes associés aux différentes tendances. Dans le cas particulier où le plan est équilibré et où les modalités du facteur peuvent être considérées comme régulièrement espacées sur un continuum les coefficients du contraste se déduisent de l’écart entre les rangs des moyennes.

 

Proposition 8 : Etant donnés k point il existe un et un seul polynôme de degré k-1 passant par ces k points. Il suffit, pour un facteur à k modalités, de considérer les k-1 polynômes orthogonaux de degré  k-1.

Tester une tendance revient à tester un contraste. Pour connaître la contribution des tendances dans l’effet globale on mesure son intensité par :  

VII-2-4 Comparaisons non orthogonales

Dans le cas de comparaisons multiples définies a priori par un ensemble de contrastes non orthogonaux on peut contrôler l’erreur de première espèce de l’ensemble α(EE) et ceci par différentes procédures :

 

Proposition 9 : Etant donnée une comparaison multiple définie à partir de r contrastes C1, C2, …, Cr On a les inégalités :

 

Dans le cas où les erreurs de première espèce par contraste sont toutes égales à α(EC), les inégalités précédentes deviennent :

 

Remarque 5 : L’inégalité de Sidak est plus précise mais toutes les deux donnent une borne supérieure à α(EE) et permettent de répartir α(EE)  sur chacun des contrastes de façon à contrôler α(EE) afin de ne pas dépasser le seuil de signification α.

 

VII-2-4-1 Test de Bonferroni et test de Sidak

A partir de l’inégalité de Bonferroni α(EE)rα(EC)  il suffit de prendre  pour assurer α(EE)α. Donc il suffit de tester chaque contraste au niveau de signification :  

Le test de Bonferroni est un test portant sur un contraste. La statistique de test est  pour un plan équilibré et  pour un plan non équilibré.

Sous l’hypothèse H0 cette statistique est distribuée selon une loi de student à ν ddl(MCR) mais les valeurs seront lues dans la table de Bonferroni appropriée.

 

A partir de l’inégalité de Sidak α(EE)1-(1-α(EC))r  il suffit de prendre  pour assurer α(EE)α. Donc il suffit de tester chaque contraste au niveau de signification :  

 

VII-2-4-2 Le test d’Holm

Holm a proposé une alternative au test de Bonferroni pour augmenter la puissance de test tout en garantissant que α(EE)α.

La statistique de test étant la même que pour le test de Bonferroni on calcule les r statistiques t(i) que l’on range par ordre croissant de leur valeur absolue : | t(1)|  |t(2)|  |t(r)|

Le premier test de signification porte alors sur la significativité de |t(r)| pour un seuil  Si cette valeur est significative, on teste la significativité de la deuxième plus grande valeur |t(r-1)|  pour un seuil . On réitère la procédure jusqu’à ce que le test donne un résultat non significatif.

 

VII-2-4-3 Le test de Dunnett

Dunnett a proposé une alternative au test de Bonferroni dans le cas d’une comparaison de toutes les modalités du facteur à une modalité de contrôle ou témoin. Dans un plan équilibré cette variante est plus puissante que le test de Bonferroni.

On connaît la relation exacte qui lie α(EE) et α(EC). Dunnett a établi la table donnant les valeurs critiques λα pour la statistique T en fonction du nombre k de moyennes, du degré de liberté ν=ddl(MCR) et du seuil α choisi pour α(EE).

Notons  la moyenne du groupe contrôle et  les k-1 moyennes des groupes expérimentaux. Les contrastes correspondants aux différentes comparaisons sont donnés sous la forme : C: μi-μ0  et les tests de Dunnet sont de la forme : Hi: C=0 contre Hi: C0

La statistique de test est donnée par :  

Si tobs λα lu dans la table de Dunnett pour le degré de liberté ν=ddl(MCR) et k  alors Hi est rejetée

Une façon équivalente de réaliser ce test consiste à calculer la valeur critique  et comparer chaque différence  à cette valeur.


 

VII-3. Exemple 1 : (tolérance à la morphine)

Cet exemple est tiré de Siegel (1975) « Evidence from rats that morphine tolerance is a learned response ». J. of Comparative and Physiological Psychology 80, pp 498-506.

On le retrouve dans D. C. Howell avec des données fictives mais les moyennes (et le degré de signification des différences entre les moyennes) sont les mêmes que celles de l'article de Siegel.

La morphine est un médicament souvent utilisé pour atténuer la douleur. Cependant, des administrations répétées de morphine provoquent un phénomène de tolérance : la morphine a de moins en moins d'effet au fil de temps (la réduction de la douleur est de moins en moins forte). Pour mettre en évidence cette tolérance, on a souvent recours à une expérience qui consiste à placer un rat sur un support que l’on chauffe. Lorsque la chaleur devient insupportable, le rat va se mettre à se lécher les pattes. Le temps de latence qui précède le moment où le rat commence à se lécher les pattes est utilisé comme mesure de sa sensibilité à la douleur. Un rat qui vient de recevoir pour la première fois une injection de morphine montre en général un temps de latence plus long, ce qui montre que sa sensibilité à la douleur est réduite. Le développement de la tolérance à la morphine est indiqué par le fait que les temps de latence se raccourcissent progressivement (signe d'une sensibilité accrue) sous l'effet des injections répétées de morphine.

Siegel a constaté que dans plusieurs situations impliquant des médicaments autres que la morphine, les réponses conditionnées (apprises) au médicament vont en sens inverse des effets inconditionnés (naturels) du médicament. Par exemple, un animal à qui l'on a injecté de l'atropine a tendance à manifester une diminution prononcée de la salivation. Par contre, si, après des injections répétées d'atropine, on administre soudain, dans le même environnement physique, une solution saline (qui ne devrait avoir absolument aucun effet), la salivation de l'animal va augmenter. C'est comme si celui-ci compensait l'effet anticipé de l'atropine. Dans ce type d'étude, il semble qu'un mécanisme compensatoire appris se développe au fil des essais pour contrebalancer l'effet du médicament.

Siegel a formulé la théorie selon laquelle ce processus pourrait contribuer à expliquer la tolérance à la morphine. D'après son raisonnement, si, pendant une série d'essais préliminaires, on injecte de la morphine à l'animal placé sur un support chauffé, une certaine tolérance à la morphine va se développer. Donc, si le sujet reçoit une nouvelle injection de morphine lors d'un test ultérieur, il sera aussi sensible à la douleur qu'un animal qui n'a jamais reçu de morphine. Par contre, si lors du test ultérieur, on remplace la morphine par une solution saline, l'animale montrera une hypersensibilité et donc un temps de latence très court. En outre, selon Siegel, si on administre cette solution dans un environnement différent de celui des premières injections, le nouvel environnement ne suscitera pas d'hypersensibilité et donc l'animal réagira comme un animale qui reçoit sa première injection.

L'expérience implique cinq groupes de huit rats. Chaque groupe participe à quatre essais et les données d'analyse sont uniquement prélevées lors du dernier essai dit essai test.

On désigne les groupes en indiquant le traitement appliqué lors des trois premiers essais puis du quatrième.

·             Le groupe M-M a reçu des injections de morphine lors des trois premiers essais puis de nouveau lors du quatrième toujours dans le même environnement, appelé environnement standard de test.

·             Le groupe M-S a reçu des injections de morphine lors des trois premiers essais puis une solution saline lors du quatrième toujours dans l'environnement standard de test.

·             Le groupe Mc-M a reçu des injections de morphine lors des trois premiers essais qui avaient lieu dans leur cage habituelle, puis une nouvelle injection de morphine lors du quatrième essai, mais dans l'environnement standard de test qui ne le connaissait pas. Dans ce groupe, les indices initialement associés à l'injection de morphine n'étaient pas présents lors du test ; on ne devait donc pas s'attendre à constater, chez ces animaux, une tolérance à la morphine lors du test.

·             Le groupe S-M a reçu des injections de solution saline durant les trois premiers essais puis une injection de morphine lors du quatrième toujours dans l'environnement standard de test. On s'attend à ce que ces animaux manifestent la sensibilité la plus réduite à la douleur puisqu'ils n'ont eu aucune occasion de développer une certaine tolérance à la morphine.

·             Enfin, le groupe S-S a reçu une injection de solution saline lors des quatre essais toujours dans l'environnement standard de test.

Si Siegel a raison, c'est le groupe S-M qui devrait présenter les temps de latence les plus longs (indiquant une sensibilité minimale) et le groupe M-S les temps de latence les plus courts (sensibilité maximale). Le groupe Mc-M devrait se rapprocher du groupe S-M puisque les indices associés aux trois premiers essais du groupe Mc-M ne sont pas présents lors du test. Les groupes M-M et S-S devraient se situer à un niveau intermédiaire. L'égalité ou non des groupes M-M et S-S dépendra de la vitesse à laquelle se développe la tolérance à la morphine. Le schéma des résultats ainsi anticipés est le suivant :

S-M = Mc-M > M-M ? S-S > M-S

Le point d'interrogation indique l'absence de prédiction. La variable dépendante (VD) est le temps de latence (en secondes) qui s'écoule avant que l'animal ne commence à se lécher les pattes.

On obtient les données suivantes :

 

M-S

M-M

S-S

S-M

Mc-M

 

3

5

1

8

1

1

4

9

2

12

13

6

10

7

11

19

14

6

12

4

19

3

9

21

29

20

36

21

25

18

26

17

24

26

40

32

20

33

27

30

Moyenne  

4,00

10,00

11,00

24,00

29,00

écart-types  

3,16

5,13

6,72

6,37

6,16

On construit alors le tableau d'analyse de variance

 

Source des variations

SC

ddl

MC

F

Traitement

3497,6

4

874,4

27,33***

 

Résidu (Erreur)

1120,0

35

32,0

 

 

Total

4617,6

39

 

 

 

L'analyse globale de la variance est nettement significative, ce qui indique la présence de différences entre les cinq groupes de traitement. Mais cette analyse n’apporte pas de réponse aux questions posées.

Supposons que nous ayons prévu (a priori) de comparer les deux groupes recevant une solution saline lors de la quatrième injection avec les autres groupes. Nous avons également prévu de comparer le groupe Mc-M au groupe M-M, ainsi que le groupe M-S au groupe S-S pour des raisons exposées lors de l'examen des tests t multiples. Enfin, nous avons prévu de comparer le groupe M-M au groupe S-S pour voir si une tolérance à la morphine s'est développée au point que les animaux ayant toujours reçu des injections de morphine ne se différencient pas, après quatre essais, des animaux ayant toujours reçu des injections de solution saline.

Nous pouvons écrire les contrastes correspondants suivants :

 

M-S

M-M

S-S

S-M

Mc-M

 

 

C1

-3

2

-3

2

2

30

81

C2

0

-1

0

0

1

2

19

C3

-1

0

1

0

0

2

7

C4

0

1

-1

0

0

2

-1

Nous allons tester l'hypothèse H0 : Ci= 0  contre H1 : Ci  0 pour chacun des contrastes (Remarquer que H1 est toujours bilatérale). Dans ce cas, nous pouvons utiliser aussi bien la statistique Qc=T que la statistique Qc=Fobs. Bien sûr, nous pouvons tester l'hypothèse unilatérale pour certains contrastes et dans ce cas nous devrons utiliser la statistique Qc=T en se servant de la table de Student.

Le plan est équilibré. On estime chacun des contrastes Ci par  

 

Calculons la statistique  

 

Chacune de ces valeurs peut être évaluée par rapport à la valeur λα = F(1 ; 35 ; 0,95) = 4,12.

Les trois premiers contrastes comme attendus sont significatifs. Le dernier contraste correspondant à "?" indique qu'une tolérance à la morphine se développe après seulement quatre injections de morphine.

Concernant l'erreur de l'ensemble des comparaisons effectuées, si nous nous limitons aux trois premiers contrastes et avec une erreur par comparaison α(EC) = 5%, nous obtenons une erreur d'ensemble α(EE) égale à : α(EE) = 1 - (1 - α(EC))r = 1 - (1 - 0,05)3 = 1 - (0,95)3 = 14,26%

Bien sûr, en rajoutant la quatrième comparaison cette erreur d'ensemble sera encore plus grande (à peu près 18%). Cette probabilité d'erreur peut paraître trop importante. Il existe plusieurs possibilités pour la réduire :

·         Effectuer chaque comparaison avec un α(EC) plus petit, par exemple α(EC) = 1%, donne α(EE) = 4%,

·         Utiliser une procédure permettant de contrôler α(EE).

·         Réduire le nombre de contrastes en prenant des contrastes indépendants.

VII-4. Exemple 2 :

Dans une expérience concernant le traitement de l'information visuelle, la tache des sujets est de détecter le plus rapidement possible une cible parmi des distracteurs. Les stimuli varient selon cinq niveaux de complexité, de 1, le plus simple, à 5, le plus complexe (un nombre identique de stimuli est présenté pour chaque niveau de complexité). La complexité est évaluée en terme de quantité d'information présente dans le stimulus. Plus un stimulus est complexe, plus il fournit d'information et plus le décodage est long. En revanche, pour les stimuli les plus simples, le décodage est rapide, mais l'information est pauvre et ralentit donc le temps de décision. Les auteurs font donc l'hypothèse que la performance du sujet va passer par un optimum correspondant à un compromis entre simplicité et quantité d'information. Les temps de réaction (en centième de secondes) pour des réponses correctes sont présentés dans le tableau suivant :

 

Niveau de complexité

Sujets

1

2

3

4

5

1

2

3

4

5

6

7

121

97

87

90

85

87

119

58

103

105

87

102

79

96

47

58

72

62

75

74

81

72

76

91

102

76

128

99

135

183

129

159

138

132

132

Moyenne  

98

90

67

92

144

écart-types  

 

 

 

 

 

Dans la suite nous analyserons ces données en supposant que les cinq groupes sont indépendants puis en supposant qu'un même sujet effectue les cinq tâches.

Le Facteur complexité (A) comprend cinq modalités, on définit alors les quatre contrastes polynomiaux en cherchant les coefficients du contraste dans la table appropriée.

 

1

2

3

4

5

 

 

Moyenne  

98

90

67

92

144

 

 

Linéaire

-2

-1

0

1

2

10

94

Quadratique

2

-1

-2

-1

2

14

168

Cubique

-1

2

0

-2

1

10

42

Degré 4

1

-4

6

-4

1

70

-84

Le plan est équilibré. On estime chacun des contrastes Ci par  

 

Calculons la somme des carrés des contrastes :  

 

Si nous analysons ces données en supposant que les cinq groupes sont indépendants (plan inter S<A>), on calcule de façon habituelle les sommes des carrés : SCT=30985,6 et SCA=22237,6. On en déduit SCR=8748.

Comme les quatre contrastes correspondant aux différentes tendances sont orthogonaux on peut vérifier que SCA=SClinéaire+ SCquadratique+ SCcubique+ SCdegré 4

Le calcul des Fobs se fait aussi de manière habituelle par le rapport de la moyenne des carrés du contraste à la moyenne des carrés du résidu et on présente les résultats dans

le tableau d’analyse de la variance :

 

Sources des variations

SC

ddl

MC

F

Complexité A

22237,6

4

5559,4

FA = 19,065***

 

Linéaire

6185,2

1

6185,2

Flin = 21,211***

 

Quadratique

14112,0

1

14112,0

Fquad = 48,395***

 

Cubique

1234,8

1

1234,8

Fcub = 4,235*

 

Degré 4

705,6

1

705,6

Fdeg 4 = 2,420 (ns)

 

Résidu R

8748

30

291,6

 

 

Total

30985,6

34

 

 

 

λα = F(1 ; 30 ; 0,95)=4,17                      λα = F(1 ; 30 ; 0,99)=7,56

Si nous analysons ces données en supposant qu'un même sujet effectue les cinq tâches (plan intra S×A), on calcule de façon habituelle les sommes des carrés : SCT=30985,6 ; SCA=22237,6 et SCS=1154,4. On en déduit SCR=7593,6.

Comme les quatre contrastes correspondant aux différentes tendances sont orthogonaux on peut vérifier que SCA=SClinéaire+ SCquadratique+ SCcubique+ SCdegré 4

Le calcul des Fobs se fait aussi de manière habituelle par le rapport de la moyenne des carrés du contraste à la moyenne des carrés du résidu et on présente les résultats dans

le tableau d’analyse de la variance :

 

Sources des variations

SC

ddl

MC

F

Sujet S

1154,4

6

 

 

 

Complexité A

22237,6

4

5559,4

FA = 17,571***

 

Linéaire

6185,2

1

6185,2

Flin = 19,549***

 

Quadratique

14112,0

1

14112,0

Fquad = 44,602***

 

Cubique

1234,8

1

1234,8

Fcub = 3,906 (ns)

 

Degré 4

705,6

1

705,6

Fdeg 4 = 2,230 (ns)

 

Résidu R

7593,6

24

316,4

 

 

Total

30985,6

34

 

 

 

λα = F(1 ; 24 ; 0,95)=4,26                      λα = F(1 ; 24 ; 0,99)=7,82

Coefficient d’intensité :

On mesure l’intensité de la contribution de chaque tendance par le rapport :