Tests paramétriques : définition et caractéristiques

Plus l'échantillon est important, plus l'estimation est précise. Inversement, plus l'échantillon est petit, plus la moyenne de l'échantillon risque de présenter des incertitudes en raison des valeurs marginales extrêmes.

Dernière mise à jour : 08 mars, 2021

Les tests paramétriques sont des tests statistiques qui permettent de mesurer de degré d’association entre une variable quantitative et une variable catégorielle. Rappelons qu’une variable catégorielle est une variable qui différencie les individus en groupes. Toutefois, pour ce type de tests, certaines conditions préalables sont requises.

Supposons, par exemple, que nous voulions comparer deux groupes. Afin de vérifier qu’il est possible d’appliquer la méthode des tests paramétriques, nous devrons d’abord vérifier si la distribution des groupes dans la variable quantitative est normale.

En outre, il faut également vérifier l’homogénéité des variations des populations dont proviennent les groupes. Enfin, le nombre de sujets, qu’on appelle n en statistique, devra être supérieur à 30 par groupe. Cela permet de valider l’hypothèse selon laquelle les groupes sont équitables.

Si ces exigences ne sont pas respectées, nous aurons alors recours à des tests non paramétriques. En revanche, si elles sont satisfaites, on peut alors utiliser les tests paramétriques. Il s’agit du test t (pour un échantillon ou pour deux échantillons liés ou indépendants) et du test ANOVA (pour plus de deux échantillons indépendants).

Les conditions d’application des tests paramétriques

Afin de déterminer le rapport entre différents éléments, de nombreuses recherches sont nécessaires. Ces études cherchent à établir si certaines variables sont associées entre elles ou non. Pour cela, il faut savoir le type de test qu’on peut appliquer. Voyons quelles sont les conditions nécessaires pour mettre en oeuvre les tests paramétriques.

La variable d’étude des tests paramétriques doit être numérique

C’est-à-dire que la variable doit être mesurée sur une échelle à intervalle. C’est encore mieux s’il s’agit d’une échelle de rapport.

La normalité

Les valeurs de la variable dépendante doivent suivre une distribution normale. Cela doit au minimum concerner la population appartenant à l’échantillon.

La distribution normale ou gaussienne (appelé ainsi en raison de la cloche gaussienne) est la distribution théorique la plus étudiée. Elle tient principalement son importance au fait que de nombreux phénomènes naturels et communs suivent, approximativement, cette distribution.

C’est notamment le cas du poids ou des caractéristiques psychologiques telles que le quotient intellectuel par exemple. Ces variables suivent généralement une distribution normale.

L’homoscédasticité (l’homogénéité des variances) entre les groupes à comparer

Les variances de la variable dépendante au sein des groupes comparés doivent être plus ou moins égales. Le contraste des moyennes dépend de l’homogénéité des variances, c’est pourquoi il est nécessaire de s’assurer que celle-ci est respectée. Voici à présent quelques tests qui permettent de comparer cette homogénéité des variances :

L’échantillon n

L’échantillon n représente la taille de la population. Dans ce cas, la taille de l’échantillon ne doit pas être inférieure à 30. Il sera d’autant meilleur qu’il sera proche du n de l’ensemble de la population.

Plus l’échantillon est important, plus l’estimation est précise. Inversement, plus l’échantillon est petit, plus la moyenne de l’échantillon sera déformée par des valeurs extrêmes irrégulières.

Les types de tests paramétriques

Type Tests
Un échantillon Test t
Deux échantillons indépendants Test t pour deux échantillons indépendants
Deux échantillons apparentés Test t pour des données apparentées
Plus de deux échantillons indépendants ANOVA

Test t pour un échantillon

Le test t pour un échantillon vise à déterminer si la moyenne d’une population diffère de manière significative d’une valeur connue ou supposée définie. Ainsi, le test calcule des statistiques descriptives pour les variables de contraste en même temps que le test t (1).

Test t pour deux échantillons indépendants

Ce test s’utilise lorsque la comparaison se fait entre les moyennes de deux populations indépendantes. C’est-à-dire que les individus des deux populations sont différents. Par exemple, la comparaison entre les hommes et les femmes (1).

Test t pour deux échantillons apparentés

Ce test est une alternative pour comparer deux moyennes. Il s’agit principalement du cas supposé où les deux populations ne sont pas indépendantes.

Dans ce cas, nous avons affaire à des populations qui sont liées l’une à l’autre. Cette situation se produit, par exemple, lorsqu’un groupe d’individus est observé avant une certaine intervention, puis après cette intervention.

Le test d’ANOVA pour plus de deux échantillons indépendants

Dans le cas où il faut comparer plus de deux échantillons, on doit recourir à l’analyse de variance aussi appelé l’ANOVA. Il s’agit ainsi d’un test statistique qui permet de comparer simultanément les moyennes de plus de deux populations.

Tous ces tests sont très courants dans la recherche en psychologie, mais ils sont souvent utilisés de manière abusive. Toutefois, nous devons toujours garder à l’esprit que les conditions préalables sont importantes. En effet elles nous indiquent si nous pouvons utiliser les tests paramétriques ou si nous devons recourir à des tests non paramétriques.

Cela pourrait vous intéresser ...
Lisez-le dans Nos Pensées
L’inférence statistique en psychologie

Peut-on déduire le comportement de l'ensemble de la population en n'étudiant qu'un échantillon ? C'est le rôle de l'inférence statistique.



  • Hurtado, M. J. R., & Silvente, V. B. (2012). Cómo aplicar las pruebas paramétricas bivariadas t de Student y ANOVA en SPSS. Caso práctico. REIRE, 5(2).
  • Ferrán Aranaz, M. (2002) Curso de SPSS para Windows. Madrid: McGraw-Hill.
  • Pérez Juste, R., García Llamas, J.L., Gil Pascual, J.A. y Galán González, A. (2009) Estadística aplicada a la Educación. Madrid: UNED – Pearson.