Tests non paramétriques : définition et types

16 décembre 2019
Dans cette classification des tests non paramétriques, il n'y a pas de consensus quant à leur regroupement. Les auteurs Berlanga et Rubio (2012) ont résumé les principaux tests paramétriques et leur classification.

Les tests ou techniques non paramétriques comprennent une série de tests statistiques qui ont en commun l’absence d’hypothèses sur la loi de probabilité suivie par la population dans laquelle l’échantillon a été prélevé. Ainsi, ces techniques sont appliquées lorsque l’on ne sait pas si la population dans laquelle l’échantillon est prélevé est normale ou approximativement normale.

On utilise fréquemment ces techniques non paramétriques car de nombreuses variables ne suivent pas les conditions de paramétrage. Il s’agit de l’utilisation de variables quantitatives continues, de la distribution normale des échantillons, des variances similaires et des échantillons équilibrés.

Lorsque ces conditions préalables ne sont pas remplies ou qu’il existe de sérieux doutes quant à leur respect, des tests non paramétriques ou de distribution gratuite sont utilisés. Ainsi, les tests non paramétriques présentent les caractéristiques suivantes :

  • Ils sont beaucoup moins utilisés qu’on ne le recommanderait (ils sont moins bien connus des chercheurs)
  • Ils sont applicables aux données hiérarchiques
  • Également, ils peuvent être utilisés lorsque deux séries d’observations proviennent de populations différentes (populations dans lesquelles la variable n’est pas distribuée également)
  • Ils sont la seule alternative réaliste lorsque la taille de l’échantillon est petite
Des personnes effectuant des tests non paramétriques

Classification de ces tests

Dans cette classification des tests non paramétriques, il n’y a pas de consensus quant à leur regroupement. Les auteurs Berlanga et Rubio (2012) ont résumé les principaux tests paramétriques.

Tests non paramétriques d’un échantillon

Test du Khi carré de Pearson

Il s’agit d’un test largement utilisé lorsque le chercheur veut analyser la relation entre deux variables quantitatives. Il est aussi largement utilisé pour évaluer dans quelle mesure les données recueillies dans une variable catégorielle (distribution empirique) ne correspondent pas (ressemblent ou non) à une certaine distribution théorique (uniforme, binomiale, multinomiale, etc.).

Test binomial

Ce test nous permet de savoir si une variable dichotomique suit ou non un certain modèle de probabilité. Il permet de contraster l’hypothèse selon laquelle la proportion observée de hits correspond à la proportion théorique d’une distribution binomiale.

Test des séries

Il s’agit d’un test pour déterminer si le nombre de séries (S) observées dans un échantillon de taille n est assez grand ou assez petit pour rejeter l’hypothèse d’indépendance (ou de caractère aléatoire) entre les observations.

Une série est une séquence d’observations ayant le même attribut ou la même qualité. Le fait qu’il y ait plus ou moins de périodes que prévu par hasard dans une série de données peut être un indicateur qu’il y a une variable importante qui conditionne les résultats et que nous ne prenons pas en compte.

Test de Kolmogorov-Smirnov (K-S)

Ce test permet de contraster l’hypothèse nulle selon laquelle la distribution d’une variable correspond à une certaine distribution de probabilité théorique (normale, exponentielle ou de Poisson). Le fait que la distribution des données corresponde ou non à une certaine distribution suggérera certaines techniques d’analyse des données par rapport à d’autres.

Des statistiques réalisées suite à des tests non paramétriques

Tests non paramétriques pour deux échantillons apparentés

Test de McNemar

Le test de McNemar sert à vérifier des hypothèses sur l’égalité des proportions. Il est utilisé lorsqu’il y a une situation où les mesures de chaque sujet sont répétées. Ainsi, la réponse de chacun d’eux est obtenue deux fois : une fois avant et une fois après un événement spécifique.

Test des signes

Il permet de contraster l’hypothèse d’égalité entre deux médianes de population. On peut l’utiliser pour savoir si une variable tend à être plus grande qu’une autre. Ou encore pour tester la tendance suivie d’une série de variables positives.

Test de Wilcoxon

Il permet de contraster l’hypothèse d’égalité entre deux médianes de population.

Tests non paramétriques pour des échantillons K apparentés

Test de Friedman

C’est une extension du test de Wilcoxon. Ainsi, il est utilisé pour inclure les données enregistrées sur plus de deux périodes ou groupes de trois sujets ou plus, un sujet de chaque groupe étant assigné au hasard à l’une des trois conditions ou plus.

Test de Cochran

Il est identique au précédent, mais s’applique lorsque toutes les réponses sont binaires. Le Q de Cochran approuve l’hypothèse selon laquelle plusieurs variables dichotomiques apparentées ont la même moyenne.

Coefficient W de concordance de Kendall

Il a les mêmes indications que le test de Friedman. Cependant, son utilisation dans la recherche a été principalement de connaître la concordance entre les rangs.

Tests non paramétriques pour deux échantillons indépendants

Test U de Mann-Whitney

Il est équivalent au test de la somme de la gamme de Wilcoxon ainsi qu’au test des deux groupes Kruskal-Wallis.

Test de Kolmogorov-Smirnov

Ce test sert à vérifier l’hypothèse que deux échantillons proviennent de la même population.

Test des suites de Wald-Wolfowitz

Contraster si deux échantillons avec des données indépendantes proviennent de populations ayant la même distribution.

Test de réaction extrême de Moïse

Il sert à étudier s’il y a une différence dans le degré de dispersion ou la variabilité de deux distributions. Il met l’accent sur la distribution du groupe témoin et mesure le nombre de valeurs extrêmes du groupe expérimental qui influencent la distribution lorsqu’il est combiné au groupe témoin.

 

Tests non paramétriques pour les échantillons K indépendants

Test de la médiane

Contraste les différences entre deux ou plusieurs groupes par rapport à leur médiane. Les moyennes ne sont pas utilisées, soit parce qu’elles ne répondent pas aux conditions normales, soit parce que la variable est quantitative discrète. Il est similaire au test du Khi 2.

Test de Jonckheere-Terpstra

C’est le plus puissant pour analyser l’ordre ascendant ou descendant des populations K dans lesquelles les échantillons sont prélevés.

Test du H de Kruskal-Wallis

Enfin, le test du H de Kruskal-Wallis est une extension du test du U de Mann-Whitney et représente une excellente alternative au test ANOVA à un facteur.

Ainsi, ces tests s’utilisent lorsque la distribution des données n’est pas normale. Nous pouvons y avoir recours lorsque nous disposons de données qui ne se fondent pas sur une échelle de raison ou lorsque, de ce fait, nous doutons que la distribution de l’une ou l’autre des variables corresponde à la courbe normale.

D’autre part, il est vrai que de nombreux tests paramétriques sont relativement robustes contre la violation des hypothèses ; cependant, s’il existe de meilleurs tests, pourquoi ne pas les utiliser ?

 

  1. Berlanga-Silvente, V., & Rubio-Hurtado, M. J. (2012). Classificació de proves no paramètriques. Com aplicar-les en SPSS. REIRE. Revista d’Innovació i Recerca en Educació, 5(2), 101-113.