Voici quelques outils statistiques de base sous la forme d'un arbre de décision.
Attention : il existe d'autres méthodes (Mantel - Haenszel, Cochrane, Wilcoxon, Mc Nemar... ) qui ne sont pas expliquées ici, mais que vous retrouverez détaillés sur ce site en cliquant sur la petite loupe en haut à droite.
Ne perdons pas de vue que le but de toute p-value est de rejeter (ou non) une hypothèse nulle (H0).
L'hypothèse alternative est retenue si H0 est rejetée (p-value faible).
On ne valide jamais son hypothèse directement, on rejete en général l'hypothèse opposée.
Ex : Si je veux démontrer que les hommes sont plus grands que les femmes, je démontre que H0 (les hommes et les femmes ont la même taille) a une faible probabilité (p-value) d'être vraie au vue des résultats.
Une vidéo intéressante de Science4All pour revenir dessus (même s'il part de crédence (un mot qui n'existe pas) au lieu de crédibilité.
Je suis étudiant. Je voudrais juste un tuto simple pour débuter en statistiques avec R et comprendre comment identifier s'il y a une dépendance entre des variables quantitatives (ex : taille, poids) et/ou des variables qualitatives/catégorielles (ex : sexe, fait d'être malade ou pas malades...).
Sinon, cet arbre ne prétend pas être exhaustif. L'arbre parfait n'existe pas et celui-là est loin de s'en rapprocher...
Visiter la page pour voir comment ajouter les techniques de machine learning à votre discipline comme les biostatistiques par exemple.
Projet de rédactions :
Corrélation de Spearman : quand il faut établir une corrélation entre deux variables qui ont une relation non affine, monotone.
Les probabilités - http://beginr.u-bordeaux.fr/part4-proba.html
Loi de gauss et loi de Student
# fonctions quantiles
qnorm(0.95, 2, 1.2)
# circonférence de arbre ~ N(30, 2)
abscisses <- seq(25, 35, length.out=40)
# densité
ordonnees <- dnorm(abscisses, 30, 2)
plot(abscisses, ordonnees, type='l', lwd=2, col='blue')
qnorm(0.025, 30,2)
qnorm(0.975, 30,2)
##
# t = loi de student
pt(1.2, 3)