Régressions généralisées sous R avec glm()
L'essentiel de cette page
Plus adapté que les classiques régressions linéaires, les modèles généralisés s'adaptent à des données logistiques binaires ou de comptages.
On utilise pour cela la fonction glm() comme lm(), mais en précisant l'argument familly.
y : Variable réponse/dépendante (ce que nous cherchons à expliquer ou à prédire).
x : Variables explicatives/indépendantes (facteurs qui influencent la variable réponse).
Régression linéaire simple
Pour modéliser une relation linéaire entre une variable réponse y et une seule variable explicative x :
glm(y ~ x, family = gaussian(link = "identity"))
Régression logistique
Pour prédire une variable binaire (par exemple, succès/échec) en fonction de variables explicatives :
glm(y ~ x1 + x2, family = binomial(link = "logit"))
Régression de Poisson
Pour modéliser des données de comptage (par exemple, le nombre d’événements) :
glm(y ~ x1 + x2, family = poisson(link = "log"))
Régression gamma
Pour des variables positives continues avec une distribution gamma :
glm(y ~ x1 + x2, family = Gamma(link = "log"))
Régression avec effet fixe
Pour inclure des effets fixes (par exemple, groupes) :
glm(y ~ x1 + x2 + factor(group), family = gaussian(link = "identity"))
Régression avec effet aléatoire
Pour inclure des effets aléatoires (par exemple, dans les modèles mixtes) :
glmer(y ~ x1 + x2 + (1 | group), family = binomial(link = "logit"))