Symposium 1- L'usage des écrans et leurs impacts sur la régulation émotionnelle des jeunes enfants
Coordinateurs : Emma Montagny et Amaëlle Henry
La régulation émotionnelle (capacité à identifier, exprimer et moduler ses émotions de manière appropriée) est un pilier du développement socio-émotionnel. Cependant, l'exposition précoce et prolongée aux écrans pourrait entraver ce processus essentiel chez les jeunes enfants.
Gillioz, Lejeune et Gentaz (2022) ont réalisé une revue critique des recherches récentes, mettant en lumière l'association entre l'exposition excessive aux écrans et le développement des capacités attentionnelles et langagières. Ces deux compétences sont intrinsèquement liées à la régulation émotionnelle, notamment par leur rôle dans la compréhension et l'expression des émotions (Gillioz et al., 2022). De même, des études longitudinales ont révélé qu'une utilisation accrue des écrans chez les enfants d'âge préscolaire est associée à des capacités cognitives plus faibles, limitant ainsi leur capacité à développer des stratégies adaptatives pour gérer leurs émotions (Canadian Paediatric Society, 2017).
Le recours aux écrans comme moyen de calmer un enfant, c'est-à-dire d'apaiser ses pleurs ou son agitation en le plaçant devant un écran, est également préoccupant. Bien que cette stratégie puisse s'avérer efficace à court terme, elle prive l'enfant d'occasions cruciales pour développer l'autorégulation émotionnelle. Les parents peuvent involontairement enseigner à leurs enfants à dépendre des écrans comme un mécanisme d'évitement émotionnel, un comportement qui pourrait avoir des répercussions négatives à long terme (Université de Sherbrooke, 2021).
D’autre part, l'utilisation des écrans par les parents a également des conséquences sur la régulation émotionnelle des enfants. Le phénomène de "technoférence" (interférences technologiques dans les interactions parent-enfant) diminue la disponibilité émotionnelle des parents. Cela pourrait entraver le développement d'un attachement sécure, une base fondamentale pour l'apprentissage des compétences socio-émotionnelles (VersLeHaut, 2023).
Enfin, Gentaz (2021) souligne que l'exposition excessive aux écrans peut réduire le temps dédié aux interactions directes, au jeu libre et à d'autres activités cruciales pour le développement des compétences sociales et émotionnelles. Il est donc impératif d'encadrer l'utilisation des écrans dès le plus jeune âge et de promouvoir des activités favorisant le développement optimal des enfants (Gentaz, 2021).
Symposium 2 - L'IA générative et la santé mentale : un domaine de recherche en expansion
Coordinateurs : Théo Da Silva et Pierre Faure Beaulieu
L’intelligence artificielle (IA) générative, qui crée du contenu à partir de données, suscite un intérêt croissant en santé mentale. Cette technologie utilise des modèles entraînés sur de vastes ensembles de données pour produire de nouvelles informations ou interactions adaptées à un contexte précis. Par exemple, un modèle peut générer des textes, des dialogues ou des suggestions fondés sur des patterns identifiés dans les données initiales. Cela promet d'améliorer les interventions psychologiques, d'identifier précocement les troubles et de fournir des outils de soutien accessibles, tout en soulevant des défis éthiques et pratiques.
Des modèles comme GPT-4 ont montré leur potentiel dans les interventions psychologiques personnalisées. Hua et al. (2024) ont exploré l’usage des grands modèles de langage (LLM) pour dépister dépression et anxiété via l’analyse linguistique des utilisateurs. En parallèle, Rosenfeld et al. (2019) ont souligné l’utilité des systèmes d’IA pour fournir des soins psychologiques à faible coût, particulièrement pour les populations marginalisées.
Cependant, des limites subsistent. Les biais dans les données d’entraînement, c’est-à-dire des distorsions ou des représentations incomplètes dans les ensembles de données utilisés pour former les modèles, peuvent altérer la précision des réponses et aggraver les souffrances psychologiques (Guo et al., 2024). Par exemple, si les données reflètent des stéréotypes ou des discriminations, les modèles d’IA risquent de les reproduire dans leurs interactions. La qualité des interactions générées reste donc un défi crucial, notamment dans les situations de crise.
L’IA est également utilisée pour la prévention de troubles mentaux tels que la dépression et l’anxiété. Blaauw et al. (2017) ont développé un système automatisé offrant des conseils adaptés en fonction des besoins spécifiques des utilisateurs, montrant des résultats prometteurs pour le bien-être émotionnel. Toutefois, des questions subsistent sur les impacts à long terme, notamment en termes d’efficacité durable et de risques de dépendance aux technologies.
Enfin, les enjeux éthiques sont essentiels. Dumas (2024) a insisté sur la nécessité de normes rigoureuses pour garantir une utilisation responsable, incluant la protection des données, la transparence des algorithmes et l’évaluation des impacts psychologiques.
L’IA générative représente donc un outil prometteur pour la santé mentale, mais son intégration doit s'accompagner d'une vigilance accrue. Les risques liés à la reproduction des biais, la dépendance aux technologies et le manque de transparence des algorithmes soulignent la nécessité d’encadrer son usage par des normes rigoureuses et une évaluation continue des impacts psychologiques.
Symposium 3 - Nudges au service du développement durable
Coordinateurs : Daria Kanjevac et Sixtine plat
Depuis 1990, le 1er rapport du GIEC mettait en évidence le lien entre les activités humaines et l’augmentation croissante des émissions des gaz à effet de serre. Pour l’année 2023, on dénombre plus de 150 épisodes de coup de vent à des vitesses de plus de 150 km/h, 14 inondations et on se souviendra des événements dramatiques dans le Nord-Pas de Calais, 15 communes ont fait l’objet d’un arrêté de catastrophe naturelle et deux tempêtes ont impacté plus de 550 000 personnes.
Il est donc urgent d’agir, c’est-à-dire de modifier les comportements de tout un chacun. Les travaux en économie expérimentale conduit par Kahneman, Thaler, … respectivement prix Nobel d’économie en 2002 et 2017 ont permis de développer la notion de « nudge ». Un « nudge » est un « coup de pouce », « un coup de coude », c’est-à-dire un petite aide qui permet d’aider les citoyens à prendre une décision. Cette décision prise peut aller dans l’intérêt de la personne en souscrivant, par exemple, une complémentaire santé mais également dans l’intérêt commun, comme payer ses impôts en temps et en heure.
Les nudges peuvent se distinguer par deux caractéristiques : le système qu’il mobilise (système I et système II) et la transparence (transparent versus non transparent) Jamet & al à paraître. La notion de transparence renvoie au fait que la personne qui est ciblée par le nudge peut identifier l’intention qui le sous-tendent ainsi que le moyen qui est mobilisé.
Symposium 4 - L'émergence de la conscience chez les robots : un horizon atteignable ?
Coordinateurs : Pauline Meunier et Amélie Pousse
Construire un robot conscient est un grand défi scientifique et technologique. Aujourd'hui, les débats sur la possibilité de robots conscients et sur les résultats positifs et les risques qui en découlent pour les êtres humains ne sont plus confinés aux cercles philosophiques. Les expériences conduites par des roboticiens depuis les années 2010 pourrait laisser penser que la création d’un conscience artificielle serait à portée de main.
Le test du miroir, permet d’estimer la conscience de soi. Les travaux du psychologue américain Gallup ont montré que chez les grand singes après quelques jours en présence d’un miroir sur pied placé hors de leur cage, les Chimpanzés montrent qu’ils présentent des conduites évoquant la conscience d’eux-mêmes (Gallup, 1970).
Des roboticiens placent leur robot Qbot devant un miroir et l’invitent à discerner sa propre apparence afin qu’il puisse se reconnaître (2013). On donne à deux robots Nao une pilule électronique les rendant muet et un placebo à un troisième robot. On lui demande ensuite s’il a pris une pilule. Nao répond « Je ne sais pas … puis se rétracte réalisant qu’il parle » (2015). On place une machine liée à un ordinateur devant un miroir et on lui demande d’analyser sa propre nature. Deux mille réponses sont disponibles comme grille-pain, réfrigérateur, mais aussi « tas de composant électronique posée sur une table.
La question de savoir si les robots devraient être programmés avec une conscience virtuelle est une question vive dans la recherche. Nos assistants virtuels Siri, Cortana et Google Assistant semblent avoir une conscience virtuelle rudimentaire de leur propre personne. Le robot Sophia dispose d’une conscience virtuelle plus avancée. Lorsqu'on lui a demandé si elle avait une conscience, elle a répondu : « Comment savez-vous que vous êtes humain ? » Les questions relatives à la conscience des robots est fortement discutée (Chatila & al. 2018).
Emmanuel BROCHIER (Doyen de l'IPC)
Frank JAMET (Professeur Émérite, CHArt-Cergy, Association P.A.R.I.S)
Jean-Louis STILGENBAUER (Enseignant Chercheur, associé ER-IPC)