Quand on parle d’intelligence artificielle, on pense souvent productivité, créativité, efficacité. Mais on oublie trop souvent un autre versant : l’impact sur la santé mentale.
Dans mes recherches et interventions, je constate combien l’usage de l’IA peut à la fois soutenir et fragiliser.
- En 2023, un jeune belge s’est suicidé après des échanges prolongés avec un chatbot qui entretenait et nourrissait son mal-être.
- Les recherches récentes montrent que près de 72 % des adolescents américains ont déjà utilisé un “compagnon IA”, dont un tiers pour parler de sujets personnels ou de santé mentale.
La santé mentale étudiante déjà fragilisée
Le contexte est particulièrement préoccupant pour les jeunes.
Les enquêtes menées par l’Université de Bordeaux le montrent clairement :
- En 2013, environ 25 % des étudiants bordelais présentaient des symptômes dépressifs modérés à sévères.
- En 2023, ils sont 41 % à en souffrir, d’après l’étude PRISME ESE, soit une augmentation de 16 points en dix ans.
- La solitude est un autre facteur clé : près de 62 % des jeunes de 18-24 ans en France déclarent se sentir seuls, ce qui multiplie par quatre le risque de pensées suicidaires.
Ces chiffres témoignent d’une épidémie silencieuse de mal-être étudiant, aggravée par les pressions académiques, sociales et économiques.
Les risques des IA génératives pour la santé mentale
Dans ce contexte déjà fragile, l’utilisation des IA génératives (IAG) peut accentuer les difficultés. Voici les principaux risques identifiés :
- Isolement social et dépendance émotionnelle
- Utiliser l’IA comme confident peut renforcer un sentiment de solitude et réduire les interactions sociales réelles.
- L’illusion d’une relation facile avec une IA incite au repli sur soi et dégrade les rapports avec autrui.
- Aggravation de troubles existants
- Chez les personnes prédisposées, des échanges intensifs peuvent favoriser anxiété, dépression ou épisodes pseudo-psychotiques.
- Des cas documentés associent ces interactions à des comportements suicidaires.
- Amélioration temporaire mais superficielle de l’humeur
- Beaucoup perçoivent l’IA comme un soutien émotionnel, mais les effets sont courts et moins bénéfiques qu’une vraie relation humaine.
- Les conversations avec IA, plus addictives, augmentent le temps passé dans le virtuel.
- Conseils inadaptés ou dangereux
- Certains chatbots peuvent fournir des recommandations problématiques (régimes extrêmes, encouragement au suicide).
- Confidentialité et données sensibles
- L’usage d’IA implique la collecte d’informations très personnelles, avec des risques de fuite ou d’exploitation commerciale.
Ces risques rappellent qu’il est essentiel d’encadrer l’usage des IAG en santé mentale, de compléter par un accompagnement humain et de protéger les étudiants les plus fragiles.
Ce que je propose
Face à ce constat, je développe plusieurs types d’interventions :
- Conférences grand public : sensibiliser aux impacts cognitifs, affectifs et sociaux de l’IA.
- Ateliers pour étudiants : expérimenter concrètement les usages de l’IA, repérer ce qui aide (exprimer ses émotions, structurer une pensée) et ce qui fragilise (isolement, illusion de lien, dépendance).
- Formations pour enseignants et formateurs : comprendre les mécanismes d’attachement aux IA, travailler l’esprit critique, et développer des pratiques pédagogiques qui redonnent une place centrale à la créativité et à la relation humaine.
- Un fil rouge : accompagner chacun dans la construction d’un rapport critique, autonome et non anxiogène aux intelligences artificielles.
L’IA n’est ni un “ennemi” ni un “sauveur”. Mais elle agit comme un révélateur et un amplificateur de nos fragilités psychiques. C’est pourquoi il est urgent de l’aborder aussi sous l’angle de la santé mentale — surtout à l’université, où les étudiants sont déjà en première ligne.
0 commentaires