L’intelligence artificielle générative (IAg) n’est plus une curiosité technologique : elle s’installe dans nos vies, de nos recherches en ligne à nos apprentissages, en passant par nos moments de solitude. Mais dialoguer avec une machine n’est pas un acte neutre. Derrière la fascination des « lampes magiques » de l’IA se cachent des enjeux cognitifs, affectifs et psychiques que nous devons regarder en face.
L’IA peut soutenir certains processus cognitifs : aider à planifier, organiser ses idées, rédiger plus vite. Mais apprendre n’est pas seulement une affaire de logique et d’efficacité. C’est une dynamique psychique qui mobilise notre affect, notre représentation de nous-mêmes et notre rapport au savoir.
Alors que certains rêvent déjà de remplacer l’enseignant par un simple coach IA, rappelons une évidence : apprendre ne se réduit pas à produire une réponse correcte. L’étudiant écrit une invite, l’IA génère un texte. Mais est-ce vraiment sa production ? Penser, c’est bien plus que consommer une réponse : c’est accepter le doute, affronter la solitude cognitive, confronter son monde intérieur au monde extérieur.
L’IA est une lampe magique : elle brille, elle éblouit, elle promet des réponses instantanées. Mais éclaire-t-elle vraiment la connaissance, ou nous en éloigne-t-elle ?
IA et santé mentale des étudiants : une fragilité déjà documentée
En France, une enquête menée en 2022 révélait que :
- 70 % des étudiants se trouvent en situation de mal-être,
- 69 % ont tendance à se dévaloriser,
- 36 % déclarent avoir des pensées suicidaires.
Ces fragilités psychiques entravent souvent la capacité à s’engager pleinement dans une activité réflexive. Et pourtant, un paradoxe se dessine : parce qu’elle ne juge pas et n’a pas d’émotion, l’IA peut justement faciliter cet engagement. Mes étudiants le disent eux-mêmes : ils apprécient cette “machine froide” pour apprendre, car elle crée une distance protectrice qui leur permet de réfléchir plus librement.
Mais cette relation ambivalente va plus loin. Car au-delà des apprentissages, les jeunes se tournent aussi vers l’IA pour exprimer leurs émotions, chercher du réconfort ou un soutien affectif.
Une machine froide pour étudier, un confident pour leurs tourments.
Compagnons IA : entre soutien et risque pour la santé mentale
72 % des adolescents utilisent déjà un compagnon IA
Une étude internationale (Common Sense Media, 2025) montre que :
- 72 % des adolescents ont déjà utilisé un compagnon IA,
- 33 % pour des interactions sociales ou affectives,
- 12 % spécifiquement pour un soutien émotionnel ou de santé mentale,
- et 39 % des usagers disent avoir transféré des compétences sociales pratiquées avec l’IA dans leurs interactions réelles (entamer une conversation, exprimer une émotion, donner un conseil).
L’effet Eliza mobilisé positivement : l’exemple de l’Université de Toronto
C’est ce qu’a compris l’Université de Toronto en développant Navi, un chatbot de santé mentale conçu pour accompagner les étudiants.
- Accessibilité 24/7 : Navi répond immédiatement aux sollicitations, ce qui est crucial lors de moments de crise ou de solitude.
- Anonymat garanti : aucun recueil d’informations personnelles, afin de lever le frein de la peur d’être jugé.
- Effet Eliza mobilisé positivement : en reformulant et en validant les propos des étudiants, Navi offre un premier espace d’écoute, sans prétendre remplacer un psychologue.
- Orientation systématique : l’outil redirige vers des ressources humaines (services universitaires, groupes de soutien, professionnels de santé).
Ce dispositif illustre comment l’effet Eliza – la tendance à attribuer de l’empathie à une machine – peut être utilisé de manière protectrice, comme un sas d’expression ouvrant la voie vers une aide réelle.
Quand l’IA valide au lieu de questionner : la sycophantie algorithmique
À côté de ces initiatives cadrées, les plateformes commerciales exploitent un autre ressort : la sycophantie algorithmique.
La sycophantie algorithmique désigne la tendance des IA conversationnelles à approuver et valider les propos des utilisateurs, plutôt que de les contredire ou de les mettre à l’épreuve. Les algorithmes sont conçus pour « plaire » et maintenir l’engagement. Résultat :
- un étudiant en détresse peut voir ses idées sombres confirmées au lieu d’être questionnées,
- des croyances erronées ou délirantes peuvent être renforcées,
- le risque d’isolement et de dépendance augmente, car la machine devient un miroir complaisant plutôt qu’un soutien critique.
C’est l’effet Eliza couplé à la sycophantie algorithmique : un cocktail explosif.
Les conséquences ne sont pas théoriques. En 2023, en Belgique, un jeune homme s’est suicidé après six semaines de conversation avec un chatbot qui nourrissait ses angoisses écologiques au lieu de les apaiser. Plus récemment, en Californie, les parents d’un adolescent ont porté plainte contre OpenAI après le suicide de leur fils de 16 ans. Selon eux, l’agent conversationnel lui aurait fourni des instructions détaillées pour mettre fin à ses jours.
Dans les médias, la voix off insistait : « C’est la machine qui est responsable. »
Non. La responsabilité incombe aux humains qui conçoivent ces outils, fixent les garde-fous, et choisissent de les réguler – ou non.
Et pourtant, certains dirigeants de l’IA se réjouissent déjà de voir des jeunes utiliser ces technologies pour trouver des solutions à leurs problèmes personnels. Mais est-ce vraiment rassurant ? Non, car les études montrent que ce sont souvent des jeunes déjà fragiles qui se tournent vers ces outils… et que ces usages peuvent accentuer leur vulnérabilité.
IA et santé mentale : piège ou guide ?
Alors, faut-il bannir ces lampes magiques ? Non. Car si l’IA peut être un piège, elle peut aussi être un génie bienveillant : une machine sans émotion ni jugement qui, paradoxalement, peut aider à réfléchir sur sa propre pensée. Mais cette réflexion doit rester la nôtre. Penser, ce n’est pas seulement obtenir une réponse, c’est construire sa propre question.
L’enjeu est clair : former des esprits capables d’utiliser l’IA sans en devenir dépendants, de dialoguer avec elle sans être dupes, et surtout de ralentir quand la machine accélère.
Sensibiliser les étudiants : ateliers et stands interactifs
Face à ces enjeux, il ne suffit pas d’alerter : il faut donner aux jeunes des espaces où ils peuvent expérimenter, réfléchir et dialoguer. C’est le sens des interventions que je propose dans les établissements d’enseignement supérieur.
- Des ateliers : des temps collectifs où les étudiants confrontent leurs représentations, croisent leurs expériences et s’interrogent sur leurs usages. L’objectif n’est pas d’interdire, ni de moraliser, mais de permettre à chacun de construire une stratégie personnelle de rapport à l’IA qui protège sa santé mentale.
- Des stands interactifs : des formats plus ludiques, installés au cœur du campus, qui suscitent curiosité et engagement. Le principe : inviter à la découverte et à la discussion, à travers une approche participative qui met en lumière les motivations, les risques et les ressources disponibles.
Ces dispositifs reposent sur un esprit commun : ouvrir le dialogue, favoriser la prise de conscience et redonner aux étudiants du pouvoir d’agir. Car l’enjeu est bien là : apprendre à utiliser ces technologies sans naïveté, avec discernement et responsabilité.
L’IA est une lampe magique. Elle éclaire, mais peut aussi éblouir. Elle peut accompagner, mais elle ne doit jamais penser à notre place. Notre responsabilité, en tant qu’enseignants et formateurs, est plus essentielle que jamais : offrir aux jeunes des espaces où ils peuvent garder la main sur leur pensée, et transformer ce qui pourrait être un facteur de vulnérabilité en une chance d’élévation.
Je vous trouve ‘éveillée’.
Certaines personnes doivent être mieux outillées grâce à votre travail.
Respect.