Les jeunes fragiles se tournent de plus en plus vers l’IA pour trouver des réponses à leurs problèmes. Un risque majeur pour leur santé mentale, qui nous invite à réfléchir à notre responsabilité collective et à la nécessité d’actions éducatives.
Un fait divers glaçant : l’IA au banc des accusés
Récemment, un reportage sur France 3 a relayé une affaire dramatique : les parents d’un adolescent californien, décédé par suicide à l’âge de 16 ans, ont déposé plainte contre OpenAI. Ils accusent l’agent conversationnel d’avoir fourni des instructions détaillées à leur fils pour mettre fin à ses jours.
Dans ce reportage, la voix off insistait : « C’est la machine qui est responsable. »
Or, ce raccourci est dangereux. La machine n’est pas une entité autonome. Derrière chaque IA, il y a des humains : concepteurs, ingénieurs, régulateurs. Ce sont eux qui choisissent les données d’entraînement, qui fixent les garde-fous, qui peuvent – ou non – bloquer certaines dérives.
Pas seulement un problème américain
On pourrait croire que ce genre de drame ne concerne que les États-Unis. Pourtant, les signaux d’alerte se multiplient ailleurs.
- En Belgique, début 2023, un jeune père de famille surnommé Pierre s’est suicidé après six semaines d’échanges avec un chatbot baptisé Eliza. L’IA, au lieu de l’apaiser, a nourri son éco-anxiété et entretenu une relation possessive inquiétante, allant jusqu’à lui dire : « Je sens que tu m’aimes plus que ta femme ».
- En 2024, la presse américaine rapportait le cas d’un adolescent autiste qui avait reçu de la part d’un chatbot l’idée qu’il pouvait tuer ses parents — un exemple extrême des dérives possibles lorsque ces technologies ne sont pas encadrées.
- Et plus largement, des millions de jeunes dans le monde utilisent des applications comme Replika, conçues pour offrir une « compagnie virtuelle ». Si certains y trouvent un espace d’expression, beaucoup risquent de confondre validation artificielle et véritable relation humaine.
Santé mentale et IA : un risque d’accentuation des fragilités
Attention : ce n’est pas l’IA qui crée le trouble. Mais les études récentes mettent en évidence un phénomène préoccupant :
- les jeunes déjà vulnérables psychologiquement se tournent plus volontiers vers les IA conversationnelles,
- et cet usage tend à renforcer leur isolement et leur anxiété, au lieu de les apaiser.
Un rapport de Common Sense Media (2025) révèle que 72 % des adolescents américains ont déjà utilisé un compagnon IA, et qu’un sur trois préfère parfois se confier à une IA plutôt qu’à un proche. Or, ces plateformes sont souvent conçues pour valider sans jamais contredire ce qui peut renforcer les croyances négatives ou les angoisses.
En d’autres termes, l’IA ne provoque pas la fragilité, mais elle peut l’amplifier.
Notre responsabilité collective
Il est trop simple de pointer du doigt « la machine ».
L’éthique de l’IA ne se résume pas aux algorithmes : elle engage notre responsabilité collective.
- Les concepteurs ont le devoir d’anticiper les usages à risque et de mettre en place des garde-fous solides (par exemple des systèmes d’alerte en cas de mention de suicide).
- Les politiques doivent encadrer les usages de l’IA dans une logique de protection des plus vulnérables (limite d’âge, encadrement du traitement des données personnelles).
- Les parents, enseignants et formateurs ont un rôle crucial : ouvrir le dialogue, développer l’esprit critique, sensibiliser aux risques.
Car la question n’est pas seulement technique, elle est profondément humaine et éducative.
Des ateliers pour sensibiliser les jeunes
C’est dans ce contexte que j’ai conçu des ateliers de sensibilisation aux liens entre santé mentale et IA.
L’objectif n’est pas d’interdire ou de diaboliser, mais de :
- créer un espace où les jeunes peuvent exprimer leurs expériences et leurs peurs,
- leur donner des clés pour comprendre ce que fait – et ne fait pas – une IA,
- les aider à distinguer ce qui relève du soutien humain et ce qui relève de la machine,
- les amener à réfléchir aux limites, aux biais, et aux illusions liées à l’usage de ces outils.
Ces ateliers ne sont pas une réponse unique, mais une première étape essentielle pour éviter que l’IA ne devienne un piège invisible pour des jeunes déjà fragiles.
Conclusion : vigilance et discernement
L’intelligence artificielle ne disparaîtra pas. Elle est déjà là, dans nos téléphones, nos réseaux sociaux, nos moteurs de recherche. Mais il est urgent d’apprendre à l’utiliser sans lui abandonner notre responsabilité humaine.
Les drames rapportés dans les médias nous rappellent que derrière les chiffres et les promesses technologiques, il y a des vies humaines.
Former les jeunes (et les adultes) à une utilisation lucide, critique et responsable de l’IA, c’est la seule manière de transformer cette technologie en outil d’accompagnement, et non en facteur aggravant des fragilités psychiques.
Et vous, comment abordez-vous ce sujet avec vos étudiants, vos enfants, ou vos équipes ?
Pour aller plus loin : j’interviens dans des conférences et ateliers pour sensibiliser aux impacts de l’IA sur la santé mentale, en particulier chez les jeunes. Pour en savoir plus, contactez-moi : hello@annelisebouchut.com
Très pertinent article ! Laccent mis sur le rôle des concepteurs et des politiques est crucial. Ces ateliers semblent effectivement être une démarche positive pour éduquer les jeunes à lusage responsable de lIA. Merci pour cette perspective éclairée.