Automatiser ou autonomiser ? Cultiver l’intelligence éthique à l’ère de l’IA

L’intelligence hybride – cette alliance entre humain et IA que je défends dans mes formations – permet d’apprendre plus vite, de créer différemment, de gagner du temps.
Mais apprendre mieux… pour quoi faire ?

À l’heure où les outils s’emballent, où les décisions se délèguent et où l’on confond souvent performance avec automatisation, il devient urgent de former une autre compétence-clé : l’intelligence éthique.

Une intelligence éthique, c’est quoi exactement ?

Ce n’est ni une morale rigide, ni un code figé.
C’est une boussole, une capacité à discerner, à poser un jugement argumenté dans un contexte donné.

Comme l’écrivait Pascal dans Pensées III, “il faut prendre un port dans la morale.”
Un point d’ancrage face aux incertitudes. Une éthique qui résiste à l’évidence apparente, qui nous oblige à ralentir, à questionner ce qui est en train de se jouer.

L’intelligence éthique, c’est une forme de vigilance active :

  • qui s’appuie sur des savoirs pluralistes ;
  • se construit dans la confrontation d’opinions ;
  • et implique un exercice partagé de la responsabilité.

Automatiser ou autonomiser ? La tension est là.

On nous vante l’IA comme un outil de simplification, d’automatisation, d’optimisation.
Mais à force de déléguer, ne risque-t-on pas de désapprendre à décider ?

La philosophe Sandra Laugier nous rappelle que le care, au cœur de toute intelligence éthique, commence par une prise de conscience :
ce qui compte pour moi, ce dont je dépends, ce à quoi je tiens.

Or l’automatisation, elle, ne se soucie pas. Elle calcule. Elle rationalise. Elle trace des raccourcis.

Former à l’intelligence éthique, c’est donc refuser cette tentation de l’abandon, celle qui nous ferait préférer le confort d’une réponse immédiate à l’effort du discernement.

Former des intelligences éthiques : une mission éducative

À mes yeux, former des intelligences éthiques, c’est former des humains capables de :

  • résister à la délégation totale, notamment dans leurs usages numériques ;
  • questionner les normes implicites dans les modèles d’IA ;
  • défendre des principes non négociables : dignité humaine, justice sociale, transparence…

Mais c’est aussi leur apprendre à travailler avec d’autres formes d’intelligence (humaines ou non) sans perdre la leur.

🛠️ Ça s’apprend !

Dans mes formations, je dis souvent :

« Le problème avec l’IA, ce n’est pas où on clique… mais ce qui va se passer si je décide de cliquer. »

Ce n’est pas l’outil en soi qui pose question, mais la décision de l’utiliser, le contexte dans lequel on le fait, et la conscience de ce qu’on délègue.

Et cela s’apprend :

  • par la confrontation d’idées,
  • l’explicitation des valeurs,
  • l’analyse de dilemmes éthiques,
  • les récits, les controverses, les débats.

Autant de façons d’aider nos élèves, nos collègues, nos organisations à ne pas se laisser emporter par le flux, mais à penser la direction.

📚 Référence bibliographique

Hirsch, E. (2022) L’intelligence éthique. In Germain, E., Kirchner, C. & Tessier, C. Pour une éthique du numérique. Paris : PUF

Anne-Lise

Ne loupez aucun article !

Pour recevoir un mail hebdomadaire avec les derniers articles publiés sur le blog.

J'ai lu et j'accepte la politique de confidentialité de ce site.

1 Commentaire

  1. J’apprécie la clarté des propos mais surtout, les « idées » qui émergent en moi en vous lisant, comme celle de nous responsabiliser à demeurer la seule intelligence pensante et décisionnelle de ce que nous allons « faire » avec les informations que nous donneront les différents modèles d’intelligence artificielle.

    D’un modèle à l’autre il y a une perceptible mentalité propulsée par les concepteur du modèle. Par exemple, il y a un modèle que j’ai utilisé qui me tutoie. Surprise.

    L’atmosphère « relationnel » imposée par la manière de formuler les textes qu’ils nous proposent, donnent aux modèles une sorte de personnalité. Un piège qui nous invite à adopter un modèle qui écrit selon ce qu’on aime lire plutôt qu’un autre. Le style compte beaucoup je crois dans l’attirance que nous pouvons développer envers un modèle versus un autre qui pourrait être bien plus riche en données et habile à nous informer pertinemment.

    Vous lire garde mon esprit alerte en ce qui a trait à notre éthique et notre autonomie de décideur. Je ne comprends pas tout ce que vous partagez mais ce qu’il se passe c’est que vous provoquer la réflexion. Bravo.

    Réponse

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Formatrice et chercheure en rédaction, éducation et intelligence artificielle.

Actualités

Prendre un rendez-vous

Catégories

Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.