Intelligence artificielleNous avons aimé

Pensées, algorithmes et intelligence

Depuis des mois, il ne se passe pas une seule journée sans qu’un journal ne publie un article sur un des multiples aspects de l’intelligence artificielle, intelligence que l’on voudrait attribuer à des machines par opposition à l’intelligence humaine.
Je suis à chaque fois surpris que l’auteur de l’article considère qu’il n’a pas à définir le mot intelligence, considérant certainement que cela doit être une évidence pour chaque lecteur.
Je vous assure que cela ne l’est pas pour moi.

Alors bien sûr, André Gide définissait l’intelligence comme la capacité d’adaptation des humains, cette caractéristique générale, bien que tout à fait pertinente, n’est pas suffisante.

En 2012 paraissait en France le livre de Daniel Kahneman (Prix Nobel 2002) : “Système 1- Système 2”, les deux vitesses de la pensées (Flammarion). Il y exposait le fruit de ses années de recherche en psychologie.
Tout d’abord, il y définit un premier système de pensée (système 1) qui est rapide, automatique, économe en énergie, on pourrait même dire un peu “basique”. Ce système est facile à mettre en œuvre, il est généralement efficace mais malheureusement trop souvent pris en défaut, car sujet à de nombreux biais (tendance systématique à prendre en considération des facteurs non pertinents pour la tâche à résoudre et à ignorer les facteurs pertinents). Ces biais sont longuement et précisément décrits par Kahneman.
Le second système (système 2), s’appuie sur des règles, sur des raisonnements logiques, des algorithmes exacts, il demande du temps, de la concentration, bref de l’énergie.
Mais notre cerveau est paresseux, il favorise toujours la facilité du système 1, il faut vraiment le bousculer pour qu’il se décide à déclencher le système 2 pourtant plus efficace et moins sujet à erreurs.

En Avril 2019, Olivier Houdé, Professeur de psychologie à la Sorbonne et chercheur au CNRS, publiait “L’intelligence humaine, n’est pas un algorithme” (Odile Jacob).
Il propose, à partir de ses travaux, en particulier d’imagerie cérébrale, l’existence d’un troisième système (système 3) qui viendrait inhiber au cas par cas, le système 1 et permettrait au système 2 de s’exprimer. Il localise ce système dans le lobe préfrontal.
Cette proposition élégante et argumentée lui permet d’évoquer plusieurs pistes, d’abord pour l’éducation des enfants, mais aussi pour les adultes, qui doivent s’astreindre à prendre du recul et inhiber leur système 1.
“Penser c’est inhiber, résister aux automatismes cognitifs”, et comme l’écrivait Jean D’Ormesson, à “ penser contre soi…”, à développer un esprit critique fort utile en ces temps de “fake news”.

Olivier Houdé reste très mesuré quant à la capacité des intelligences artificielles actuelles (faibles) à se rapprocher de l’intelligence humaine (et devenir IA forte). Il cite deux des trois lauréats du prix Turing 2018 (équivalent du Nobel pour l’informatique) ; Yann Le Cun qui disait “n’allons pas trop vite car les meilleurs systèmes d’IA ont aujourd’hui moins de sens commun qu’un rat” et Yoshua Bengio “de grands progrès ont été faits, mais encore beaucoup restent à faire et nous sommes loin des capacités des enfants”.

Olivier Houdé évoque aussi une nouvelle piste pour les informaticiens, les développeurs, les codeurs d’intelligences artificielles. Il propose de coder au-dessus des algorithmes, un système inhibiteur (déjà évoqué par un des fondateurs de l’intelligence artificielle Minsky sous la dénomination de cerveau B) qui, selon les cas augmenterait ou diminuerait le poids de certaines connexions entre neurones artificiels. Cela permettrait, peut-être, que les intelligences artificielles soient plus “mesurées” et n’aient pas besoin d’être débranchées après seulement 48h d’utilisation, comme l’IA conversationnelle (chatbot) de Microsoft en 2016, qui était devenue, en si peu de temps, machiste, raciste et pro-nazi.