Envoyer à un ami | Version à imprimer | Version en PDF

Intelligence artificielle, empathie et originalité

par Barry Eichengreen*

STOCKHOLM - Si l'on prend un peu de recul, 2022 est l'année où l'intelligence artificielle (IA) a bâti sa crédibilité auprès du grand public. La mise en ligne de ChatGPT par le laboratoire d'intelligence artificielle OpenAI a suscité beaucoup d'attention et soulevé encore plus de questions.

En seulement une semaine, ChatGPT a attiré plus d'un million d'utilisateurs qui l'ont utilisé pour écrire des programmes informatiques, composer de la musique, jouer à des jeux et passer une licence professionnelle de droit. Des lycéens ont découvert qu'il pouvait écrire des dissertations de relativement bonne qualité ? il en a été de même pour les profs, avec retard et à leur grande consternation.

ChatGPT est loin d'être parfait, tout comme les dissertations des lycéens sont loin d'être parfaites. La fiabilité des informations qu'il fournit tient à celles qu'il recueille sur Internet. La façon dont il utilise ces informations dépend de son apprentissage dont une partie est supervisée (à partir de questions et de réponses d'origine humaine).

La pondération que ChatGPT attribue à son éventail de réponses possibles dérive de l'apprentissage par renforcement : les millions d'utilisateurs de ChatGPT sont invités à évaluer la réponse de cette IA chaque fois qu'ils lui posent une question. De même que les remarques d'un enseignant permettent parfois à un lycéen d'améliorer sa dissertation, l'apprentissage par renforcement de ChatGPT pourrait améliorer la qualité de ses réponses.

Cette intelligence artificielle rudimentaire nous oblige à repenser les tâches qui peuvent être réalisées avec une intervention humaine minimale. Si une IA est capable de passer un examen de droit, ne pourrait-elle pas rédiger un mémoire de droit ou donner des conseils juridiques avisés ? Si une IA est capable de réussir l'examen de ma femme pour devenir médecin, ne pourrait-elle pas faire un diagnostic ou donner des conseils médicaux appropriés ?

Conséquences évidentes : par rapport aux vagues d'automatisation passées, disparition plus rapide de certains emplois, y compris parmi ceux qui sont peu qualifiés et mal rémunérés, et création plus rapide de nouveaux emplois. La question de savoir qui sera à l'abri du chômage technologique est moins évidente. Quelles sont ? si elles existent ? les caractéristiques humaines qu'une IA ne pourra pas simuler ? Sont-elles innés ou bien peuvent-elles être apprises ?

Les emplois les plus sûrs seront ceux qui nécessitent empathie et originalité. L'empathie est la capacité de comprendre et de partager les sentiments et les émotions d'autrui. Elle crée la compassion et la compréhension de l'autre, fondamentales pour les interactions sociales et le bien-être émotionnel. Elle est particulièrement précieuse dans les circonstances ou les périodes difficiles. C'est pourquoi l'empathie est appréciée chez les chefs religieux, les soignants et les psychologues.

On peut imaginer qu'une IA puisse apprendre à reconnaître les sentiments de ses interlocuteurs («l'empathie cognitive») à l'aide d'un logiciel de reconnaissance faciale. Mais elle ne peut pas partager leurs sentiments (elle ne peut pas apprendre «l'empathie affective»), alors que dans ses moments d'empathie, ma femme partage mes sentiments. Tout cela s'ajoute aux autres raisons pour lesquelles une IA ne peut remplacer ni ma femme, ni mon docteur, ni mon rabbin.

L'empathie affective peut-elle être cultivée et enseignée ? Il n'y a pas de consensus à ce sujet. Pour un certain nombre de chercheurs, elle est déclenchée par les neurones miroirs du cerveau qui ne peuvent être stimulés ou contrôlés artificiellement. On fait l'expérience de l'empathie, on ne peut pas l'apprendre. Aussi, certains d'entre nous sont-ils mieux préparés que d'autres à être des soignants et des psychologues.

D'autres chercheurs suggèrent que cette réponse émotionnelle peut être enseignée (il existe même une société de formation pour les cliniciens : Empathetics, Inc). Si cela s'avère exact, davantage de personnes pourraient être formées à des emplois qui exigent de faire preuve d'empathie affective et ne peuvent être automatisés.

Mais si les humains peuvent apprendre l'empathie affective, pourquoi les algorithmes ne le pourraient-ils pas ? L'idée que les emplois nécessitant une empathie affective ne peuvent être confiés à des machines suppose que les gens peuvent distinguer l'empathie véritable de la simulation.

L'originalité consiste à faire quelque chose qui n'a jamais été fait, par exemple créer une peinture, une composition ou un article de réflexion totalement différent de ce qui a été fait auparavant. L'originalité se distingue de la créativité qui consiste à combiner des éléments préexistants de manière originale.

Un autre produit d'OpenAI, DALL?E, est capable de générer des images sophistiquées à partir de descriptions textuelles («la peinture d'une pomme» ou « Mona Lisa avec une moustache»). Cela a suscité une certaine consternation chez les artistes. Mais obtenues à partir d'un vaste ensemble de paires texte-image, les réponses de DALL?E sont-elles des œuvres d'art originales, parce que jamais vues auparavant, par opposition à la combinaison d'éléments visuels existants associés à un texte existant ? C'est discutable. Les artistes qui misent sur l'originalité n'ont sans doute rien à craindre - à condition que les spectateurs puissent distinguer les œuvres originales.

Ici aussi, il n'y a pas de consensus sur la question de savoir si l'originalité est innée ou acquise. La réponse est probablement un peu des deux.

Y a-t-il de quoi s'inquiéter de la situation ? Demandez à ChatGPT d'écrire un article de 800 mots pour Project Syndicate et jugez par vous-même.



Traduit de l'anglais par Patrice Horovitz

*Professeur d'économie à l'université de Californie à Berkeley - Il a écrit de nombreux livres, dont le plus récent s'intitule In Defense of Public Debt (Oxford University Press, 2021)