Envoyer à un ami | Version à imprimer | Version en PDF

L'IA n'est pas votre amie

par Peter G. Kirchschläger*

ZURICH - Le PDG de Meta, Mark Zuckerberg, et celui d'OpenAI, Sam Altman, promeuvent activement l'idée selon laquelle nous devrions tous – y compris les enfants – nouer des relations avec des « amis » ou « compagnons » virtuels dotés d'une intelligence artificielle.

Dans le même temps, les multinationales technologiques impulsent le concept d'« agents d'IA », conçus pour nous venir en aide dans notre vie personnelle et professionnelle, prendre en charge nos tâches du quotidien, et nous guider dans nos décisions.

La réalité, c'est que les systèmes d'IA ne sont pas nos amis, compagnons ou agents, et qu'ils ne le seront jamais. Ils sont et resteront toujours des machines. Nous devons faire preuve de clarté à ce sujet, et nous opposer aux démarches marketing fallacieuses qui suggèrent le contraire.

Le terme le plus trompeur est celui d'« intelligence artificielle ». Ces systèmes ne sont en effet pas réellement intelligents, et ce que nous appelons aujourd'hui « l'IA » ne correspond en vérité qu'à un ensemble d'outils techniques conçus pour imiter certaines fonctions cognitives. Ils ne sont ni dotés d'une véritable compréhension, ni objectifs, ni justes, ni neutres.

Il est également erroné d'affirmer que ces systèmes d'IA deviennent de plus en plus intelligents. Pour fonctionner, ils recourent à des données, qui sont de plus en plus générées par des outils tels que ChatGPT, avec pour conséquence une boucle de rétroaction qui recycle des résultats sans produire de compréhension approfondie.

Plus fondamentalement, l'intelligence n'est pas qu'une question de résolution de tâches ; la manière dont ces tâches sont abordées et exécutées importe également. Aussi performants soient-ils en termes de capacités techniques, les modèles d'IA demeurent limités à des domaines spécifiques, tels que le traitement de vastes ensembles de données, ou la réalisation de déductions logiques et de calculs.

Lorsqu'il est en revanche question d'intelligence sociale, les machines sont seulement capables de simuler des émotions, interactions et relations. Un robot médical aura beau par exemple être programmé pour verser lui aussi une larme lorsqu'un patient pleure, personne ne saurait ici parler de véritable tristesse de sa part. Ce même robot pourrait tout aussi bien être programmé pour gifler le patient, ce qu'il effectuerait avec la même précision, encore une fois sans aucune authenticité ni conscience de lui-même. La machine ne se « préoccupe » de rien ; elle se contente de suivre des instructions. Et peu importe le degré de sophistication qu'atteindront ces systèmes, cette réalité ne changera jamais. Autrement dit, les machines sont dépourvues de capacité d'action morale. Leur comportement est régi par des modèles et des règles créés par l'homme, tandis que la moralité humaine est ancrée dans l'autonomie – la capacité à reconnaître des normes éthiques, et à se comporter en conséquence. Par opposition, les systèmes d'IA sont conçus à des fins de fonctionnalité et d'optimisation. Ils sont certes susceptibles de s'adapter grâce à l'auto-apprentissage, mais les règles qu'ils génèrent ne revêtent aucune signification éthique inhérente. Prenons l'exemple des voitures autonomes. Pour se rendre d'un point A à un point B le plus rapidement possible, un véhicule autonome pourrait élaborer des règles afin d'optimiser le temps de trajet. Si le fait d'écraser des piétons lui permettait d'atteindre cet objectif, le véhicule serait susceptible de le faire – à moins que ses instructions ne le lui interdisent – puisqu'il ne saisirait pas les implications morales liées au fait de blesser quelqu'un.

Cela s'explique en partie par le fait que les machines sont incapables de comprendre le principe de généralisabilité, c'est-à-dire l'idée qu'une action n'est éthique que si elle peut être justifiée en tant que règle universelle. Le jugement moral dépend de la capacité à fournir une justification plausible, que les autres peuvent raisonnablement accepter. C'est ce que nous appelons habituellement les « bonnes raisons ». Contrairement aux machines, les êtres humains sont capables de s'engager dans un raisonnement moral généralisable, et par conséquent de juger si leurs actions sont bonnes ou mauvaises.

Il serait par conséquent plus approprié d'employer l'expression de « systèmes basés sur des données » (DS) que celle d'« intelligence artificielle », puisque la première illustre précisément ce que l'IA est capable d'effectuer – générer, collecter, traiter et évaluer des données pour formuler des observations et des prédictions – tout en clarifiant les points forts et les limites des technologies émergentes d'aujourd'hui. Fondamentalement, ces systèmes recourent à des méthodes mathématiques extrêmement complexes afin de traiter et d'analyser d'immenses quantités de données – rien de plus. Les êtres humains peuvent communiquer avec les DS, mais cette communication est entièrement à sens unique. Ces systèmes n'ont aucune conscience de ce qu'ils « font », ni de ce qui se passe autour d'eux. Il ne s'agit pas d'affirmer que les DS ne bénéficieront aucunement à l'humanité ou à la planète. Au contraire, nous pouvons et devons compter sur eux dans des domaines au sein desquels leurs capacités surpassent les nôtres. Mais il nous faut d'un autre côté activement gérer et atténuer les risques éthiques qui les accompagnent. Le développement de DS fondés sur les droits de l'homme et la création d'une Agence internationale des Nations Unies relative aux systèmes basés sur des données constitueraient d'importantes premières avancées dans cette direction.

Ces 20 dernières années, les grandes sociétés technologiques n'ont cessé de nous isoler les uns des autres, et de fracturer nos sociétés par l'intermédiaire des médias sociaux – qu'il serait plus judicieux de qualifier de « médias antisociaux », compte tenu de leur nature addictive et corrosive. Voici aujourd'hui que ces mêmes géants technologiques promeuvent une nouvelle vision radicale : remplacer les interactions humaines par des « amis » et « compagnons » d'IA. Ces sociétés continuent dans le même temps d'ignorer ce que l'on appelle le « problème de la boîte noire » : l'intraçabilité, l'imprévisibilité et le manque de transparence des processus algorithmiques qui sous-tendent les évaluations, les prédictions et les décisions automatisées. Cette opacité, qui s'accompagne d'une forte probabilité d'algorithmes biaisés et discriminatoires, aboutit inévitablement à des résultats biaisés et discriminatoires. Les risques soulevés par les DS ne sont pas théoriques. Ces systèmes façonnent d'ores et déjà notre vie privée et professionnelle de manière de plus en plus néfaste, en nous manipulant économiquement et politiquement, pendant que les PDG des géants technologiques nous incitent à laisser les outils des DS guider nos décisions. Si nous entendons préserver notre liberté et notre dignité, ainsi que celles des générations futures, nous ne devons pas accepter que les machines nous soient vantées comme ce qu'elles ne sont pas : nous, les êtres humains.



*Professeur d'éthique et directeur de l'Institut d'éthique sociale ISE de l'Université de Lucerne, est professeur intervenant à l'ETH Zurich.