Envoyer à un ami | Version à imprimer | Version en PDF

L'IA et l'hémisphère sud

par Robert Muggah1, Gabriella Seiler2 Et Gordonlaforge3

RIO DE JANEIRO - On pourrait bien se rappeler ces derniers mois comme le moment où l'intelligence artificielle prédictive est devenue une grande tendance. Même s'il est vrai que les algorithmes de prédiction sont utilisés depuis des décennies, la mise en service d'applications comme ChatGPT3 d'OpenAI - et son intégration rapide dans le moteur de recherche Bing de Microsoft - pourrait bien avoir ouvert la voie à une intelligence artificielle utilisable par tous. Dans les semaines suivant la mise en service de ChatGPT3, la plateforme avait déjà attiré 100 millions d'utilisateurs par mois, la plupart d'entre eux ont indéniablement déjà ressenti son côté obscur - des insultes et des menaces à la désinformation et un don manifeste pour composer du code de maliciels.

Les agents conversationnels intelligents qui produisent des manchettes ne sont que la pointe de l'iceberg. Les outils d'IA pour la création de textes, de discours, d'œuvres d'art et de vidéos progressent rapidement, avec de vastes répercussions pour la gestion de la chose publique, le commerce et la vie civile. Sans grande surprise, ce secteur est inondé de capital, tant le secteur public que privé investit dans les jeunes pousses qui créent et déploient les derniers outils d'acquisition de connaissances. Ces nouvelles applications vont joindre des données historiques avec des systèmes d'acquisition de connaissances, de traitement des langues naturelles et d'apprentissage profond pour déterminer la probabilité d'événements futurs.

Dans une large mesure, l'adoption des nouvelles méthodes de traitement des langues naturelles et d'IA générative ne se cantonnera pas aux pays nantis et aux entreprises comme Google, Meta et Microsoft qui sont à l'origine de leur création. Ces technologies se répandent déjà dans des pays à moindre revenu où les analyses prédictives sont utilisées pour des éléments allant de la réduction des inégalités urbaines à régler les problèmes d'insécurité alimentaire. Elles sont des plus prometteuses pour les États, les entreprises et les ONG qui disposent de peu de moyens, mais qui cherchent à améliorer leur efficacité et à réaliser des avantages économiques et sociaux.

Il y a toutefois un problème. Les externalités négatives potentielles et les effets imprévus de ces technologies n'ont pas été suffisamment étudiés. Le risque le plus évident est que ces outils prédictifs d'une puissance inédite vont renforcer la capacité de surveillance des régimes autoritaires.

L'exemple le plus souvent cité est le «système de notation sociale» de la Chine qui se base sur les dossiers de crédit, les condamnations pénales, les comportements en ligne et d'autres données pour attribuer une note au dossier de chaque citoyen chinois. Ces notes peuvent déterminer si quelqu'un peut obtenir un prêt, accéder à une bonne école, voyager par train ou par avion, etc. Même si le système de la Chine est présenté comme un outil pour améliorer la transparence, il se dédouble en instrument de contrôle social.

Pourtant même lorsqu'utilisés ostensiblement par des gouvernements démocratiques bien intentionnés, des entreprises à vocation sociale et des organisations à but non lucratif progressives, les outils prédictifs peuvent produire des résultats médiocres. Des vices de conception dans les algorithmes fondamentaux et les ensembles de données partiales peuvent entraîner des brèches de confidentialité et une discrimination basée sur l'identité. Ceci est déjà devenu un problème criant du droit pénal, où les analyses prédictives perpétuent quotidiennement les disparités raciales et socioéconomiques. Par exemple, un système IA créé pour aider les juges des États-Unis à évaluer la probabilité de récidive a déterminé à tort que les accusés noirs constituent un beaucoup plus grand risque de récidive que les accusés blancs.

Les inquiétudes voulant que l'IA puisse aggraver les inégalités dans les milieux de travail sont également grandissantes. Jusqu'ici, les algorithmes prédictifs ont augmenté l'efficacité et les bénéfices de telle manière que les gestionnaires et les actionnaires en ont tiré profit aux dépens des simples ouvriers (particulièrement dans une économie où règnent les petits boulots).

Dans tous ces exemples, les systèmes d'IA présentent un miroir déformant de la société, reflétant et amplifiant les partis pris et les inégalités. Comme le fait remarquer le chercheur en technologie Nanjira Sambuli, la numérisation a tendance à exacerber, au lieu d'alléger les problèmes politiques, sociaux et économiques actuels.

L'engouement pour l'adoption des outils prédictifs doit être compensé par des considérations éthiques et éclairées de leurs effets prévus et non voulus. Lorsque les effets de puissants algorithmes sont contestés ou inconnus, le principe de précaution recommande de ne pas les déployer.

Il ne faut pas que l'IA devienne un autre domaine où les décideurs demandent un pardon plutôt qu'une permission. C'est pourquoi le Haut-Commissariat des Nations Unies aux droits de l'homme et d'autres intervenants ont préconisé des moratoriums sur l'adoption des systèmes d'IA jusqu'à ce que les cadres éthiques de protection des droits de la personne soient actualisés pour tenir compte des dommages éventuels.

L'élaboration de cadres appropriés nécessitera de former un consensus sur les principes de base qui doivent orienter la conception et l'usage des outils d'IA prédictifs. Heureusement, la course à l'intelligence artificielle a entraîné en parallèle une nuée d'initiatives de recherche, des instituts et des réseaux en éthique. Et tandis que la société civile a pris les devants, les entités intergouvernementales comme l'OCDE et l'UNESCO se sont également mobilisées.

L'ONU a œuvré à la création de normes universelles d'éthique en IA depuis au moins 2021. De plus, l'Union européenne a proposé une loi sur l'IA - la première initiative en ce sens par une instance réglementaire d'importance - qui interdirait certaines utilisations (comme ceux du système de notation sociale de la Chine) et d'assujettir d'autres applications très risquées à des exigences et à des contrôles spécifiques.

Jusqu'ici, ce débat s'est tenu en majeure partie en Amérique du Nord et en Europe de l'Ouest. Mais les pays moins nantis ont leurs propres besoins essentiels, préoccupations et inégalités sociales à étudier. De nombreuses recherches démontrent que les technologies mises au point par et pour les marchés dans les économies avancées sont souvent contre-indiquées pour les économies moins développées.

Si les nouveaux outils de l'IA sont importés tels quels et déployés massivement avant la mise en place de structures de gouvernance nécessaires, ils pourraient bien faire plus de mal que de bien. Toutes ces questions doivent être étudiées si l'on veut concevoir des principes réellement universels de gouvernance de l'IA.

Mesurant l'importance de ces lacunes, l'Institut Igarapé et le groupe de réflexion New America ont lancé récemment un nouveau groupe de travail international sur les analyses prédictives pour la sécurité et le développement. Le groupe de travail réunit des défenseurs des droits numériques, des partenaires du secteur public, des entrepreneurs en technologie et des spécialistes des sciences sociales en Amérique, en Afrique, en Asie et en Europe, avec pour objectif de définir les principes fondamentaux pour une utilisation des technologies prédictives qui respectent la sécurité du public et la viabilité du développement dans l'hémisphère Sud.

La formulation de ces principes et normes ne constituent que la première étape, le plus grand défi sera de canaliser les initiatives de collaboration et de coordination internationales, nationales et infranationales nécessaires pour les transposer dans les lois et veiller à leur application. Dans la ruée mondiale pour la création et le déploiement de nouveaux outils d'IA prédictifs, des cadres juridiques de protection sont essentiels pour garantir un avenir prospère et pérenne où les populations sont en sécurité et au centre des préoccupations.



Traduit de l'anglais par Pierre Castegnier

1- Cofondateur de l'Institut Igarapé et le Groupe SecDev - Membre du Conseil de l'avenir mondial des villes de demain du Forum économique mondial et un conseiller pour le Rapport sur les risques mondiaux.

2- Conseillère à l'Institut Igarapé et partenaire et administratrice à Kunumi

3- Analyste principal des politiques à New America - Maître de conférences au Thunderbird School of Global Management à l'Université d'État de l'Arizona.