Envoyer à un ami | Version à imprimer | Version en PDF

Comment réparer l'économie des plateformes ?

par Daron Acemoglu1 Et Simon Johnson2

BOSTON - Meta (Facebook), Alphabet (Google), Microsoft, Twitter et quelques autres entreprises technologiques ont fini par dominer ce que nous voyons et entendons sur l'internet, façonnant ainsi la perception du monde de centaines de millions de personnes. En quête de revenus publicitaires, leurs algorithmes sont programmés pour nous montrer des contenus qui retiendront notre attention - y compris des vidéos extrémistes, de la désinformation et du matériel conçu pour stimuler la jalousie, l'insécurité et la colère. Avec le développement rapide de «grands modèles de langage» tels que ChatGPT et Bard, l'emprise de Big Tech sur les esprits influençables ne fera que se renforcer, avec des conséquences potentiellement effrayantes.

Cependant, d'autres résultats sont possibles. Les entreprises pourraient déployer la dernière vague d'intelligence artificielle de manière beaucoup plus responsable. Deux affaires judiciaires actuelles servent d'ailleurs d'avertissement à ceux qui poursuivent des modèles commerciaux socialement destructeurs. Mais nous avons également besoin d'interventions des pouvoirs publics pour démanteler les plus grandes entreprises technologiques et taxer la publicité numérique. Ces leviers politiques peuvent contribuer à modifier le modèle commercial pernicieux de Big Tech, empêchant ainsi les plateformes d'infliger autant de dommages émotionnels à leurs utilisateurs, en particulier aux jeunes vulnérables.

Les affaires juridiques comprennent l'affaire Gonzales contre Google, qui est actuellement examinée par la Cour suprême des États-Unis. L'enjeu est l'insistance de l'industrie technologique sur le fait que la Section 230 de la Loi de 1996 sur la décence des communications (Communications Decency Act) exempte les plateformes de toute responsabilité pour les contenus de tiers qu'elles hébergent. Si les plateformes se comportent davantage comme des organes d'information que comme de simples dépôts en ligne lorsqu'elles recommandent des vidéos, des tweets ou des messages, elles devraient être soumises aux mêmes normes que les médias établis, qui, en vertu des lois existantes sur la diffamation, ne sont pas autorisés à publier ce qu'ils savent être faux.

Ainsi, dans un procès de 1,6 milliard de dollars intenté à Fox News, Dominion Voting Systems a découvert de nombreuses preuves que les principaux animateurs et dirigeants de Fox savaient pertinemment (et se le disaient entre eux) que les affirmations de l'ancien président Donald Trump sur la fraude électorale étaient entièrement fausses. Dominion peut donc prétendre à des dommages-intérêts s'il peut démontrer que Fox a sciemment répandu des mensonges à propos des machines à voter de Dominion lors de l'élection de 2020. Les plateformes en ligne dont les algorithmes ont diffusé les mêmes mensonges ne devraient-elles pas être soumises aux mêmes normes ?

Il est d'autant plus urgent de répondre à ces questions que des programmes comme ChatGPT sont sur le point de remodeler l'internet. Ces algorithmes de recommandation sophistiqués pourraient être formés à ne pas promouvoir des contenus extrêmes ou des mensonges délibérés, et à ne pas encourager des émotions extrêmes. Si un algorithme exploite ou manipule des enfants (ou n'importe qui d'autre, d'ailleurs), la responsabilité de ce préjudice devrait incomber aux humains qui en ont la charge. Après tout, les IA de ce niveau ne fonctionnent pas de manière autonome par rapport aux décisions humaines. Prétendre le contraire revient à accorder à leurs créateurs une immunité juridique.

Les entreprises technologiques ne devraient plus pouvoir excuser leur inattention ou leur négligence en arguant du fait qu'il y a trop de données à surveiller. Cette masse de données est la source de leurs profits, et l'abondance même du contenu sur leurs plateformes est ce qui rend leurs IA si puissantes. S'il est raisonnable que les plateformes bénéficient d'une certaine limite à leur responsabilité concernant ce que d'autres personnes publient sur leur site, cela ne devrait s'appliquer qu'aux contenus passifs, qu'elles ne recommandent d'aucune façon à d'autres utilisateurs. Il en va tout autrement des contenus actifs, qui sont diffusés de manière algorithmique à des millions de personnes afin de générer des revenus. En effet, il s'agit d'une forme d'édition traditionnelle, bien que beaucoup plus puissante.

Si un quotidien publie un commentaire d'un terroriste, certains lecteurs cesseront probablement de s'abonner. Or, comme la plupart des individus ne veulent pas quitter leurs réseaux sociaux en ligne existants, une réglementation gouvernementale est nécessaire pour redonner du pouvoir aux consommateurs.

Tout d'abord, les plus grandes entreprises de plateformes devraient être scindées afin de créer une concurrence plus intense entre les algorithmes de recommandation et leurs formateurs. Néanmoins, pour que cela fonctionne dans l'intérêt du public, les plateformes doivent également être obligées de permettre le transfert du réseau social d'un utilisateur vers une autre plateforme.

La même logique d'»interopérabilité» vous permet de conserver votre numéro de téléphone portable lorsque vous changez d'opérateur. Les consommateurs de médias sociaux et de contenu numérique devraient pouvoir exprimer leur mécontentement en abandonnant une plateforme qui promeut quelque chose qui leur déplait.

Deuxièmement, et c'est encore plus important, nous devons forcer un ajustement du modèle commercial dominant des Big Tech, qui est basé sur la collecte de vastes quantités de données d'utilisateurs et leur monétisation par le biais de la vente de publicité numérique. Ce modèle commercial explique pourquoi la désinformation, l'indignation et l'insécurité sont si répandues en ligne. La manipulation émotionnelle maximise l'engagement des utilisateurs, ce qui permet une collecte de données plus intrusive et des profits plus élevés.

Une taxe sur la publicité numérique est l'un des seuls moyens concrets de modifier ce modèle économique extraordinairement destructeur. Elle réduirait la tentation des plateformes de maximiser l'engagement des utilisateurs par la manipulation émotionnelle et, si elle est associée à des limites à la possibilité de collecter certaines données, elle inciterait à développer d'autres approches, telles que des modèles basés sur l'abonnement.

Un autre avantage d'une taxe sur la publicité numérique est qu'elle pourrait être fixée à un niveau encore plus élevé pour les contenus destinés à des personnes de moins de 21 ans.

La vente de cigarettes ou d'alcool à des mineurs est une infraction pénale grave. S'il n'est pas possible d'interdire aux jeunes de voir des contenus qui nuisent à leur santé mentale, un taux d'imposition élevé sur les recettes publicitaires tirées de la promotion de ces contenus est tout à fait approprié. Les recettes pourraient être consacrées au renforcement des programmes de santé mentale, notamment ceux visant à prévenir le suicide chez les adolescents. En cas de doute sur les contenus qui nuisent aux jeunes, il suffit de demander à l'algorithme de recommandation de l'IA.



1- Professeur d'économie au MIT, est le coauteur (avec Simon Johnson) de l'ouvrage à paraitre Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, May 2023).

2- Ancien économiste en chef au Fonds monétaire international, est professeur à la Sloan School of Management du MIT et le coauteur (avec Daron Acemoglu) de l'ouvrage à paraitre Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity (PublicAffairs, May 2023).