|
Laisser fleurir un millier de régimes d'IA
par Angela Huyue Zhang LOS ANGELES - Il
est largement admis que l'Amérique «déréglemente» l'IA, et il n'est pas
difficile de comprendre pourquoi. L'administration Trump
a annulé les décrets sur l'IA du président Joe Bidenet
dévoilé un «plan d'action sur l'IA» promettant de «démanteler les barrières
réglementaires inutiles.» Lorsque le vice-président JD Vance
a participé au sommet de Paris sur l'IA en février, il a averti les Européens
qu'une «réglementation excessive» paralyserait leur industrie de l'IA.
Mais ce discours sur la déréglementation ne tient pas compte de la manière dont les États-Unis sont réellement gouvernés. Le gouvernement fédéral n'est pas le seul régulateur en ville. Il existe 50 gouvernements d'État qui peuvent légiférer et appliquer des règles lorsque les autorités fédérales refusent d'agir, ainsi que des tribunaux indépendants qui interviennent dans les affaires dont ils sont saisis par des particuliers ou des entités. Il en résulte un patchwork décentralisé, et non un vide réglementaire. En octobre, les législateurs de 42 États avaient déposé 210 projets de loi relatifs à l'IA pour réglementer le secteur privé, les États contrôlés par les démocrates menant la charge. C'est le cas de la Californie, qui vient d'adopter un vaste ensemble de mesures exigeant la divulgation de l'identité des robots et la mise en place de mesures de protection de la jeunesse pour les «robots de conversation compagnons» ; introduisant un régime de divulgation progressive des données, afin que les plateformes puissent signaler les contenus générés par l'IA ; fixant des limites aux conseils médicaux non autorisés fournis par l'IA ; renforçant les recours en cas de pornographie «deepfake» non consensuelle ; circonscrivant la défense «AI-did-it» en cas de litige ; et interdisant explicitement la fixation des prix par les algorithmes. Dans le même temps, l'État de New York a interdit les algorithmes de fixation du prix des loyers par les propriétaires et étudie des mesures relatives à la sécurité des modèles d'avant-garde, à l'étiquetage et à la divulgation d'informations sur les interprètes synthétiques (les «acteurs» de l'IA). L'Illinois a interdit la «thérapie par l'IA» en l'absence de professionnels agréés et a limité l'utilisation de l'IA lors de l'embauche. L'année dernière, le Colorado a adopté la première loi globale sur l'»IA à haut risque», axée sur la prévention de la discrimination algorithmique. Les États contrôlés par les républicains ont également pris des mesures cette année. Le Texas a adopté une loi omnibus visant les utilisations manipulatrices et discriminatoires de l'IA. Le Tennessee (capitale de l'industrie de la musique country) a réglementé l utilisation du clonage vocal par l'IA. Enfin, l'Utah a établi des règles de divulgation et des garde-fous pour les chatbots proposant des services de santé mentale. Il est clair que la protection des enfants, la réglementation des robots et l'interdiction de la tromperie par l'IA bénéficient d'un soutien bipartisan, ce qui explique en partie pourquoi une tentative récente de préempter toutes les lois nationales sur l'IA pendant dix ans - incluse dans le «One Big Beautiful Bill» des Républicains - a échoué après une forte résistance des États et de la société civile. Certes, la décentralisation augmente les coûts de mise en conformité, en particulier pour les petites entreprises, et les partisans de la préemption font valoir que la législation de 50 États pourrait donner lieu à 50 définitions de l'IA, 50 obligations d'information et 50 méthodes d'application. Mais il s'agit là d'une caricature. Il est rare que les marchés utilisent 50 manuels de jeu, car les patchworks tendent à converger, les entreprises s'harmonisant avec la norme la plus stricte possible. De nombreux secteurs connaissent déjà l'«effet Californie»: les règles fixées à Sacramento deviennent souvent la norme nationale de facto, comme on l'a vu dans le domaine des émissions automobiles et de la confidentialité des données. En outre, un système décentralisé permet aux États-Unis de mener des expériences en temps réel en matière de réglementation de l'IA. Lorsque les États adoptent des règles d'intensité variable, ils deviennent des laboratoires de gouvernance. Les décideurs politiques peuvent voir ce qui fonctionne, écarter ce qui ne fonctionne pas et concevoir un modèle pratique pour une meilleure réglementation. Dans le même temps, il est peu probable que les divergences entre les États soient aussi marquées que beaucoup le supposent. Étant donné que les États sont en concurrence pour les investissements, des règles trop strictes peuvent faire fuir les entreprises innovantes. C'est pourquoi le gouverneur de Californie, Gavin Newsom, a opposé son veto à la loi SB 1047, qui aurait imposé de lourdes obligations de conformité aux développeurs d'IA pionniers. En fin de compte, les législateurs de l'État ont opté pour une mesure de transparence et de divulgation plus restreinte. La restructuration d'OpenAI offre un autre exemple de ce même schéma. Alors que l'entreprise passait d'une structure à but non lucratif à une structure d'utilité publique, le procureur général de Californie, Rob Bonta, a insisté pour que des garde-fous plus solides soient mis en place. Après avoir obtenu des concessions en matière de gouvernance et de sécurité de la part d'OpenAI, il a fait un compromis et a refusé de s'y opposer. Si tout cela vous semble familier, c'est parce que le déploiement de l'IA reproduit la politique du débat américain sur la confidentialité des données. Ici aussi, il est faux de dire que l'Amérique n'a «pas de loi sur la confidentialité des données». Les États-Unis disposent d'un grand nombre de lois de ce type, mais pas d'une loi fédérale unique et cohérente. Bien que la loi américaine sur la confidentialité et la protection des données ait été adoptée par la commission de l'énergie et du commerce de la Chambre des représentants des États-Unis avec un soutien bipartisan massif en 2022, elle est restée au point mort. Les États contrôlés par les démocrates, au premier rang desquels la Californie, ont exhorté le Congrès à adopter un plancher fédéral (et non un plafond) et à préserver les pouvoirs d'enquête et d'exécution des procureurs généraux des États, et les entreprises américaines ont fait pression contre une législation qui ne l'emporterait pas sur des régimes plus forts au niveau de l'État. Nous pouvons nous attendre à la même dynamique avec la réglementation de l'IA, à moins que le Congrès n'opte pour un projet de loi qui fixe des bases fédérales tout en permettant aux États d'aller plus loin. Oui, les critiques mettront en garde contre le fait qu'une réglementation disparate pourrait handicaper les entreprises américaines par rapport à leurs concurrents chinois. Le système centralisé chinois peut en effet agir rapidement : lorsque le marché devient chaotique, les autorités peuvent imposer des contrôles radicaux avec une faible résistance institutionnelle ; et lorsque la croissance s'essouffle sous l'effet d'une intervention musclée, elles peuvent tout aussi rapidement assouplir les règles pour attirer les investisseurs. Mais les Américains tentés par l'approche de la Chine doivent se souvenir du revers de la médaille. Comme je l'explique dans mon livre High Wire : How China Regulates Big Tech and Governs Its Economy, la mauvaise gestion par la Chine de la pandémie de COVID-19, sa vaste campagne de répression sur l'internet (qui a fait disparaître de grandes fortunes technologiques) et le malaise économique persistant dû à des réformes lourdes en matière de propriété nous rappellent brutalement que la centralisation est synonyme de fragilité. Donc, non : l'Amérique n'est pas en train de déréglementer l'IA. Elle décentralise sa gouvernance. Cette voie plus désordonnée, plus bruyante et plus pluraliste est une caractéristique inhérente à son ordre constitutionnel et le fondement de sa résilience réglementaire. Plutôt que de considérer la décentralisation comme un frein à l'innovation, il faut la voir comme l'un des avantages concurrentiels les plus importants de l'Amérique. *Professeur de droit à l'université de Californie du Sud - Est l'auteur de High Wire : How China Regulates Big Tech and Governs Its Economy (Oxford University Press, 2024) et de Chinese Antitrust Exceptionalism : How the Rise of China Challenges Global Regulation (Oxford University Press, 2021). | |||||||||||||||||||||||||||||||||||||||||||