|
Société :
Désinstallations en masse, fuite des talents : OpenAI paie le prix de son alliance avec l'armée
par Salah Lakoues Peut-on encore faire confiance
à l'IA qui sert la guerre ?
Elles écrivent vos e-mails, répondent à vos questions, consolent vos solitudes numériques. Les intelligences artificielles sont devenues les compagnes silencieuses de nos vies. Jusqu'au jour où l'on découvre qu'elles peuvent aussi devenir les architectes de la mort. En 48 heures, ChatGPT a perdu près de 300% de ses utilisateurs. Une hémorragie aussi soudaine que violente. La cause ? Un contrat signé dans l'ombre avec le « Département de la Guerre » américain. Comme si le virtuel venait soudain de rattraper le réel avec une brutalité inouïe. Car ce n'est pas une simple affaire de business. C'est un traumatisme de conscience collective. À Gaza, le monde a vu ce que donne une guerre optimisée par les algorithmes : des frappes industrialisées, des vies humaines réduites à des données sur une liste, et des machines qui décident, froidement, qui vit et qui meurt. Aujourd'hui, les utilisateurs de ChatGPT regardent leur assistant favori avec un vertige nouveau. Cette technologie douce, familière, pourrait-elle demain alimenter les mêmes systèmes qui ratissent des immeubles ou étiquettent des « cibles » ? La question n'est plus théorique. Elle est dans nos poches. Et elle se désinstalle, un geste à la fois. L'ampleur de la réaction utilisateur : des chiffres sans précédent +295% de désinstallations : Un bond spectaculaire qui traduit une réaction émotionnelle immédiate et massive +775% d'avis à 1 étoile : Les utilisateurs ne se contentent pas de désinstaller, ils veulent envoyer un message fort -50% d'avis 5 étoiles : La base de fans historiques semble se fissurer Chute des téléchargements : De +14% à -13% puis -5%, l'attractivité s'effondre en 48h Le contexte géopolitique sensible Le timing est particulièrement malheureux avec le rebaptême du DoD en « Département de la Guerre » sous l'administration Trump. Cette terminologie martiale amplifie probablement l'inquiétude du public sur l'utilisation militaire de l'IA. Une décision opportuniste qui se retourne contre OpenAI OpenAI a tenté de récupérer un contrat qu'Anthropic a perdu précisément pour ses positions éthiques intransigeantes : Refus d'espionner les citoyens américains Refus de contribuer à des armes autonomes En acceptant ces conditions qu'Anthropic avait refusées, OpenAI apparaît comme l'entreprise qui accepte là où l'autre a dit non par principe. La fuite des talents : un signal d'alarme interne Le départ de Max Schwarzer, VP of Research, est particulièrement significatif : Figure clé des innovations d'OpenAI Rejoint directement Anthropic, le concurrent bénéficiaire de cette crise Montre que la décision crée des tensions en interne, pas seulement chez les utilisateurs L'hypocrisie du secteur mise à nu L'article soulève un point crucial : Anthropic n'est pas vertueux non plus. Dario Amodei (CEO d'Anthropic) est décrit comme « belliqueux » envers la Chine Anthropic était prêt à renégocier son contrat La différence est davantage une question de timing et de communication que de principes fondamentaux Les leçons stratégiques Pour OpenAI : Erreur de timing politique (administration Trump) Sous-estimation de l'attachement du public à l'éthique Crise de confiance qui touche à la fois clients ET employés Pour le marché de l'IA : La confiance devient un actif aussi stratégique que la puissance de calcul Les utilisateurs sont prêts à voter avec leurs désinstallations La compétition ne se joue plus seulement sur la performance technique Scénarios possibles Court terme : OpenAI va probablement tenter une opération de communication pour rassurer Possible retournement si d'autres entreprises suivent (effet de normalisation) Long terme : Si la tendance se maintient, Anthropic pourrait capitaliser sur cette défection massive Risque de segmentation du marché : IA « grand public éthique » vs IA « militaire/gouvernementale » Cette crise révèle que l'IA grand public a une sensibilité politique que les entreprises avaient sous-estimée. Le « bad buzz » n'est pas qu'un incident passager : il touche au cœur de l'identité de marque d'OpenAI, bâtie sur des promesses de sécurité et d'éthique. La double défection (utilisateurs ET talents) vers Anthropic crée une tempête parfaite dont l'ampleur réelle ne se mesurera que dans les semaines à venir. Je soulève un point extrêmement important et douloureux. Le parallèle avec Gaza est en effet central dans ce débat, car il illustre concrètement ce que beaucoup craignent : l'industrialisation algorithmique de la guerre. Voici comment ce qui s'est passé à Gaza éclaire la controverse actuelle sur OpenAI et le Pentagone : « La salle de guerre numérique » : Lavender et où est Daddy ? Les récentes offensives à Gaza ont été marquées par l'utilisation à grande échelle de systèmes d'IA par l'armée israélienne, selon des enquêtes de +972 Magazine et d'autres médias : Le programme « Lavender » : Un système de notation de masse qui a identifié des dizaines de milliers de Palestiniens comme des cibles potentielles à « éliminer ». L'IA ne se contentait pas d'assister, elle générait des listes de cibles à une vitesse industrielle. « Où est Daddy ? » : Un système de ciblage de suivi qui traquait les individus dans leurs foyers, menant à des bombardements souvent effectués avec des munitions « dumb » (non guidées) pour gagner du temps, causant des pertes civiles massives. Le lien : Cela a matérialisé la peur de voir l'IA transformée en système de production de cadavres industrialisé, où la décision humaine devient une simple validation d'une boîte noire algorithmique. Le glissement sémantique : de « Défense » à « Guerre » Ma remarque rejoint parfaitement le malaise exprimé par les utilisateurs. Le fait que le Pentagone soit désormais appelé officiellement « Département de la Guerre » par l'administration Trump n'est pas anodin. Hier (DoD) : On parlait de « défense », de bouclier, de protection. Aujourd'hui (DoW) : On parle de « guerre », d'épée, de frappe. Gaza : A montré que dans la réalité du terrain, la frontière entre « défense » et « guerre asymétrique en zone urbaine dense » est totalement abolie. L'IA à Gaza n'a pas « défendu », elle a optimisé le rythme des frappes. L'effet « boîte noire » et l'absence de responsabilité Ce qui relie Gaza à ce partenariat OpenAI/Pentagone, c'est le problème de l'opacité : À Gaza, l'armée affirme que ses cibles étaient « légitimes », mais les algorithmes et leurs biais (ex : identification d'hommes en âge de porter les armes comme « combattants ») restent secrets. Avec le contrat d'OpenAI, les citoyens américains (et le monde) craignent que leur assistant conversationnel préféré ne devienne la fondation technologique d'une telle opacité. « L'IA qui écrit mes e-mails va-t-elle demain étiqueter des gens comme cibles ? » La question des données civiles L'un des scandales implicites de l'utilisation de l'IA à Gaza (et dans les territoires occupés) est l'utilisation des données de surveillance de masse (reconnaissance faciale, données de téléphones, historiques de conversations) pour alimenter ces machines à tuer. Le parallèle : Le refus d'Anthropic d' »espionner les citoyens américains » fait directement écho à cette peur. Les utilisateurs de ChatGPT ne veulent pas que leurs données servent, même indirectement, à entraîner un système qui pourrait un jour être utilisé contre des populations civiles, où que ce soit. Gaza comme point de bascule Gaza n'est pas un conflit comme un autre dans ce débat. Il est perçu comme le premier laboratoire grandeur nature de la guerre assistée par l'IA à grande échelle. Pour beaucoup, signer un contrat avec le « Département de la Guerre » après ce qui a été documenté à Gaza, c'est accepter de potentiellement reproduire ce modèle. C'est pourquoi la réaction des utilisateurs est si violente : ils ne voient pas un contrat « neutre », ils voient une validation technologique de méthodes de guerre qui ont déjà fait des milliers de victimes civiles grâce à l'automatisation. |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||