Envoyer à un ami | Version à imprimer | Version en PDF

Les dangers induits des données de masse

par Carlo Ratti* et Dirk Helbing**

CAMBRIDGE (Mass.) – Dans la théorie des jeux, on nomme « prix de l’anarchie » la perte d’efficacité que représentent les actions d’individus mus par leur propre intérêt pour le système plus vaste au sein duquel elles s’inscrivent. C’est un phénomène récurrent, auquel nous sommes presque tous régulièrement confrontés.

Imaginons que vous ayez en charge la gestion du trafic urbain. Vous avez deux façons de maîtriser le problème de la circulation en ville. En règle générale, c’est l’approche centralisée et hiérarchisée qui est privilégiée – une conception globale du système, identifiant les points de friction ou de congestion, au nom de laquelle sont apportées les modifications nécessaires. On considère qu’il est plus efficace d’agir ainsi que de laisser chaque conducteur faire ses propres choix en espérant que de l’ensemble de ces choix individuels naîtra un arrangement acceptable. On admet que la première solution réduit le coût de l’anarchie et permet une meilleure allocation de l’information disponible.

Le monde d’aujourd’hui croule sous les données. En 2015, l’humanité a produit plus d’information que toutes les civilisations humaines au cours de leur histoire. Chaque fois que nous envoyons un message, que nous passons un appel ou réalisons une transaction, nous laissons des traces informatiques. Nous nous approchons à grande vitesse de ce que l’écrivain italien Italo Calvino nommait, de façon prémonitoire, la « mémoire du monde » : une copie informatique exhaustive de notre univers physique.

Alors que l’Internet s’étend, grâce à l’Internet des objets, à de nouveaux territoires de la réalité physique, le prix de l’anarchie devient l’une des mesures les plus déterminantes de nos sociétés, et la tentation de l’annuler en recourant à la puissance d’analyse que fournissent les données de masse est de plus en plus forte.

Les exemples abondent. Prenons l’achat d’un livre en ligne grâce aux services d’Amazon. Quoi de plus banal ? Amazon détient des montagnes d’informations sur tous ses usagers – de leur profil à leur historique de requêtes, et jusqu’aux phrases qu’ils surlignent sur leurs e-books –, dont l’entreprise se sert pour prévoir en quoi consistera leur prochain achat. Comme dans toutes les formes d’intelligence artificielle centralisée, les événements passés servent de modèle pour prévoir les événements futurs. Amazon sait quels sont les dix derniers livres que vous avez achetés et peut, avec une pertinence toujours plus grande, vous suggérer celui que vous pourriez avoir envie de lire.

Mais nous devons aussi considérer ce qui est perdu lorsque nous réduisons le niveau d’anarchie. Le livre qui vous intéressera le plus après la lecture des dix précédents n’est pas celui qui correspond le mieux au modèle qu’ils dessinent, mais plutôt celui qui vous surprendra, provoquera votre curiosité et votre réflexion, et vous permettra de regarder différemment le monde.

Au contraire des problèmes de circulation envisagés plus haut, les suggestions optimisées – qui se résument souvent une prophétie auto-réalisatrice concernant votre prochain achat – ne fournissent pas nécessairement le meilleur modèle d’acquisition – ou de consultation – d’un livre en ligne. Les données de masse multiplient vos options en éliminant les objets que vous ne souhaitez pas consulter, mais quid, alors, de la pure trouvaille, hasardeuse et féconde, dont pourrait résulter le choix du onzième livre [– telle qu’elle est louée dans la célèbre aventure des Trois Princes de Serendip] ?

Ce qui est vrai de l’achat de livres en ligne l’est aussi de mille autres opérations informatisées dans nos villes et nos sociétés. Des systèmes municipaux centralisés utilisent désormais des algorithmes pour suivre et contrôler les infrastructures urbaines, qu’il s’agisse des feux de signalisation, des flux autoroutiers ou de l’énergie qu’on souhaite économiser. De nombreux maires, dans le monde entier, sont fascinés par l’idée d’une salle de contrôle centrale, comme le centre opérationnel de Rio de Janeiro, conçu par IBM, grâce auquel les gestionnaires de la ville peuvent répondre en temps réel à toute nouvelle information.

Mais dès lors que des algorithmes centralisés peuvent prendre en charge toutes les facettes de la vie en société, la technocratie issue du traitement des données de masse menace d’étouffer l’innovation et de submerger la vie démocratique. Une telle issue doit à tout prix être évitée. Il est essentiel pour le bien de la société que des décisions continuent d’être prises de façon décentralisée. L’optimisation que permet la collecte de données engendre, à l’inverse, des solutions qui proviennent toutes d’un modèle prédéterminé, lequel, sous sa forme courante, exclut le plus souvent les idées contre-intuitives mais douées d’un fort potentiel de transformation qui entraînent l’humanité dans sa marche en avant.

Un certain degré d’aléatoire dans nos vies permet aux idées nouvelles et aux modes de pensée inconnus d’émerger. Il leur est même indispensable, comme il est, à l’échelle du monde, nécessaire à la vie. Si la nature avait recouru à des algorithmes prévisionnels pour empêcher les mutations aléatoires de la duplication de l’ADN, notre planète en serait encore, vraisemblablement, au stade d’un organisme unicellulaire ultra-optimisé.

La prise de décisions décentralisée peut créer des synergies entre l’intelligence humaine et celle des machines à travers des processus de co-évolution naturels et artificiels. Il est possible qu’à très court terme l’intelligence distribuée réduise parfois l’efficacité, mais elle conduit in fine à des sociétés plus créatives, plus diversifiées et plus résilientes. Le prix de l’anarchie vaut largement d’être payé si nous voulons préserver l’innovation grâce à la « sérendipité », à l’inattendu.

Traduction François Boisivon
*Dirige le SENSEable City Laboratory du Massachusetts Institute of Technology, aux États-Unis; il est également responsable du Conseil de l’agenda mondial pour les villes du futur au Forum économique mondial.
**Professeur en sciences sociales informatiques à l’Institut fédéral de technologie (ETH) de Zurich, en Suisse ; il est en outre responsable des programmes FuturICT et Nervousnet.