Comment Meredith Wittaker, ex salariée de Google, est devenue une critique véhémente de la Silicon Valley ?
Une interview passionnante de la présidente de Signal, à propos d’IA, de Google, de capitalisme de surveillance et d’assassinat ciblé, à lire sur Wired.
©Dina
"Chez Google, j’ai travaillé avec des gens extrêmement brillants, comme le co-auteur du langage de programmation C. C’était extraordinaire. Mais j’ai constaté progressivement que le modèle économique de l'entreprise, de façon intentionnelle ou non, était profondément toxique. Ce que nous avons vu se dérouler ces dix dernières années en est le résultat direct.
Wired : Vous parlez du capitalisme de surveillance ?
Exactement. Tout a changé avec la publication de l’algorithme AlexNet en 2012. À partir de là, grâce à des quantités massives de données et grâce à des puces informatiques plus puissantes, on a pu réaliser des choses assez impressionnantes.
Mais j'ai réalisé que derrière cet « apprentissage automatique » se cachaient des données médiocres qu’on présentait comme "des sentiments humains". On traitait des données à travers un modèle statistique et on appelait cela de « l’intelligence ». C’est là que j’ai pris conscience des capitaux énormes que cela impliquait. Rien de tout cela n’était véritablement de l’innovation. C’était principalement une question de capital.
En 2017, j’ai découvert que Google travaillait sur le Project Maven, un contrat pour fournir à l’armée américaine une IA permettant aux drones d’effectuer des frappes ciblées. Ce type de guerre était à la pointe des « signature strikes ». C’est à dire un ciblage publicitaire, mais pour la mort. Vous n’avez pas besoin de savoir qui est la personne. Vous créez simplement un profil de données qui, selon le système, ressemble à celui d’un terroriste ou d’un ennemi. On ne cible pas une personne spécifique, mais un ensemble de caractéristiques observées par les algorithmes.
Wired : Ce n’est pas l’ancien directeur de la CIA et de la NSA, Michael Hayden, qui avait déclaré : « nous tuons des gens sur la base de métadonnées » ?
Exactement. Google avait toujours proclamé ne pas s’engager dans des activités militaires. C’est à ce moment-là que j’ai réalisé que l’intelligence artificielle, dans sa forme actuelle, est le produit direct du modèle économique de surveillance de masse.
Wired : Mais il existe des applications de l’IA, comme la détection de tumeurs dans des images médicales, qui semblent bénéfiques. Ne croyez-vous pas qu’il y ait une forme d’IA plus bienveillante ?
Je ne dis pas que l’analyse de motifs sur de grandes quantités de données n’est pas utile. Bien sûr, elle l’est dans certains cas. Mais ce dont je parle ici, c’est le modèle économique dans lequel cette technologie est déployée."