Critique de l’intelligence artificielle

Ce groupe de travail s’inscrit dans l’héritage de la théorie critique pour questionner le « pour quoi ? » de l’« intelligence artificielle » (IA), à l’heure où son déploiement semble devenu totalisant. À partir des travaux de chercheuses et chercheurs venus d’horizons disciplinaires variés et en mobilisant les savoirs d’acteurs engagés dans les controverses autour de l’IA, il vise à explorer les questions suivantes. Quelles sont les limites de l’IA ? Qui produit le savoir à son endroit ? Dans quelles conditions s’élaborent ces technologies et comment sont-elles intégrées aux pratiques des institutions ? Qu’est-ce qui, dans l’imaginaire collectif lié à l’IA, relève du mythe ou de l’idéologie ? Quels sont ses effets sociaux et politiques ? Comment se structurent les rapports de pouvoir entre les différents groupes mobilisés autour de ses enjeux ? Quelle est sa pertinence sociale à l’heure de l’anthropocène ?

À travers ces questionnements, ce groupe de travail entend éclairer les enjeux liés aux imaginaires des pratiques afférentes au déploiement de l’intelligence artificielle en reliant réflexion académique, savoirs pratiques et perspectives de transformation sociale.

Coordination

Marie Garin est doctorante en mathématiques à l’ENS Paris-Saclay, associée au Centre Borelli. Ses recherches portent sur la protection de la vie privée dans le cadre de l’apprentissage statistique ainsi que sur les considérations éthiques liées à l’intelligence artificielle dans le cadre du développement d’une Théorie critique de l’intelligence artificielle.
Contact : marie.garin@ens-paris-saclay.fr

Félix Tréguer est chercheur associé au Centre Internet et Société. Ses recherches portent sur l’histoire politique d’Internet et de l’informatique, les pratiques de pouvoir comme la censure ou la surveillance des communications et plus généralement sur la transformation numérique de l’État et du champ de la sécurité.
Contact : felix.treguer@sciencespo.fr

Activités

Séminaire Critique de l’intelligence artificielle

Ce séminaire, organisé par Marie Garin et Félix Tréguer, est un partenariat entre le Centre Borelli (ENS Paris-Saclay), l’Institut DATAIA (Université Paris-Saclay) et le CIS. Certaines séances sont enregistrées et diffusées en ligne. Merci de vous inscrire

10.10.2023 – 14h à 16h / CNRS Paris Pouchet et visioconférence
L’IA dans les politiques de sécurité : l’exemple de la vidéosurveillance algorithmique
Avec la participation de Bertrand Pailhès (CNIL)

Le gouvernement français s’apprête à mettre en œuvre l’article 10 de la loi relative aux Jeux Olympiques promulguée au printemps 2023, lequel légalise à titre expérimental les technologies de computer vision associées à la vidéosurveillance (vidéosurveillance dite « algorithmique »). Dans ce contexte, cette séance abordera les questions suivantes. Quels sont les soubassements technologiques de ces technologies de vision assistée par ordinateur et quels en sont les usages ? Quels sont les enjeux économiques et industriels ? En quoi le droit, et notamment ce cadre juridique « expérimental » participe-t-il de la construction d’une « acceptabilité sociale » de technologies controversées ? Comment transcrire les principes juridiques devant encadrer ces IA dédiées à la surveillance policières dans les pratiques concrètes des professionnels de la sécurité ? Enfin, quel rôle se donnent des institutions comme la CNIL dans leur régulation ?

5.12.2023 – 11h à 12h30 / CNRS Paris Pouchet et visioconférence
Entre spectacularisation et critique complaisante, quelle place pour une exploration artistique critique de l’IA ?
Marie Lechner,  enseignante-chercheuse à l’ÉSAD, École supérieure d’art et de design d’Orléans, au sein de l’Écolab, et commissaire d’exposition indépendante.

Lancées il y a peine plus d’un an (avec DALL-E 2, Midjourney ou ChatGPT), les fonctionnalités d’IA générative sont déjà en train d’équiper les derniers modèles de smartphones, permettant de modifier les images dès la prise de vue ou d’en générer directement dans l’interface de l’agent conversationnel). Ces nouveaux produits ont pour effet d’invisibiliser et de normaliser à toute allure ces technologies, sans susciter de réels débats publics et au risque de confier le pouvoir de représentation à une poignée de grandes entreprises privées qui ont le contrôle sur ce qui est visible/dicible et ce qui ne l’est pas.
Face à ces phénomènes, les médias et certaines institutions artistiques sont promptes à sensationnaliser l’art généré par les IA en dévaluant l’agentivité humaine dans le processus créatif et en faisant passer les algorithmes pour des artistes – voire en alimentant la fiction d’une superintelligence. Dans ce contexte d’accélération généralisée et de brouillage du discours, comment contrer l’art-washing qui masque les implications sociales et politiques du déploiement de ces technologies (surveillance, renforcement des discriminations, travail précarisé et invisibilisé, automatisation de professions entières sous prétexte d’inéluctabilité du progrès) ?
Quelles sont les approches artistiques critiques qui participent à la démystification de ces technologies et se concentrent sur les préjudices réels ? Comment déjouer la fascination qu’exercent ces « mean images », comme les désigne l’artiste Hito Steyerl, s’appuyant sur la polysémie du mot en anglais (moyen, médiocre, méchant), pour explorer comment ces images synthétiques constituent à la fois une menace et, en tant que moyenne statistique des ensembles de données qui les composent, excluent toute véritable créativité ?

16.1.2024 – 11h à 12h30 / En visioconférence uniquement
Resisting AI: from reemergent eugenics to prefigurative technopolitics
Dan McQuillan, Department of Computing, Goldsmiths, University of London

There is an urgent need to resist AI on the basis that it is a violent and necropolitical technology, and make proposals for how this could be done. In doing so, this talk will draw on arguments from Dan McQuillan’s recently published book ‘Resisting AI’ and his ongoing critique of large language models. The talk will cover the role of science in legitimising algorithmic violence or the ways in which feminist and decolonial critiques of science not only provide a critique of AI but point to forms of viable alternative apparatuses. It will also provides a particular perspective on the currently ineffective attempts at AI regulation and on the forms of socially situated and mobilised knowledges which might actually constrain it. Finally, it will advance a program for positive alternatives to AI under the heading of ‘prefigurative technopolitics’ and address matters of tactics by drawing from the historical technopolitics of the Luddites and the contemporary movements against data centres.

20.2.2024 – 11h à 12h30 / CNRS Paris Pouchet et visioconférence
Épistémologies féministes et langages de programmation aux États-Unis, en France et au Royaume-Uni : l’histoire du projet Logo (1960-1990)
Apolline Taillandier, Cambridge University (LCFI, POLIS), Universitaet Bonn (CST)

Inspiré des travaux de Marvin Minsky et de Jean Piaget, le projet Logo voit le jour au MIT à la fin des années 1960. Logo est d’abord un langage de programmation aux ambitions alignées sur les discours libertariens de l’époque : généraliser l’expérience de la programmation permettrait de transformer l’apprentissage des mathématiques, et à terme, de préparer les enfants à un futur sans école. Deux décennies plus tard, les chercheuses impliquées dans le projet le décrivent comme un outil féministe promouvant un « style de programmation » féminin, typiquement dévalorisé par la culture informatique dominante. En retraçant l’histoire des usages politiques de Logo, Apolline Taillandier montre comment l’épistémologie et la psychologie féministes sont mobilisées dans un contexte de reformulation des projets d’IA symbolique – dont les critiques s’intensifient à partir des années 1980 – et contribuent à la traduction des critiques féministes dans le champ de l’informatique.

2.11.2022 – 10h à 11h30 / 59-61 rue Pouchet, Paris 17e
Conflits d’intérêts et désinformation dans la recherche en IA
Mohamed Abdalla, Lê Nguyên Hoang et Aurélien Bellet

First, Mohamed Abdalla presented this paper discussing conflicts of interests in artificial intelligence public research. Then Lê Nguyên Hoang presented his paper which was followed by a technical discussion with Aurélien Bellet.

Mohamed Abdalla is a Principal Investigator in the AI Deployment and Evaluation Lab at Trillium Health Partners. He earned his PhD in Computer Science from the Natural Language Processing Group (Department of Computer Science) at the University of Toronto. His work explores the application of machine learning in healthcare.

Lê Nguyên Hoang is a mathematics researcher, web video maker and writer. He is also a popularizer in various fields of science and promotes Bayesianism and the emergence of a debate on the ethics of artificial intelligence. After a PhD in game theory, his research focused on security in machine learning, including Byzantine machine learning and collaborative learning. He is the president and co-founder of the Tournesol association, which proposes a collaborative video recommendation algorithm to fight against misinformation. He also co-founded Calicarpa, a company for secure machine learning.

Aurélien Bellet is a tenured researcher at Inria (France). His current research focuses on the design of privacy-preserving and decentralized machine learning algorithms. Aurélien is serving as area chair for top international conferences in machine learning such as NeurIPS and ICML. He co-organized several international workshops on machine learning and privacy at NeurIPS, CCS and FOCS, as well as the 10th edition of the French pluridisciplinary conference on privacy protection (APVP). He also co-organizes FLOW, an online seminar on federated machine learning with 1000+ registered attendees.

29.11.2022 – 13h30 à 15h / ENS Paris-Saclay, salle 1Z31
Impacts environnementaux du numérique : entre consensus et controverses
Bastien Béchadergue, maître de conférences en informatique à l’Université de Versailles Saint-Quentin et diplômé d’un master en sociologie des sciences à l’EHESS.

Le 15 novembre 2021, la loi no 2021-1485 visant à réduire l’empreinte environnementale du numérique en France était promulguée, concluant ainsi au moins partiellement une séquence d’intenses débats entamée quatre ans plus tôt, autour notamment de questions relatives à la quantification de la consommation énergétique et des émissions de gaz à effet de serre imputables à ce secteur. Si la très grande majorité des acteurs impliqués dans ce débat s’accordent alors sur la nécessité de ce travail de quantification, les discussions glissent rapidement sur le terrain de la controverse sociotechnique lorsque des valeurs concrètes sont avancées car – l’expression revient souvent – « on manque de données ». Pourtant, la production de résultats sur le sujet, entamée plus de vingt ans auparavant, est depuis 2018 particulièrement prolifique. Comment dès lors peut-on manquer de données alors qu’il ne semble y en avoir jamais eu autant ? Quelles sont d’ailleurs ces données qui manquent si cruellement ? Et pourquoi ne serions-nous pas en mesure de les produire, alors que certains acteurs, notamment industriels, se prévalent d’utiliser les plus pertinentes et récentes d’entre elles dans leurs travaux ? Est-ce à dire que ces derniers possèdent des informations auxquelles les autres acteurs n’auraient pas accès ? Et dans un tel cas, pourquoi cet accès serait-il si restreint ? Autant de questions qui soulignent les incertitudes dont le travail législatif venant de s’achever a été en proie, incertitudes qui donnent aux acteurs qui les entretiennent consciemment ou non des prises pour appeler les institutions publiques à agir dans une direction ou une autre. Pour aborder ces différents enjeux, cette présentation se propose de revenir dans un premier temps sur la classification et les ordres de grandeur de différents impacts environnementaux du numérique, puis d’esquisser dans un second temps le processus socio-historique de construction de savoirs relatifs à ces impacts, avec l’objectif plus précis d’expliciter leur évolution temporelle ainsi que les tensions entre stratégies d’acteurs qui l’ont accompagné.

Bastien Béchadergue est maître de conférences à l’Université de Versailles Saint-Quentin depuis 2020. Il enseigne au Département Réseaux et Télécommunications de l’IUT de Vélizy, et mène des activités de recherche sur les communications optiques sans fil au Laboratoire d’ingénierie des systèmes de Versailles. Il a par ailleurs validé entre 2019 et 2021 un master en sociologie des sciences à l’EHESS, dans le cadre duquel ont été réalisés les travaux présentés durant ce séminaire.

24.1.2023 – 12h à 13h30 / ENS Paris-Saclay, salle 1Z56
Agriculture numérique : une promesse au service d’un nouvel esprit du productivisme
Théo Martin, agronome et doctorant en géographie à l’Inrae et Thomas Borrell, coordinateur et animateur à l’Atelier Paysan.

Depuis la fin des années 2010, l’agriculture numérique connait un essor important caractérisé par la création d’entreprises, de dispositifs de recherche mais également la mise à l’agenda des politiques publiques. Si le déploiement de ces innovations reste très hétérogène et nos connaissances sur leurs effets sont limitées et mitigées, l’agriculture numérique s’affirme à travers un discours porteur d’une anticipation prometteuse. L’agriculture numérique s’inscrit ainsi dans l’économie des promesses techno-scientifiques. Nous proposons ici de décrire les singularités de cette promesse et d’analyser en quoi elle renouvelle l’esprit d’un productivisme agricole en crise.

Agronome de formation, Théo Martin a d’abord travaillé au Sénégal avec la Food and Agriculture Organization (ONU) sur l’adaptation au changement climatique de l’agriculture sénégalaise. De retour en France, il a brièvement travaillé sur l’évolution des exploitations céréalières françaises avant de commencer une thèse de géographie en 2019, à l’Inrae. Il s’intéresse aux transformations du travail qui accompagnent la robotisation de la traite des vaches laitières. L’idée étant de dépasser le mythe de la substitution pour chercher ou le travail réapparait et sous quelles formes, dans quels espaces et pour quels travailleurs.

Thomas Borrell anime l’Observatoire des technologies agricoles au sein de l’Atelier Paysan, une coopérative créée il y a dix ans pour colporter les savoir-faire en matière d’autoconstruction de matériel et de bâti agricoles (recensement d’innovations, R&D participative avec libre diffusion des plans, formations professionnelles au travail du métal et du bois…). À partir de cette expérience, l’Atelier Paysan analyse le rôle et les conséquences du développement machinique débridé en agriculture, dans le manifeste Reprendre la terre aux machines (éditions du Seuil) et dans le rapport détaillé Observations sur les technologies agricoles (2021) que Thomas Borrell a coordonné.

6.3.2023 – 12h à 13h30 / ENS Paris-Saclay, salle 1Z56, et en visioconférence
Propositions pour une techno-critique non-réactionnaire du numérique
Alexandre Monnin, philosophe à l’ESC Clermont Business School en redirection écologique et design.

Dans cette intervention nous reviendrons sur la nécessité d’une critique du numérique et sur les difficultés afférentes. Si le caractère matériel du numérique est de mieux en mieux appréhendé, ce constat ne se traduit pas automatiquement en prises pour l’action. Comment, dès lors, ne pas se contenter d’imprécations ?
Par ailleurs, la critique du numérique doit se garder de charrier avec elle une rhétorique réactionnaire : critique du calcul, de la quantité, de l’abstraction… Autant de termes particulièrement connotés sur un plan historique et philosophique. Expliciter cet écueil est aujourd’hui une impérieuse nécessité pour développer une critique et un praxis émancipées de ces travers.

Alexandre Monnin est enseignant-chercheur à l’ESC Clermont BS, directeur scientifique d’Origens Medialab et directeur du MSc « Strategy & Design for the Anthropocene » (ESC Clermont BS x Strate Ecole de Design Lyon). Auteur d’une thèse sur la philosophie du Web, passé par l’Institut de recherche et d’innovation du Centre Pompidou, ancien chercheur chez Inria et initiateur du DBpedia francophone, il a travaillé une quinzaine d’années dans le numérique. Depuis sept ans, il réfléchit aux enjeux de la redirection écologique, un courant qu’il a co-initié avec Emmanuel Bonnet et Diego Landivar. Il a récemment co-écrit Héritage et fermeture (avec E. Bonnet et D. Landivar, Divergences, 2021), co-édité Écologies du smartphone (avec Laurence Allard et Nicolas Nova, Le Bord de l’Eau, 2022) et prépare la publication d’un nouveau livre, Politiser le renoncement (Divergences, 2023).

2.6.2023 – 10h30 à 12h / ENS Paris-Saclay, salle 1B26
Séance sur les algorithmes de recommandation de contenus
Lê Hoang Nguyen (Science4all) et en présence d’une classe de collégiens ayant fait une expérimentation sur YouTube.

Journée d’étude Réguler l’intelligence artificielle : le « règlement IA » au prisme de la sociologie des sciences et des techniques

Cette journée d’étude s’est déroulée le mardi 23 mai 2023, de 10h à 16h30, en salle de conférence du site CNRS Pouchet, 59-61 rue Pouchet, Paris 17e.

L’Union européenne est en passe d’adopter le règlement européen dédié à l’intelligence artificielle, un texte qui adopte une approche graduée et quantitative des risques liés aux systèmes d’IA. L’objectif de cette journée d’étude est double : d’abord, présenter ce texte législatif, analyser sa genèse et qualifier le type d’approche régulatrice qu’il incarne ; ensuite, éclairer sa portée et ses effets probables à partir des travaux portant sur la réglementation d’autres domaines technoscientifiques et technologies émergentes (nanotechnologies, nucléaire, substances chimiques).

Programme

10h à 10h30 – Accueil café

10h30 à 12h30
Avec Bilel Benbouzid et Clément Perarnaud. État des lieux sur le règlement IA en cours d’adoption au niveau européen : origine, acteurs, portée.

12h30 à 14h – Buffet

14h à 15h20
Avec Stéphanie Lacour, Henri Boullier, Christine Fassert. Regards croisés sur la régulation des risques technologiques (nanotechnologies, nucléaire, substances chimiques)

15h20 à 15h30 – Pause

15h30 à 16h30
Discussion collective. Quels enseignements tirer de la gestion des risques techno-scientifiques pour la régulation de l’intelligence artificielle ?