Surveillance et pouvoir

Démocratisation à l’échelle mondiale, émancipation, pluralisme, diversité et transparence de l’information, les promesses de l’Internet étaient nombreuses et laissaient miroiter, comme toutes les nouvelles technologies, un avenir radieux dans un monde connecté, unifié et apaisé (Howard, 2015 ; Margetts et al., 2015). Mais force est de constater qu’à l’euphorie des débuts a succédé la désillusion. Le déploiement de la logique publicitaire depuis une quinzaine d’années, associé au développement du web 2.0, a conduit à l’émergence de nouvelles hégémonies qui entrent en contradiction avec les idéaux fondateurs et expliquent en partie « Le Désenchantement de l’Internet » (Badouard, 2017). Ce désenchantement touche en particulier à la question du contrôle de l’information, de sa diffusion et de son instrumentalisation, à tel point que beaucoup considèrent aujourd’hui le Web 2.0 et ses technologies algorithmiques comme un outil de manipulation (Woolley et Howard, 2019 ; Morozov, 2015), de discrimination et de ségrégation (van Brakel, 2021) L’alliance entre le big data et l’automatisation de la communication en ligne rendait possible une diffusion à la fois personnalisée et massive (Cattaruzza, 2019). Ceci représente une mutation majeure appelée à se développer, comme le souligne Philippe Vion-Dury (2018), « en décuplant la quantité et la nature des données, c’est l’essence même des méthodes qui a changé, en permettant d’étudier avec une plus grande précision des phénomènes collectifs, mais surtout individuels. […] des statistiques de masse et probabilités grossières, on passe à un tout autre régime : individualisé, précis, invisible et omniprésent, capable de refaçonner la société » (Vion-Dury, 2018, p. 21).

Ces questions peuvent être observées dans différents secteurs comme la culture, le marketing d’influence, et la propagande politique. Dans le secteur culturel, la prescription algorithmique personnalisée (mais aussi de masse) joue un rôle fondamental sur la manipulation des goûts et des opinions car elle a pénétré tous les domaines de la production culturelle et artistique et à tous les échelons, de la création à la réception. Les modalités, implications et conséquences de ce phénomène recoupent en partie le rôle des plateformes comme nouveaux intermédiaires, prescripteurs de par la personnalisation des recommandations et le ciblage en fonction des profils d’utilisateurs (Bouquillion, 2020 ; Beuscart J.-S., Coavoux S., Maillard S., 2019 ; Karakayali, Kostem, et Galip, 2018). Par ailleurs, la propagande semble à tout le moins revenir sur le devant de la scène à la fois en termes de préoccupations politiques mais aussi scientifiques (Colon, 2021, 2019 ; Conesa, 2018). L’affaire Cambridge Analytica (Calabrese et Pérez Lagos, 2022) confirme l’influence de la propagande en contexte numérique lors des campagnes électorales (Theviot, 2019), ce qui semblerait être une menace pour les démocraties actuelles (Bradshaw et Howard, 2017). De même, par la collecte et le traitement des données personnelles, qui entraîne la perte de la vie privée en ligne (Musiani, 2016), les pratiques d’influence et de ciblage publicitaire, voire comportemental (Ouakrat, 2012), ont transformé le secteur publicitaire au sein duquel des nouveaux dispositifs techniques se développent dans un espace de circulation des messages en pleine mutation. Par exemple, dans le cas du marketing d’influence, la manipulation des opinions et des goûts s’exprime dans les réseaux socionumériques par des influenceuses et des influenceurs ; l’influence devient ainsi un métier à part entière.

Ce GdT a une forte vocation interdisciplinaire qui s’est consolidée peu à peu, par les séminaires annuels ainsi que par la tenue du colloque Big Data en octobre 2022 au sein duquel nous avons pu discuter des aspects psychologiques, linguistiques, politiques, économiques et des implications juridiques et philosophiques des rapports entre le Big Data, la surveillance indiscriminée et la manipulation en contexte numérique.

En plus d’être une plateforme pour de nouvelles·aux chercheur·euses intéressé·es par les enjeux de la surveillance en régime numérique, depuis 2021 ce GdT a pour vocation d’élargir les discussions à une échelle internationale avec l’invitation au séminaire de chercheur·euses étranger·ères.

Coordination

Camila Pérez Lagos est enseignante-chercheuse à l’Institut des stratégies et techniques de communication (ISTC) et chercheuse à ETHICS EA 7446 (Université catholique de Lille). Après avoir étudié la communication numérique des théâtres financés par l’État en France et au Chili (recherche doctorale 2012-2016), elle s’intéresse depuis 2017 à la surveillance en régime numérique, compris comme un problème public émergent. Ses derniers travaux portent sur le scandale Cambridge Analytica et ses conséquences sur la façon dont l’opinion publique traite des questions relatives aux données personnelles et à la vie privée en ligne. Elle coordonne ce GdT depuis janvier 2021.

Docteur en études anglophones, Mehdi Ghassemi est enseignant-chercheur à l’Institut des stratégies et techniques de communication (ISTC) et chercheur à ETHICS EA 7446 (Université catholique de Lille). Après avoir étudié l’intersection entre la subjectivité et l’esthétique dans les œuvres de John Banville, Jacques Lacan, Friedrich Nietzsche (recherche doctorale), il s’intéresse désormais aux nouveaux régimes de subjectivité et de visibilité facilités par les technologies numériques de communication. Plus précisément, il étudie le lien entre le regard et le pouvoir au sein des cultures visuelles contemporaines, notamment, les manières dont le regard « surveillanciel » est normalisé, interrogé, ou résisté dans divers produits de la culture populaire, mais aussi dans des expériences artistiques qui traitent de la surveillance comme objet de représentation (surveillance art). Il coordonne ce GdT avec Camila Pérez Lagos depuis juin 2022.

Elsa Jaubert (Université de Caen) a coordonné ce GdT en 2019 et 2020.

Ce groupe de travail s’est intitulé jusqu’en septembre 2023 Surveillance et manipulation des goûts et des opinions.

2020/23

Séminaire Surveillance et pouvoir

Le groupe de travail organise un séminaire depuis 2020.

Le séminaire est organisé par Camila Pérez Lagos (ISTC) et Mehdi Gassemi (ISTC). Les séances se déroulent en visioconférence, et parfois en mode hybride, sur site (à l’ISTC de Lille) et en visioconférence.

30.11.2023 à 18h
Gilles Jeannot (chercheur au LATTS, École des Ponts), « L’État face à la séduction du capitalisme de plateforme ». Inscription : https://forms.gle/qgSdD5YyRcdZhUGbA

12.12.2023 à 18h (Séance hybride : ISTC, 81-83 Boulevard Vauban, Lille)
Jean-Paul Fourmentraux (professeur, Aix-Marseille Université), « Sousveillance, l’œil du contre-pouvoir ». Inscription : https://forms.gle/qif4sdZsZwSUZTy87

25.1.2024 à 18h
Tyler Reigeluh (maitre de conférences, Université catholique de Lille, ETHICS EA 7446), « Transparences et visibilités de la ville intelligente ». Inscription : https://forms.gle/fPLjrmqqt8jBzMYm7

14.3.2024 à 18h (Séance hybride : ISTC, 81-83 Boulevard Vauban, Lille)
David Pucheu (maître de conférences, Université Bordeaux Montaigne, Mica), « Retour vers le futur : la cryptographie civile en ligne et l’horizon de la surveillance généralisée dans la Californie des années 1990 ». Inscription : https://forms.gle/kHEgPebCbXPfowLt8

23.5.2024 à 18h
Caroline Lequesne (maîtresse de conférences HDR en droit public, Université Côte d’Azur), « Des risques au droit : quel encadrement pour les technologies de surveillance des foules ? » Inscription : https://forms.gle/QKbZJPFvWJX3k1Go7

Le séminaire est organisé par Camila Pérez Lagos et Mehdi Gassemi.

28.10.2021 à 18h
Antoine Courmont (LINC/CNIL et CEE/Sciences Po). Quand la collecte de données personnelles fait problème. Analyse des plaintes et des courriers reçus par la CNIL.

13.1.2022 à 18h
Anne Bellon (Université de technologie de Compiègne). Réguler les plateformes, un travail de frontières.

3.2.2022 à 18h
Olivier Aïm (Gripic/CELSA, Sorbonne Université). Penser la surveillance aujourd’hui : avec les surveillance studies et au-delà…

10.2.2022 à 18h
Gloria González Fuster (Vrije Universiteit, Bruxelles). Protection des données : une affaire personnelle, des enjeux collectifs ?

10.3.2022 à 18h (en anglais)
Matthew Flisfeder (The University of Winnipeg). Algorithmic Desire and the Big Other in New Times.

6.4.2022 à 18h (en anglais)
Isabel Millar (Global Centre for Advanced Studies). Sex and the Singularity: AI and Psychotic Discourse Networks.

16.1.2023 à 18h – Format hybride
Alexandre Joux (EJCAM, Aix-Marseille Université). Les plateformes et l’oubli de l’information.

30.1.2023 à 18h – Visioconférence
Romain Badouard (Université Paris-Panthéon-Assas). Controverses autour de la modération des contenus en ligne.

9.2.2023 à 18h – Visioconférence
Vanessa Codaccioni (Université Paris 8). La société de vigilance : autosurveillance, délation et haines sécuritaires.

21.3.2023 à 18h – Visioconférence
Sébastien Gambs (Université du Québec à Montréal). Blanchiment éthique en apprentissage machine.

Le séminaire a été organisé au premier semestre 2021 par Camila Pérez Lagos et Julien Onno.

4.3.2021 à 16h
Franck Rebillard, professeur à l’Université Sorbonne Nouvelle, Institut de la Communication et des Médias. Le renforcement potentiel des rumeurs conspirationnistes par le numérique et l’internet : le cas du Pizzagate.

8.4.2021 à 18h
Christophe Masutti, docteur en histoire et philosophie des sciences et des techniques, chercheur associé au SAGE de l’Université de Strasbourg. Histoires et techniques de la surveillance : un détour par l’Arkansas.

9.6.2021 à 10h
Séverine Arsène, chercheuse associée au Médialab de Sciences Po et enseignante à la Chinese University de Honk Kong. Le système de crédit social, un dispositif négocié.

Le séminaire a été organisé en 2020 par Elsa Jaubert dans le cadre du projet interdisciplinaire PandHeMic (Université de Caen Normandie).

14.1.2020
Camila Pérez-Lagos (Université Sorbonne Nouvelle Paris 3). L’émergence de la surveillance numérique comme problème public : notes sur le scandale Cambridge Analytica ».
Charles Sarraute (Celsa Sorbonne Université). Relire Bernays, ou comment les professionnels de la communication réinvestissent la notion de propagande.

Conférence organisée en partenariat avec l’association Démosthène

23.1.2020 à 20h30 – Amphithéâtre de la MRSH
Serge Abiteboul (Inria, Arcep). La régulation des réseaux sociaux numériques : enjeux et défis.

Une grande partie du programme (séances de séminaire et conférences) a été annulée en raison de la situation sanitaire.

Colloque Big data : influence, manipulation et micro-ciblage

Organisé par l’Institut des stratégies et techniques de communication (ISTC), le Centre de recherche Risques et Vulnérabilités (CERREV, Université de Caen Normandie) et l’Université du Québec à Montréal (UQAM), dans le cadre du projet ECOPOSS de l’Université catholique de Lille, avec la participation du GDR Internet, IA et Société, ce colloque s’est tenu du 27 au 29 octobre 2022 à Montréal, Lille et en visioconférence.

Projet Big Data

Cette enquête sur les pratiques des professionnels qui font usage des données en France a débuté en 2020. Le projet est coordonné par François Rioult (Université de Caen Normandie), Julien Onno (Université de Caen), Rania Aoun (Université du Québec à Montréal et York University) et Camila Perez Lagos (ISTC, Institut des stratégies et techniques de communication). Trente-cinq entretiens ont été réalisés auprès des professionnels de la data en France. En 2022, l’objectif est de présenter les premiers résultats (colloques, publications). Le travail a été réalisé par Julien Onno, docteur en sociologie de l’Université de Caen, Rania Aoun, enseignante-chercheuse à l’Université du Québec à Montréal (UQAM) et York University, et Camila Pérez Lagos, maîtresse de conférences en sciences de l’information et de la communication à l’Institut des stratégies et techniques de communication (ISTC).

Commencé en 2020, ce projet est porté par François Rioult, professeur en informatique à l’Université de Caen Normandie, Julien Onno, docteur en sociologie de l’Université de Caen, Rania Aoun, enseignante-chercheuse à l’Université du Québec à Montréal (UQAM) et York University, et Camila Pérez Lagos, maître de conférences en sciences de l’information et de la communication à l’Institut des stratégies et techniques de communication (ISTC).

La promesse du Big Data repose sur le postulat que le traitement et l’analyse automatisés de données permettraient d’anticiper des évènements ce qui entrainerait des changements profonds en matière économique et de business intelligence. Ceci est tributaire d’un phénomène de profusion exponentiel des données qui pour Amaël Cattaruzza semble être marqué par trois lois « La loi Moore, qui prévoit un doublement sur puce de silicium tous les 18 mois, la loi de Kryder, qui suppose un doublement de la densité de stockage sur disque magnétique tous les 13 mois ; et la loi de Nielsen, qui annonce le dédoublement de la capacité des réseaux publics tous les 21 ans » (Cattaruzza, 2019 : 9). Pour sa part Charles Huot (2014) souligne que cela implique un changement de paradigme tant au niveau quantitatif (car l’échelle des volumes à traiter explose) qu’au niveau qualitatif car « on ne traite plus des données préalablement échantillonnées et structurées, mais hétérogènes et éparses, structurées et non structurées (texte, image, multimédia, traces numériques…) ; on ne traite plus les données en différé, mais en temps réel » (Huot, 2014 : 15). Dans ce contexte, plusieurs chercheur.es se sont intéressé.es à la production et l’interprétation des Big Data (Mayer-Schönberger et Cukier, 2013 ; Galinon-Mélenec et Zlitni, 2013) sans pour autant explorer le processus de collecte, traitement et utilisation des données pour des fins sociales et économiques. Si les entreprises travaillant au sein du secteur insistent régulièrement sur la dimension de rupture entrainée par la multiplication des données, ce qui relève du Big Data et du traitement des données plus classiques n’est pas toujours évident. Encore, ce qu’on comprend par Big Data ne semble pas être une évidence car bien que la définition de ce qu’est le Big Data repose sur le slogan des 3V (volume, vélocité et variété), le terme semble moins cristallisé dans le pratique et axés d’avantage sur le nombre de données recueillies (le volume) un aspect qui semble lui aussi être instable. De même, les données sur lesquelles repose le Big Data sont souvent présentées comme étant naturelles, une sorte de reflet sans distorsion des comportements des individus-utilisateurs. Or, elles ne sont jamais brutes mais soumises à un travail de construction de la part des informaticiens et informaticiennes, des développeurs et développeuses, des statisticiens et statisticiennes etc.

Le Rapport 2017 France Intelligence Artificielle témoigne de la quête française afin de devenir une référence mondiale en intelligence artificielle (IA) c’est-à-dire « parvenir à faire faire aux machines, ce que l’homme fait aujourd’hui mieux qu’elles, notamment s’adapter, apprendre, communiquer et interagir d’une manière riche et variée avec leur environnement » (Rapport 2017, France Intelligence Artificielle). Cette définition d’IA bien qu’opérationnelle semble problématique car elle masque tous les enjeux éthiques, notamment la collecte indiscriminée des données personnelles permettant de nourrir les méthodes d’IA, notamment le Deep Learning et le Machine Learning. Enfin, chercher à être une référence mondiale dans ce domaine a entrainé également une prolifération du métier de Data Scientist (Huot, 2014). Dans le cadre de ce projet nous allons interroger la distance entre les discours et les pratiques des entreprises françaises qui déclarent faire du Big Data compris comme « l’intégration des données dans les décisions » (Delors, 2015). Pour ce faire, nous allons réaliser les étapes suivantes.

ÉTAPE 1. Réalisation d’une enquête exploratoire auprès des professionnels de la data en France. Par l’analyse des discours des professionnels des données nous cherchons à explorer leurs parcours, leur environnement professionnel et leurs perceptions de la profession. Ceci permettra également d’identifier les enjeux de la récolte/collecte et le traitement des données à caractère personnel ainsi que la mise en place du Règlement général sur la protection des données (RGPD).

ÉTAPE 2. Recueil et l’analyse des sites web des entreprises qui œuvrent dans l’industrie des données. Nous allons interpréter les enjeux communicationnels des entreprises œuvrant dans l’industrie des données, plus particulièrement, des entreprises françaises qui se reconnaissent comme des entreprises spécialisées dans les données. L’analyse de leurs discours s’appuiera sur les contenus disponibles de leurs sites web pour promouvoir leurs produits et services.

ÉTAPE 3. Analyse des articles scientifiques sur le Big Data dans différents secteurs : politique, écologie, énergie, santé, publicité, culture, etc. Une révision sur la littérature sur les données permettra de constituer une encyclopédie sémantique autour de la terminologie utilisée dans l’industrie des données, afin de relever la terminologie relative à l’industrie des données pour chaque domaine.

Références bibliographiques

Barrett, M. A., Humblet, O., Hiatt, R. A., Adler, N. E. (2013). “Big Data and Disease Prevention: From Quantified Self to Quantified Communities”. Big data, 1(3), 168-175. https://doi.org/10.1089/big.2013.0027

Bastin, G. et Tubaro, P. (2018). « Le moment big data des sciences sociales ». Revue française de sociologie, 3(3), 375-394. https://doi.org/10.3917/rfs.593.0375

Boullier, D. (2015). « Les sciences sociales face aux traces du big data. Société, opinion ou vibrations ? » Revue française de science politique, 5(5-6), 805-828. https://doi.org/10.3917/rfsp.655.0805

Broudoux É. et Chartron G. (dir.) (2015). Big data, open data : quelles valeurs ? Quels enjeux ? Actes du colloque Document numérique et société. Rabat, De Boeck.

Cattaruzza, A. (2019). Géopolitique des données numériques : Pouvoir et conflits à l’heure du Big Data. Paris, Le Cavalier Bleu.

Galinon-Mélenec, B. et Zlitni, S. (2013). L’Homme trace, producteur de traces numériques. Traces numériques de la production à l’interprétation. Paris, CNRS Éditions.

Huot, C. (2014). « Chapitre 1. Le Big Data, si nous en parlions : Étudier les modèles techniques et économiques en place et découvrir la démarche à adopter pour réussir un projet Big Data au sein de votre organisation ». In L. Calderan, P. Laurent, H. Lowinger et J. Millet (dir.), Big Data. Nouvelles partitions de l’information. Actes du séminaire IST Inria, octobre 2014. Louvain-la-Neuve, Belgique : De Boeck Supérieur. p. 9-30

Lycett, M. (2013). “Datafication: Making sense of (big) data in a complex world”, European Journal of Information Systems, 22(4), p. 381-386.

Mayer-Schönberger, V., Cukier, K. (2013). Big data. A revolution that will transform how we live, work, and think. New York : Houghton Mifflin Harcourt.

Menger, P., Paye, S. (dir.) (2017). Big data et traçabilité numérique. Les sciences sociales face à la quantification massive des individus. Paris, Collège de France.

Mondoux A. et Ménard M. (dir.) (2018). Big data et société. Industrialisation des médiations symboliques. Québec, Presses de l’Université du Québec, coll. « Communication ».

Neff G. (2013). “Why Big Data Won’t Cure Us”. Big data, 1(3), 117-123. https://doi.org/10.1089/big.2013.0029

Ollion, É. (2015). « L’abondance et ses revers. Big data, open data et recherches sur les questions sociales ». Informations sociales, 5(5), 70-79. https://doi.org/10.3917/inso.191.0070

Plantin, J-C. et Russo F. (2016). « D’abord les données, ensuite la méthode ? Big data et déterminisme en sciences sociales ». Socio. La nouvelle revue des sciences sociales, no 6, 10 mai 2016, 97-115.

Puschmann C., Burgess, J. (2014). “Metaphors of Big Data”. International Journal of Communication, 8, 1690-1709.

Sadin, E. (2015). La vie algorithmique. Critique de la raison numérique. Paris, L’échappée.

Suciu D. (2013). “Big Data Begets Big Database Theory”. In Gottlob G., Grasso G., Olteanu D., Schallhart C. (eds), Big Data. BNCOD 2013. Lecture Notes in Computer Science, vol. 7968. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-39467-6_1

S. Yu, M. Liu, W. Dou, X. Liu and S. Zhou. (2017) “Networking for Big Data : A Survey”. IEEE Communications Surveys & Tutorials, 19(1), 531-549, Firstquarter 2017, https://doi.org/10.1109/COMST.2016.2610963

2020/21

Colloque Infodémie

Participation des membres du groupe au colloque international De l’information à l’infodémie en temps de crise sanitaire mondiale, 20-21 mai 2021, en ligne.

Journée d’étude Surveillance

Participation à l’organisation de la journée d’étude Technologies numériques et surveillance, 4 juin 2021, en ligne.

2019/20

TURFU Festival

Une soirée de recherche participative, intitulée « Épidémie d’informations », a été organisée à Caen le 7 octobre 2020.

Des ateliers de fact-checking se sont aussi déroulés le 8 octobre 2020 pendant le TURFU festival au Dôme à Caen.

Plateformes numériques, algorithmes et société : explicabilité et effets

Échanges avec le groupe de travail Plateformes et risques algorithmiques. Sihem Amer-Yahia, Christophe Benavent, Bruno Descamps, Antoine Henry, Maryvonne Holzem, Elsa Jaubert, Maxime Lambrecht, Daniel Le Métayer, Maël Pégny, Franck Rebillard, Serge Surin, Alexis Tsoukias, « Plateformes numériques, algorithmes et société : explicabilité et effets sur PandHeMic », Synthèse des échanges entre les groupes de travail Plateformes et risque algorithmique et Surveillance et pouvoir, 31 octobre 2019, en ligne.