Exploration de sources de données, analyse de corpus de textes volumineux, codage de traitements statistiques, etc. : l’Intelligence Artificielle générative[1] est désormais utilisée en sociologie. Cette technologie ne représente-t-elle qu’un « outil » pratique permettant aux chercheurs d’être plus efficaces ? En répondant par la négative, nous montrons que l’IAg est d’abord mise au service de la performance académique. Elle symbolise le retour d’un « empirisme abstrait », pour reprendre une expression chère à Charles W. Mills. Plus encore, à l’image des vagues d’automatisation que connurent les usines au 20ème siècle, l’IAg annonce une déshumanisation du travail scientifique et un renoncement à la pensée dans le lieu même qui lui est dédiée, l’Université.
« Percy Bridgman, qui est également Prix Nobel, va plus loin : « il n’existe pas de méthode scientifique en tant que telle ; le savant n’obéit qu’à un seul principe de méthode : utiliser au mieux les ressources de son cerveau, sans aucune réserve. » »
Charles Wright Mills, L’imagination sociologique, Paris, La Découverte, 1997 [1959], p. 61.
Comme dans d’autres univers professionnels, l’IA générative[2] a fait son apparition dans le champ universitaire et scientifique[3]. C’est le cas en sociologie où certain·es chercheur·euses y ont recours pour mener leurs travaux : exploration de sources de données, analyse de corpus de textes volumineux, codage de traitements statistiques, etc. Ces scientifiques développent et promeuvent cette technologie tout en alertant sur ses dangers d’utilisation. Pour eux, employer l’IAg permettrait « de faire des choses que l’on avait toujours rêvées de faire »[4] en tant que chercheur, moyennant certaines précautions d’usage.
Peut-il ainsi y avoir de « bons » et de « mauvais » usages de l’IAg en sociologie, et plus largement dans le champ des sciences humaines et sociales ? Cette technologie ne représente-t-elle qu’un simple « outillage supplémentaire au service du traitement des données, pour travailler mieux et accroître nos capacités dans des tâches particulières » comme le mentionne le texte de présentation d’une récente journée d’étude à laquelle nous avons participé, consacrée aux humanités numériques[5] ? Après avoir rappelé les applications de l’IAg à la sociologie ainsi que sa rhétorique de justification, nous en discutons la pertinence. Puis, nous soulevons les problèmes de fond que pose l’usage de l’IAg dans la recherche sociologique.
Loin d’une posture technophobe, tant cela signifierait une forme de négation de l’humain puisque la technique lui est inhérente comme le rappelle Gilbert Simondon, nous nous inscrivons dans une perspective technocritique[6]. Nous avons consacré nos recherches sociologiques récentes au secteur des biotechnologies. Nous avons observé la marchandisation du vivant à l’œuvre par l’entremise des bio-banques et des modifications génétiques menées à l’aide de l’informatique. Nos enquêtes, ainsi que des références à l’histoire, la philosophie et l’anthropologie conduisent à examiner les impacts sociaux des technosciences aujourd’hui, de même que les transformations des rapports entre science et société. C’est à la lumière de ces travaux et réflexions que nous livrons une analyse critique de l’utilisation de l’IAg dans les sciences sociales.
Augmenter ses capacités d’analyse en les automatisant
L’utilisation de technologies numériques en sociologie pour analyser des données quantitatives ou qualitatives n’est pas nouvelle. Certaines, pratiquées depuis plusieurs décennies, préfiguraient déjà les applications actuelles de l’IAg : analyse factorielle, techniques de classification automatique, lexicométrie[7]. Par exemple, l’ouvrage de Luc Boltanski et Ève Chiapello publié à la fin des années 1990 et qui a fait date en sociologie du travail, complétait une analyse manuelle avec celle d’un logiciel destiné à comptabiliser et classer des occurrences de termes[8].
Depuis un peu moins d’une dizaine d’années, l’IAg s’est considérablement développée, dans un contexte d’accroissement des puissances de calcul des microprocesseurs. Les grands modèles de langage (LLM[9]), cette technologie dont fait partie ChatGPT, ont connu des évolutions importantes pour reconnaître et analyser le langage humain. Entraînés à partir de millions de données, ces modèles calculent et prévoient de manière probabiliste l’agencement des mots. Si bien qu’ils sont en mesure à la fois d’identifier le sens d’un mot dans son contexte et d’en générer des suites probables qui forment in fine « un texte ».
Désormais, la « sociologie computationnelle » appartient au discours de la discipline : présent dans les manuels, un champ semble se dessiner aves ses offres d’emploi, ses chaires, ses appels à projet, ses thèses, ses spécialistes reconnus et ses objets. Certain·es collègues utilisent les LLM pour rédiger des lignes de codes servant à programmer des fonctions statistiques[10]. Ce travail de programmation pouvant parfois être long et fastidieux, son automatisation à l’aide de ChatGPT vise à gagner du temps. On retrouve surtout l’IAg en sociologie politique et en sociologie des médias, pour analyser le rôle des réseaux sociaux dans les campagnes électorales[11], l’utilisation de sources anonymes par les journalistes politiques[12] ou encore la place qu’occupe la thématique du genre dans les sciences sociales françaises[13].
Pour ses partisans, l’automatisation de l’analyse textuelle offre la possibilité d’étudier le contenu complet de tous les journaux quotidiens français « en une après-midi, en louant une carte graphique pour une dizaine d’euros »[14]. Dans cette perspective, les chercheur·euses annotent l’échantillon d’un corpus de textes d’une centaine de pages, et étendent ensuite cette annotation à l’aide de ChatGPT à plusieurs dizaines de milliers de pages, massifiant et standardisant ainsi l’analyse qualitative réalisée au départ par une seule personne. Cela leur permet d’obtenir une vue d’ensemble qu’il n’aurait pas été possible d’avoir au départ. Le recours à ChatGPT offrirait ainsi plusieurs avantages invoqués par ses promoteurs : une efficacité accrue du travail d’analyse, c’est-à-dire un gain de temps, de coût, de sécurisation des procédés, le tout à une bien plus grande échelle de données. En somme, l’infini à portée de main et de toutes les bourses.
Contrer les limites de l’IAg par des « bonnes pratiques »
Les partisan·es de l’IAg en sociologie s’évertuent à identifier « les bonnes pratiques à mettre en œuvre » face à « l’enthousiasme de la communauté scientifique en sciences sociales »[15]. Chacun à leur manière, ces chercheur·euses expliquent à quelles conditions un bon usage pourrait être fait de ces technologies.
Ainsi, Jean-Philippe Cointet et Sylvain Parasie énumèrent trois conditions d’une utilisation jugée correcte : comprendre le contexte de production des données massives analysées (le type d’organisations, d’acteurs, d’interactions entre acteurs, etc.), multiplier les techniques d’analyse au-delà de l’analyse textuelle, et ajuster les algorithmes à la réflexion sociologique[16]. Étienne Ollion et son équipe sont également soucieux de raccrocher l’usage de l’IAg au raisonnement sociologique dans la mesure où les LLM sont majoritairement gérés par des institutions privées. Une telle situation risque notamment de porter atteinte à la confidentialité des données, comme celles liées à la santé. En outre, les LLM étant en constante évolution, les résultats ont tendance à varier d’une analyse à l’autre. Il est par conséquent difficile de répliquer à l’identique les conditions d’analyses par différentes recherches[17].
Le point commun de ces chercheur·euses est que pour eux, le développement de l’IAg est inéluctable. Il faut donc selon eux chercher à s’y adapter et s’y former, tout en tenant compte de ses dangers potentiels. Face à cette impossibilité de réchapper à l’IAg, il s’agit « d’organiser une appropriation critique des outils numériques par les citoyens[18] ». Pour cela, ils en appellent à « sensibiliser les scientifiques aux dangers de l’IAg, sans pour autant la diaboliser car elle peut être utile pour leurs travaux[19] ». Toutefois, une telle distinction des usages est-elle fondée ? Ne conduit-elle pas à en rester à une critique superficielle de l’IAg, en évacuant des questions fondamentales ?
L’IAg n’est pas un « outil »
Les métaphores de l’outil ou de l’instrument sont très souvent employées pour désigner l’IAg, y compris en sciences sociales. David Chavalarias espère ainsi « que ces outils deviendront assez ergonomiques pour être accessibles à tous »[20] tandis qu’un collectif de sociologues fait l’hypothèse que « le chercheur équipé d’un tel outil pourrait devenir ce sociologue augmenté dont rêvaient autrefois les informaticiens »[21].
Les images de l’outil ou de l’instrument introduisent donc l’idée rassurante que leurs effets ne dépendent que de leurs usages, comme s’il existait des objets neutres, « écrasant les différences entre une brosse à cheveu, ChatGPT, un marteau et la bombe atomique »[22]. Or, un outil n’est pas une machine ou un système technologique complexe. Ces derniers dépassent largement l’usage individuel que peut faire une personne d’un simple instrument, dont la spécificité est de prolonger la manipulation humaine et non pas de s’y substituer.
L’historien états-unien Lewis Mumford distingue en ce sens deux types de technique, l’une démocratique et l’autre autoritaire[23]. Les techniques démocratiques sont produites à petite échelle, en étant facilement maîtrisées et appropriées par l’usager·ère. Impulsées par l’énergie humaine ou animale, elles valorisent l’autonomie individuelle et collective car produites de manière décentralisée. Le tournevis ou le panier en osier en sont des exemples. Les secondes possèdent des dimensions qui dépassent l’entendement humain en reposant sur une production centralisée. Elles sont le fruit de superstructures dont l’usager·ère n’a pas connaissance, lui interdisant de maitriser tant la conception que les fonctionnalités élémentaires. L’ordinateur et l’Internet en font partie. L’IAg se range dans ces technologies autoritaires tant sa conception et son fonctionnement se situe dans des centres qui échappent totalement aux citoyen·ennes. Elle s’appuie sur un principe d’hétéronomie puisqu’il s’agit de déléguer à une machine la compréhension, l’interprétation et l’analyse du monde. Ces « compagnons » font des utilisateurs de l’IAg des assisté·es dépendant·es de structures qui leur échappent en grande partie.
Cette réduction de l’IAg à un simple outil conduit à l’inévitable distinction entre les « bons et mauvais usages » de la technologie. Nombre d’auteur·es comme Jacques Ellul, Alain Gras, Langdon Winner ou François Jarrige ont souligné combien cette possibilité de choisir entre des usages émancipateurs et ceux aliénants des technologies n’avaient pas de sens tant ils étaient insécables. Chaque objet technique vient avec ses exigences. Il est une « matérialisation de l’ordre social » en quelque sorte. Il « concentre l’histoire » si on reprend les mots récents de Jean-Michel Besnier et impose « sa dictature »[24]. L’IAg est porteuse d’une vision du monde ancrée dans la cybernétique qui est elle-même héritière d’un projet d’alignement entre les humains et les machines[25]. Quelle que soit l’utilisation de l’IAg, il y a toujours cet horizon.
Une technologie au service de la performance
« Gagner du temps », « faciliter la vie des chercheur·euses », « augmenter les possibilités », « accéder à un continent de données », « pouvoir tout aspirer », tels sont les arguments avancés pour justifier le recours à l’IAg aujourd’hui en sociologie[26]. Il est frappant de constater que ces prétendues vertus correspondent en tous points aux évolutions que connaît le monde de la recherche depuis une trentaine d’années. En effet, au cours de cette période récente, un certain nombre de tendances déjà présentes par le passé se sont intensifiées : procédures d’évaluation de la recherche, accumulation de données et d’informations, rythmes de recherche et de publications, spécialisations disciplinaires, mise en concurrence des chercheur·euses entre eux.
Afin d’organiser une telle évolution, des dispositifs managériaux en provenance des entreprises privées ont été introduits dans l’univers académique, tels que les regroupements de grands pôles universitaires, l’injonction à la visibilité internationale des établissements et des chercheur·euses, la multiplication d’appels à projet, les primes à la performance, et enfin l’introduction massive des nouvelles technologies. Ces dernières relèvent elles aussi de ces dispositifs de gestion censés accroître la productivité des chercheur·euses[27] et dont l’IAg fait bel et bien partie. D’ailleurs, même les sociologues partisans de son utilisation font le constat « d’une multiplication exponentielle de données numériques »[28] sans pour autant le déplorer. L’accroissement de ces volumineuses banques de données contribuent à accélérer les rythmes de travail des savants comme le souligne l’historienne des sciences Françoise Waquet[29].
Ces transformations du monde de la recherche en phase avec l’IAg proviennent en grande partie de réformes politiques et institutionnelles décidées aux niveaux national et européen afin d’amorcer la « modernisation des universités »[30]. Ces réformes ont placé les institutions d’enseignement et de recherche sur la voie de l’économie de la connaissance et de la professionnalisation des études, rappelant que recherche et formation ne sauraient jamais être dissociées de leurs finalités économiques. De telles réformes ont engendré des répercussions délétères indéniables au niveau du travail des personnels du secteur.
Plutôt que d’inverser la tendance et de promouvoir des voies alternatives, en s’inscrivant par exemple dans une logique de « slow science »[31] ou de « décroiscience »[32], l’IAg permet à ces chercheur·euses de s’adapter pleinement à cette logique productiviste de la recherche, dans une spirale sans fin d’accélération de la « performance » et de l’« économie de la connaissance ». Certains auteur·es vont même jusqu’à parler de « chercheur augmenté », comme on parlerait « d’humain augmenté » pour le cas du transhumanisme. Cette expression trahit pleinement « ce rapport adaptatif au monde »[33], un monde dont on renonce à changer les règles du jeu politiques et les finalités scientifiques.
Le retour d’un « empirisme abstrait »
Il existe au sein des sciences sociales une pluralité d’écoles et de méthodes. Ces multiples approches apportent des éclairages différents sur le réel, avec des orientations éthiques, morales, politiques, liées à la subjectivité des chercheur·euses et à leurs présupposés anthropologiques, conduisant à des interprétations du réel multiples et divergentes. Or, les encouragements à utiliser l’IAg en sociologie reviennent à diffuser une conception bien particulière de la discipline que l’on pourrait qualifier d’hyper objectiviste, pour ne pas dire positiviste, c’est-à-dire une vision selon laquelle une accumulation toujours plus poussée des faits permettrait d’accéder à une connaissance légitime au détriment d’autres approches.
Ainsi, les sociologues qui y sont favorables estiment que, même si l’IAg possède des dangers, son utilisation représenterait une sorte de graal pour les chercheur·euses puisqu’elle accroît leurs capacités d’objectivation scientifique. Outre sa rapidité d’exécution, son faible coût ou sa précision accrue, l’IAg permettrait d’appréhender le réel dans sa totalité, d’en finir ainsi avec les critères de représentativité (car désormais, « avec l’IAg, n=all… ») ou encore d’abolir l’opposition entre approches quantitatives et qualitatives comme si la finalité première de la sociologie était d’accumuler le plus possible de données en « les laissant parler », indépendamment du regard et de l’interprétation du chercheur. Il ne s’agit donc plus d’une simple méthode parmi d’autres, mais de celle considérée comme la plus efficace pour saisir au mieux la réalité sociale, dans son ampleur et sa complexité. À côté de ce genre de méthode perçue comme étant dotée d’une robustesse sans précédent, les autres approches ne peuvent être, elles, que dévalorisées, jugées alors insuffisamment précises, et donc dépassées.
Cette volonté d’accroître toujours plus la puissance objectivante du chercheur fait écho à ce qu’écrivait en 2019 l’entrepreneur et journaliste Chris Anderson dans la revue Wired. Il y expliquait que « les chiffres se mettent désormais à parler d’eux-mêmes », annonçant avec enthousiasme l’obsolescence de la méthode théorique en raison des quantités massives de données désormais disponibles[34]. Ainsi, avec la diffusion de l’IAg en sociologie, une tendance se dessine : une homogénéisation de la discipline qui évacue la diversité théorique et une focalisation sur la récolte et l’exploitation empiriques faisant fi de la dimension politique de l’IAg.
Tout ceci rappelle l’« empirisme abstrait » que contestait Charles Wright Mills il y a plus de soixante ans[35]. Le sociologue états-unien employait cette notion pour se démarquer des collègues qui faisaient des considérations méthodologiques l’alpha et l’oméga de ce que devait être la pratique sociologique, éclipsant les questionnements théoriques et politiques essentiels. L’auteur pourfendait la diffusion d’un « démiurge administratif » qui reposait sur la sophistication technique des méthodes de recherche en sciences sociales, amenant ces dernières « à proclamer leur allégeance aux sciences de la nature » (p. 59). Or, d’après Mills, « ce sont les idées qui font progresser la recherche sociologique, quelle qu’elle soit ; les faits ne lui apportent que la discipline » (p. 74). Pour lui, « on ne choisit pas une méthode d’après le seul critère de la précision » (p. 75), alors que ce critère est souvent mis en avant par les partisans du recours à l’IAg.
De l’automatisation à la déshumanisation du travail scientifique
Avec les progrès rapides de l’IAg, et en particulier le recours massif à ChatGPT pour tout type d’usage, on peut imaginer que son utilisation en sciences sociales se banalise fortement, à l’image de ce à quoi on assiste déjà parmi les étudiantes et étudiants[36]. Ainsi, outre l’automatisation des analyses de données, l’IAg peut être employée dans la recherche en sciences sociales à bien d’autres tâches qui ne sont pas mentionnées par ses promoteur·rices mais qui peuvent malgré tout devenir une tentation : résumer des textes en vue de réaliser un état de l’art, automatiser l’évaluation d’articles par les comités de lecture de revues, faire rédiger par les LLM tout ou partie d’articles et de livres de chercheur·euses toujours plus pressé·es et sommé·es de publier dans un contexte concurrentiel[37]. Sans parler de la présidente de l’université de Gand qui a utilisé l’IAg pour rédiger son discours de rentrée en septembre dernier et qui a été confondue par plusieurs erreurs grossières commises par l’algorithme[38]. Ces usages posent pourtant des questions cruciales : celles de la propriété intellectuelle, de la responsabilité éthique et scientifique des idées ou encore de la fraude scientifique qui a explosé ces dernières années. Face à la perspective de l’automatisation de nombreuses tâches de rédaction, la question de « qui écrit ? » est incontournable. Il y aurait de quoi s’interroger sur l’usage par les sociologues de « textes » générés automatiquement tant ils sont composés de mots les plus couramment répandus, soit une manière d’obtenir une pensée moyenne à partir de notions prédominantes[39]. Le prix à payer de cette automatisation est classiquement une sorte de conformation à la norme dominante et la disparition du sujet, en particulier sa capacité à interpréter le réel avec ses propres mots et son raisonnement singulier.
Lors de la mécanisation typique de la production à l’ère du taylorisme et du toyotisme, la machine avait remplacé les tâches manuelles du travail ouvrier. Toute une tradition de la sociologie du travail s’était déjà évertuée à mettre en évidence les effets délétères d’une telle automatisation sur le travail humain, telle que sa déqualification. Dorénavant, avec cette nouvelle génération d’IAg particulièrement puissante, on assiste à l’automatisation des tâches intellectuelles, de réflexion et de pensée, ce qui ne vas pas sans créer des déstabilisations fortes dans le monde de la recherche comme dans celui du travail[40].
Pour le philosophe Éric Sadin, l’algorithme devient un nouveau moyen de « véridiction de la réalité » en possédant une capacité d’« expertise du réel »[41] : c’est le renoncement à parler à la première personne, suggère-t-il. Les individus ont beau choisir le corpus et les critères en amont, et adapter le programme informatique en aval, ils laissent parler l’algorithme à leur place en leur déléguant l’analyse. Non seulement cette automatisation s’applique aux activités intellectuelles et qualifiées, mais en étant associée à d’autres machines (les objets connectés, l’internet, les smartphones, etc.), elle se propage largement dans la société pour devenir omniprésente.
L’IAg à l’université, un renoncement à la pensée
Ces problèmes de fond posés par l’IAg dans la recherche en sciences sociales se conjuguent à deux autres dimensions régulièrement soulignées et désormais bien documentées : son impact environnemental ainsi que les formes de surveillance induites par son utilisation. L’ensemble de ces nombreuses limites plaident alors non pas pour un autre usage de l’IAg en sociologie qui serait plus « mesuré », « raisonné » ou « équilibré », mais tout simplement pour s’abstenir de l’utiliser, faisant de la recherche universitaire un lieu où l’on peut encore s’y soustraire. Une telle décision permettrait de renouer avec la vocation première de l’université, celle d’œuvrer à l’émancipation des individus.
Car en quoi l’émancipation des étudiantes et étudiants bénéficie-t-elle du formatage des chercheurs aux réalités technologiques de leur temps, celles issues des grands systèmes techniques, des multinationales et des idéologies dépolitisant la réalité sociale ? Face à un tel déferlement technologique, l’université et la recherche doivent au contraire leur donner les moyens de penser de manière critique, s’érigeant en espaces de réflexion, de mise en question, voire de résistance.
Autant de questionnements auxquels nous invite le linguiste américain Noam Chomsky lorsqu’il rappelle que « dans ses rapports avec la société, on devrait attendre d’une université libre qu’elle soit, en un sens, « subversive »[42]. C’est également toute la signification de l’« université sans condition » défendue par Jacques Derrida, celle qui suppose offrir une liberté inconditionnelle de propositions dans des contextes où s’imposent des normes et des pratiques de toutes sortes. Selon le philosophe, elle est censée accorder le droit de dire publiquement tout ce qu’exigent une recherche, un savoir et une pensée de vérité[43]. Plus encore, pour lui, au sein de l’université, les humanités en particulier incarnent le lieu par excellence d’une réflexion libre, offrant des possibilités de résistance et de désobéissance sans limites. Or, rien de cela ne peut perdurer en déléguant tout ou partie de la pensée aux humanités numériques.
Notes
[1] Dans la suite du texte, nous utilisons l’acronyme « IAg » afin de désigner sa version générative.
[2] Dans la suite du texte, nous utilisons l’acronyme « IAg » afin de désigner sa version générative.
[3] Nous remercions nos collègues Jérémie Moualek et Sébastien Petit. Ce texte est aussi le fruit de nos nombreux échanges au sujet de l’arrivée de l’IAg à l’université
[4] Étienne Ollion, « C’est quoi un chercheur augmenté ? » Interviewé par Xavier de La Porte, « Le code a changé », France Inter, 4 octobre 2024.
[5] https://archeo.ens.fr/Atelier-Digit_Hum-2025.html
[6] Cette perspective désigne une façon de prendre acte du milieu technicien dans lequel nos sociétés sont imprégnées, tout en affirmant la non-neutralité de ladite technique comprise comme un système complexe impactant l’ensemble des activités sociales (François Jarrige, Technocritiques. Du refus des machines à la contestation des technosciences, Paris, La Découverte, 2014).
[7] Frédéric Lebaron, « L’analyse des données et ses usages en sciences sociales », Savoir/Agir, 2021/3 n° 57, 2021. p. 37-42.
[8] Luc Boltanski, Ève Chiapello, Le nouvel esprit du capitalisme, Paris, Gallimard, 1999.
[9] Pour « Large Language Model » en anglais.
[10] Yoann Demoli, « Retours d’expériences sur nos pratiques dans la recherche et l’enseignement en SHS », Journée d’études Ce que l’intelligence artificielle générative fait au travail des chercheur.es en SHS, 6-11 février 2025.
[11] Marie Neihouser, Julien Figeac, Colin Poubel, « Faire campagne en contexte de crise », Revue Française de Science Politique, 2025, n° 75 (1), p. 67-96.
[12] Rubin Shen, Politique de l’écriture : trois essais sur le traitement journalistique de l’information politique, Thèse de sociologie, IEP de Paris, novembre 2024.
[13] Julien Boelaert, et al., « La part du genre : Genre et approche intersectionnelle dans les revues de sciences sociales françaises au XXIe siècle », Actes de la recherche en sciences sociales, 2025/3-4 n° 258-259, p.126-145.
[14] Étienne Ollion, « C’est quoi un chercheur augmenté ? », int. cit.
[15] Arnault Chatelain, « L’IA générative est-elle un gain pour la recherche ? », Polytechnique Insights. La revue de l’institut polytechnique de Paris, 9 septembre 2025.
[16] Jean-Philippe Cointet et Sylvain Parasie, « Ce que le big data fait à l’analyse sociologique des textes : Un panorama critique des recherches contemporaines », 2018/3 Vol. 59, 2018, p. 533-557.
[17] Étienne Ollion, et al., « The dangers of using proprietary LLMs for research », Nat Mach Intell, 6, p. 4-5, 2024.
[18] Francis Chateauraynaud, et al., « Les technologies n’apportent pas de réponse universelles », Le Monde, 4 mars 2019, p. 24.
[19] Arnault Chatelain, « L’IA générative est-elle un gain pour la recherche ? », art. cit.
[20] David Chavalarias, « Dans dix ans, analyser des données avec l’IA sera aussi naturel qu’utiliser internet » Interviewé par Yann Chavance, Hors-série de Sciences et Avenir, n°199, octobre-novembre 2019.
[21] Salomé Do, et al., « The Augmented Social Scientist: Using Sequential Transfer Learning to Annotate Millions of Texts with Human-Level Accuracy », Sociological Methods & Research, 53(3), 2022, p. 1167-1200, p. 1189.
[22] Olivier Lefebvre, « ChatGPT, c’est juste un outil ! » : les impensés de la vision instrumentale de la technique », Terrestres, 28 juin 2025.
[23] Lewis Mumford, Technique autoritaire et technique démocratique, Saint-Michel-de-Vax, La Lenteur, 2021.
[24] Jean-Michel Besnier, N’être plus qu’un objet. La tentation d’oublier la vie, Paris, Hermann, 2025, p. 22 et 75.
[25] Anne Alombert, De la bêtise artificielle. Pour une politique des technologies numériques, Paris, Allia, 2025.
[26] Étienne Ollion, « C’est quoi un chercheur augmenté ? », int. cit.
[27] Vincent de Gaulejac, La recherche malade du management, Paris, Édition Quæ, 2012.
[28] Étienne Ollion et Julien Bollaert, « Au-delà des big data. Les sciences sociales et la multiplication des données numériques », Sociologie, 2015/3 Vol. 6, 2015. p. 295-310.
[29] Françoise Waquet, L’ordre matériel du savoir. Comment les savants travaillent, XVIe-XXIe siècles, Paris, CNRS Éditions, 2015.
[30] P.É.C.R.E.S., Recherche précarisée, recherche atomisée. Production et transmission des savoirs à l’heure de la précarisation, Paris, Raisons d’Agir, 2011.
[31] Isabelle Stengers, Une autre science est possible ! Manifeste pour un ralentissement des sciences, Paris, La Découverte, 2013.
[32] Nicolas Chevassus-au-Louis, Décroiscience, Marseille, Agone, 2025.
[33] Nicolas le Dévédec, Le mythe de l’humain augmenté. Une critique politique et écologique du transhumanisme, Montréal, Éditions Écosociété, 2021.
[34] Chris Anderson, « La fin de la théorie : Le déluge de data rend la méthode scientifique obsolète », Le Débat, 2019/5 n° 207, 2019, p.119-122.
[35] Charles Wright Mills, L’imagination sociologique, op. cit.
[36] D’après une étude du Digital Education Council ayant interrogé plus de 3800 étudiants dans 16 pays, 86% d’entre eux déclarent utiliser l’IA dans leurs études (Digital Education Council Global AI Student Survey 2024).
[37] Cléo Collomb : « Et si les chercheurs n’étaient plus que des travailleurs du clic ? », TheMetaNews, 13 décembre 2024. L’auteure cite des exemples de ces pratiques déjà avérées.
[38] Jean-Pierre Stroobants, « En Belgique, une présidente d’université prise au piège des hallucinations de l’IA lors d’un discours de rentrée », Le Monde Campus, 17 janvier 2026.
[39] Frédéric Neyrat, Traumachine. Intelligence artificielle et techno-fascisme, Paris, MF, 2025.
[40] Juan Sebastian Carbonell, Un taylorisme augmenté. Critique de l’intelligence artificielle, Paris, Amsterdam, 2025
[41] Éric Sadin, Le désert de nous-même. Le tournant intellectuel et créatif de l’Intelligence Artificielle, Montreuil, L’Échappée, 2025.
[42] Noam Chomsky, Réflexions sur l’université. Suivies d’un entretien inédit, Paris, Raisons d’Agir, 2010, p. 45.
[43] Jacques Derrida, L’université sans condition, Paris, Galilée, 2001, p. 11-12.

