N°48 / Psychologie politique de l'intelligence artificielle - Janvier 2026

Entretien avec Anne Alombert et Gaël Giraud

Anne ALOMBERT, Gaël GIRAUD, Pierre-Antoine PONTOIZEAU

Résumé

Mots-clés

Plan de l'article

Télécharger l'article

Entretien avec Anne Alombert et Gaël Giraud à propos de

Le capital que je ne suis pas

dans le cadre de nos numéros consacrés à la psychologie politique de l’IA

Anne Alombert est maîtresse de conférences en philosophie contemporaine à l’université Paris 8. Elle est membre du laboratoire d’études et de recherches sur les Logiques Contemporaines de la Philosophie (LLCP EA-4008 - université Paris 8), membre du collectif de recherche Organoesis et de la Société Francophone de Philosophie de la Technique. Elle a été membre du Conseil National du Numérique de 2021 à 2025 et est membre du comité scientifique et de prospective de la CNIL.

Ces principaux domaines de recherche sont la philosophie française contemporaine, la philosophie de la technique, l’anthropologie de l’écriture et des techniques et les enjeux épistémiques, esthétiques, sociaux et politiques des technologies numériques.

Elle a récemment publié :

- De la bêtise artificielle, Paris, Éditions Allia, 2025.

- Penser avec Bernard Stiegler, Paris, PUF, 2025.

- Schizophrénie numérique, Paris, Éditions Allia, 2023.

- Penser l’humain et la technique, Paris, ENS Editions, 2023.

Gaël Giraud est ancien élève de l’École Normale Supérieure, économiste, docteur en mathématiques et en théologie, prêtre jésuite. Il est directeur de recherche au CNRS, spécialisé en économie mathématique. Il a été chef économiste et directeur exécutif de l’Agence Française de Développement de 2015 à 2019. Il a fondé le Programme de Justice Environnementale de l’université de Georgetown (Washington DC) et il préside l’Institut Rousseau (un think tank français).

Il a récemment publié :

- Composer un monde en commun. Une théologie politique de l’Anthropocène, Paris, Éditions du Seuil, 2022

Il publie en octobre 2025 un dialogue avec Carlo Petrini, Post-Carbone, avec une Préface du Pape François, aux Editions de l’Atelier. Puis, en novembre 2025, La Finance, coll. Fake or Not, Ed. Tana.

Dans cet ouvrage Le Capital que je ne suis pas, vous étudiez l’IA sous plusieurs aspects. Un premier très économique où la prédation des ressources intellectuelles se fait par une capitalisation très lucrative et savamment organisée qui dépossède les sociétés et les menace d’un effondrement cognitif. Le second aspect de votre travail commun montre en quoi les algorithmes favorisent la moyennisation et le mimétisme jusqu’à aplanir les connaissances et les capacités de créer de nouveaux savoirs. Le troisième aspect de vos investigations dévoile le risque de disparition du corps par une automatisation croissante, voire totalisante des activités de l’esprit. Le quatrième aspect plus politique présente l’organisation oligarchique, voir monopolistique de cette privatisation des productions de l’intelligence humaine, envisageant quelques alternatives à cette situation de capitalisation des consciences. Nous souhaitons, si vous le voulez bien, revenir sur ces aspects par quelques questions.

Q.1. Concernant le premier aspect de la prédation des ressources intellectuelles, vous évoquez la machinisation et l’histoire de la taylorisation : « Une fois matérialisé dans la machine, le savoir n’est plus nécessairement transmis, ni transformé, et les individus vivants qui s’enrichissaient mutuellement à le pratiquer s’en voient dépossédés. Ainsi, en produisant des artefacts à sa place, la machine-outil dépossède l’artisan de ses savoir-faire et de ses capacités manuelles. » (p.65). 

Que dire des perspectives de cette machinisation de l’intelligence en cours, alors que celle des activités manuelles a triomphé, malgré l’opposition d’un William Morris, par exemple, se plaignant de la dévastation des arts décoratifs par l’industrie ? 

Dans ce livre, nous suggérons que le triomphe d’une telle automatisation numérique des différents types de savoirs (les savoirs dits « intellectuels » et les savoirs sociaux avec les algorithmes, mais aussi les savoirs manuels avec la robotique) ne serait pas soutenable sur le long terme. En effet, c’est en pratiquant des savoirs que les sociétés se différencient et évoluent : une société dans laquelle aucun savoir ne serait plus transmis, pratiqué et transformé ne pourrait plus évoluer, ni culturellement, ni même technologiquement. Ce sont justement les savoirs dits « intellectuels » qui ont rendu possibles les systèmes numériques contemporains : sans l’apprentissage de la lecture, de l’écriture, puis du calcul et des mathématiques, les ingénieurs et informaticiens qui ont développé les techniques d « apprentissage automatique » n’auraient rien pu inventer. Ce sont donc ces savoirs qui ont rendu possible le développement des technologies contemporaines, comme lesdites « IA génératives » qui contribuent néanmoins à les détruire, si nous les utilisons comme substituts à nos capacités d’écrire, de parler, de penser, de décider, de juger...  Cela signifie que le système socio-technique peut devenir entropique, il détruit ses propres conditions de possibilités.

C’est la raison pour laquelle nous insistons à la fin de l’ouvrage sur les propositions politiques, sociales et économiques d’auteurs comme André Gorz et Bernard Stiegler, qui proposaient de rémunérer les activités durant lesquelles les individus et les groupes pratiquent,  transforment et transmettent des savoirs (savoir-faire, savoirs sociaux, savoirs pratiques, savoirs théoriques), pour lutter contre cette délégation progressive de nos capacités (manuelles et intellectuelles) aux automates numériques. En ce sens, nous nous inscrivons bel et bien dans le prolongement de la critique formulée, à la fin du 19e siècle, par l’Anglais William Morris à l’égard de la production industrielle de masse et de l’idéal victorien de productivité et de profit au détriment des savoirs humains et singuliers.

Q.2. Concernant le deuxième aspect où les algorithmes favorisent la moyennisation et le mimétisme jusqu’à aplanir les connaissances et les capacités de créer de nouveaux savoirs, vous dénoncez l’illusion du traitement massif des données : « ils confondent les activités de mesures qui exhibent de la régularité (statistique) avec la réflexion théorique qui produit de l’intelligibilité (signifiante) » (p.72).

N’y a-t-il pas dans la science moderne cette croyance que tout est mesure, tout est calculable parce que le Dieu de Nicolas de Cues est aussi pur calcul et que Galilée promet la mathématique du monde dans l’Essayeur ? N’est-ce pas là le signe d’une conception du monde et d’une anthropologie philosophique dont les producteurs des IA sont en fait les agents ? 

Il est en effet possible de faire remonter cette croyance que tout est mesurable et calculable à l’idée de mathématisation du monde qui est au principe de la science moderne. Vous citez le théologien médiéval Nicolas de Cues sans doute parce que certains historiens des sciences (notamment Alexandre Koyré) ont vu en lui un précurseur de la mathématisation moderne de la nature. Il est vrai que, dans la Docta Ignorantia (1440), Cues utilise beaucoup de métaphores mathématiques pour parler de Dieu. Par exemple, un cercle de rayon infini est… une droite. A ses yeux, passer à la limite lorsque le rayon du cercle devient infini, c’est une manière de parler de Dieu. Dans ses sermons, il écrit que Dieu est mensura mensurans non mensurata — « mesure mesurante, non mesurée ». Il est l’origine non mesurable de toute mesure. Il y a donc toujours de l’incalculable, c’est même la condition de possibilité du calcul ! Dans son De coniecturis (1442), il compare l’acte créateur de Dieu à une sorte de calcul infini : Dieu « numère » ou « configure » toutes les créatures. Mais cette « énumération » a autant à voir avec les mathématiques que nous pratiquons qu’un cercle (de rayon fini) ressemble à une droite ! Chez Cues, il y a bien un schème analogique, le fini renvoie à l’infini, mais pas au sens d’une proportionnalité réelle d’« être » entre Dieu et ses créatures. En ce sens, Cues se rapproche davantage d’un apophatisme néo-platonisant (comme chez Denys l’Aréopagite ou Maître Eckhart) que de l’analogia entis.

L’affaire Galilée est intéressante car elle a opposé le célèbre physicien italien avec un jésuite, Orazio Grassi. En 1618, trois comètes apparaissent dans le ciel européen et suscitent peurs et controverses. Grassi les interprète comme des corps célestes au-delà la lune. Galilée lui réplique dans Il Saggiatore [L’Essayeur] (1623) qu’il s’agit plutôt de phénomènes optiques dans l’atmosphère, et en profite pour déployer une thèse d’une tout autre portée : la nature est mathématisable. Il se trouve que Galilée s’est trompé ; c’est Grassi qui avait raison. Mais nous avons retenu sa grande thèse méthodologique et métaphysique.  Or nous pensons qu’il faut distinguer entre la quantification du monde physique et la réduction de nos jugements à des calculs statistiques automatiques. On peut faire de la dynamique des fluides pour comprendre à quelles conditions un avion peut décoller sans pour autant déléguer à une machine la responsabilité de décider si, oui ou non, je dois prendre l’avion, pour quelle destination et dans quel but. De même, les algorithmes connexionnistes génératifs peuvent nous être très utiles pour dépister des cancers mais cela n’implique pas que l’on doive remplacer les médecins par des machines : la relation humaine avec un soignant qui prend soin de vous (et veut votre guérison) fait partie de la thérapie. Tous les cancéreux et les oncologues le savent. Or une machine ne « veut » rien pour vous. De même, un logiciel d’IA générative peut avoir été formé sur des millions de cas judiciaires qui constituent la jurisprudence états-unienne. Si vous lui demandez de juger un cas aujourd’hui, il ne pourra que reproduire les biais de la justice américaine passée (notamment, des biais de genre, de race ou de classe). Dans les champs de la justice comme de la médecine, et comme partout ailleurs, la décision ne peut pas se réduire à un calcul.

Qui plus est, avec les prédictions algorithmiques en temps réel, l’idée, galiléenne disons, de mathématisation du monde n’est plus seulement une « conception du monde » : elle s’implémente dans les dispositifs numériques eux-mêmes, qui ont donc des effets performatifs sur le réel. Par exemple, lorsque je me conforme à une suggestion automatique calculée par des algorithmes sur la base de toutes mes actions passées, alors j’adopte d’emblée un comportement calculable, je deviens une chose calculable. Avec de telles technologies, tout se passe comme si la conception computationnelle du monde se réalisait effectivement. D’où l’importance de développer des technologies alternatives, qui ne se fondent pas seulement sur des calculs mimétiques et sur des moyennes mais aussi sur des contributions et des jugements humains singuliers.

Q.3. En abordant cette moyennisation et le mimétisme induit, vous indiquez le jeu des acteurs et leurs intentionnalités : « les contenus qui obtiennent un grand nombre de vue grâce au plébiscité artificiel de faux comptes seront d’emblée davantage recommandés et donc amplifiés, laissant aux industries de la désinformation le luxe de régler la sélection des contenus apparaissant dans l’espace médiatique numérique. » (p.156-157).

Ce piège d’une technique, semble-t-il construite pour masquer les manipulations et les propagandes de masse ne pose-t-elle pas la question de sa compatibilité fondamentale avec des institutions politiques démocratiques et une société ouverte à la création de nouvelles connaissances ?

Ce que nous montrons dans ce livre, c’est que les réseaux sociaux reproduisent à grande échelle, et avec l’ensemble de la population, ce que les marchés financiers avaient déjà amorcé dès les années 1980. Vous ne pouvez pas avoir raison, seul contre les marchés : si ceux-ci ont décidé que la dette publique grecque ne vaut plus rien (comme en 2010), il est préférable pour vous de la vendre (et donc de confirmer l’opinion majoritaire même si vous êtes intimement persuadé(e) du contraire !), sans quoi vous allez perdre de l’argent. L’opacité de l’isoloir est indispensable à la démocratie car c’est elle qui garantit que vous pouvez in fine exprimer une opinion personnelle, éventuellement différente de celle d’autrui. Les marchés financiers n’ont pas d’isoloir opaque. De même, sur les réseaux sociaux, il est très difficile d’avoir raison, seul contre tous. Là aussi, il n’y a rien pour garantir la sécurité et l’intégrité de celle ou celui qui pense différemment. Autant dire que la condition sine qua non de la démocratie n’y est plus satisfaite.

Il est devenu assez clair aujourd’hui que le fonctionnement des réseaux sociaux commerciaux, qui fondent leurs modèles d’affaires sur la publicité ciblée au moyen d’algorithmes de recommandation opaques, fait obstacle aux processus électoraux et aux régimes démocratiques plus généralement, en influençant massivement les électeurs. C’est ce qui s’était déjà produit lors du scandale Facebook – Cambridge Analytica pendant la présidentielle américaine de 2016 et qui s’est rejoué différemment en 2024 avec le réseau X, à travers lequel Elon Musk, qui en est le propriétaire, a pu intervenir pour soutenir la campagne de Donald Trump, avec qui il s’était allié. Plus généralement, il est problématique que des entreprises privées propriétaires des réseaux sociaux commerciaux imposent leurs algorithmes de recommandation en fonction de leurs intérêts privés car les réseaux sociaux sont devenus les principales sources d’informations pour une grande partie des populations. Si l’Europe renonce à réguler les réseaux sociaux, en exigeant par exemple la transparence des algorithmes ou un pluralisme algorithmique, ou en proposant et en soutenant des réseaux sociaux alternatifs, comme Bluesky ou Mastodon, alors les démocraties européennes courent à leur perte.

 

Q.4. Concernant le troisième aspect du risque de disparition du corps par une automatisation croissante, voire totalisante des activités de l’esprit, vous alertez sur le risque d’une science de l’homme le réduisant à un objet soumis : « Si d’aventure, la vie des individus pouvait se réduire à celle d’automates, réalisant des programmes comportementaux anticipables, cela permettrait vraiment de réduire l’avenir à un futur calculable. La singularité de nos vies serait enfin évacuée. … Nous serions sans corps, sans héritage, sans passé, sans avenir, sans relation, sans distraction, automates isolés et impeccables d’une logique calculatoire sans faille. » (p.56). 

N’y a-t-il pas ici l’aboutissement de la science moderne incompatible avec d’autres conceptions de l’être humain, cette science occidentale se manifestant comme un projet politique et anthropologique bien plus qu’un projet de connaissance comme le révélait Husserl décrivant la naturalisation de l’esprit : «  le fondement de l’impuissance d’une culture rationnelle ne se trouve pas […] dans l’essence du rationalisme même, il se trouve seulement dans son extranéation, dans le fait qu’il s’enrobe du cocon du « naturalisme » et de « l’objectivisme »  ? (Conférence de Vienne) ?

Dans sa conférence de 1935, La Crise de l’humanité européenne et la philosophie, Edmond Husserl observe en effet que les sciences exactes ont obtenu des succès considérables, mais affirme qu’elles tendent à oublier leur fondement dans le monde vécu (die Lebenswelt). Elles transforment les phénomènes en « objets naturels » soumis à des lois, en occultant le fait qu’un phénomène n’est tel que parce qu’il est visé par une intentionnalité. Tout phénomène n’est phénomène que pour une conscience. L’être-donné des choses n’est pas brut mais toujours en rapport avec une visée intentionnelle. Le projet métaphysique qui voudrait prendre prétexte des sciences exactes pour expliquer aussi la conscience comme une chose, comme un objet naturel régi par des lois causales (n’est-ce pas l’ambition de certaines des « sciences » dites « cognitives »?) oublie que c’est une conscience qui confère à toute chose son statut de phénomène, donc présuppose toujours déjà ce qu’il prétend expliquer. C’est alors qu’il participe de « l’extranéation » (du déracinement, de l’étrangèreté, Entfremdung) du rationalisme lui-même. En ce sens, vous avez raison, la critique formulée par Husserl dans les années 1930 peut être renouvelée face aux présupposés naturalistes d’une grande partie des sciences cognitives, des sciences comportementales et des neurosciences, qui sous-tendent l’économie politique actuelle de l’intelligence artificielle, comme nous le soulignons dans le livre.

Q.5. A ce sujet, vous dites : « la mythologie transhumaniste, qui semble aujourd’hui se soutenir du postlibéralisme, peut être assimilée à une position gnostique. »  (p.171 à 173). Vous décrivez ainsi cette technologie comme un projet théologico-politique : « Cette tentative de reproduire ou de simuler la vie témoigne du rejet du corps… mais aussi de l’ambition de prendre la place de Dieu, à travers les fantasmes d’autoengendrement et d’immortalité caractéristiques de la « religion de la techno-science-industrie. » (p.97)

La position d’équilibre que vous semblez soutenir tout au long du livre en faveur d’autres usages de l’IA, alors que tout semble indiquer qu’il ne s’agit pas d’une technique neutre, pas plus que la science occidentale n’a été axiologiquement neutre ; l’IA participant comme vous le décrivez, de ce projet gnostique de manière délibérée ? Peut-on encore s’illusionner d’une technique dont l’usage suffirait à la neutraliser alors qu’elle est construite selon des buts que vous réprouvez et qui conduisent, à vous lire, à la disparition de l’homme et de la connaissance ?

Les choses sont plus compliquées. Ce n’est pas l’ « intelligence artificielle » en tant que telle qui porte ce projet « gnostique » : justement, nous soulignons dans le livre que la gnose est un vieux rêve qui hante l’Orient et l’Occident depuis plus de deux mille ans. Il consiste à croire que tous nos problèmes viennent de la matière et, en particulier, de nos corps. Les gnostiques valentiniens du 2e siècle de notre ère rêvaient déjà d’une grande Singularité dans l’avenir, où nous deviendrions enfin de purs esprits, des être « pneumatiques », sans corps. Or une machine n’a pas de corps. Les fantasmes qui tournent autour de machines où l’on pourrait prétendument transférer notre « conscience » ou celle d’un défunt, ces fantasmes font comme s’il était possible de se passer de son corps pour penser, aimer, entrer en relation avec autrui et le monde. Mais ces fantasmes ne sont pas intrinsèquement liés aux technologies numériques, bien au contraire !

De même, les technologies numériques ne portent pas en elles-mêmes un projet d’automatisation et de prolétarisation généralisée : nous croyons plutôt que ce programme est celui de certaines entreprises privées et de certains idéologues, qui sont aujourd’hui en position de quasi-monopoles et qui déterminent presque à eux seuls l’orientation des développements industriels, dans un sens qui semble très dangereux pour les populations et pour les environnements. La question qui se pose est celle de savoir quel projet technologique alternatif proposé. En ce sens, nous ne soutenons pas seulement la nécessité pour les individus de développer d’autres usages de l’IA, mais surtout, la nécessité pour la puissance publique et pour les entreprises numériques de développer d’autres dispositifs, qui se fondent sur d’autres principes et d’autres modèles économiques visant la soutenabilité à long terme et non la disruption à court-terme. La question n’est pas celle des usages individuels, mais de la politique industrielle : justement, si l’on admet que les technologies ne sont pas neutres, qu’elles influencent nos pensées et nos conduites, alors il faut reconnaître qu’il ne s’agit pas seulement de bien ou de mal utiliser tel ou tel dispositif, mais surtout de concevoir et d’expérimenter des technologies alternatives (qui ne soient pas extractives et prolétarisantes).

Le problème est que nos imaginaires sont complètement bloqués sur ce point, alors qu’il existe beaucoup de technologies numériques alternatives, à la fois contributives et capacitantes, qui mériteraient d’être soutenues, développées et pratiquées. Nous donnons de nombreux exemples dans toute la troisième partie du livre, qui montrent que certaines technologies sont précisément développées pour intensifier les capacités humaines et les relations sociales, ainsi que pour permettre la co-construction et le partage des savoirs. Il est trop facile de condamner la Technologie en général, sans étudier et différencier les différents dispositifs : plutôt qu’une condamnation univoque, nous appelons à lancer des projets de recherche-action pour concevoir et expérimenter des dispositifs technologiques soutenables, utiles et désirables pour les localités et les populations. Ce sont les citoyens qui doivent décider de l’orientation des développements de l’intelligence artificielle, cela nous concerne tous : si nous nous contentons de condamner sans rien proposer, nous subirons ce qui nous est imposé.

Q.6. Concernant le quatrième aspect de l’organisation oligarchique, voire monopolistique de cette privatisation des productions de l’intelligence humaine, envisageant quelques alternatives à cette situation de capitalisation des consciences, vous exposez « la boîte noire idéologique des automates computationnels » (p.83 à 90) en mentionnant des auteurs tels le mathématicien John von Neumann, l’économiste Friedrich Von Hayek et le théoricien des organisations et économiste Herbert Simon. Vous introduisez cette section en ces termes : « Il convient de s’interroger sur l’idéologie qui guide le développement de ces nouvelles technologies » (p.83).

Est-il en fait possible de s’approprier ou réapproprier une technique dont les conditions d’émergence semblent supposer des moyens intellectuels, techniques et financiers considérables, en vue d’un projet politique de domination comme vous semblez le suggérer ?

Il est possible de concevoir et de développer des systèmes alternatifs beaucoup moins coûteux en termes énergétiques et en termes de données : ce qui est coûteux, c’est d’imposer une technologie unique à toute la planète, de collecter massivement les données afin de prédire et de calculer les comportements de masses énormes de d’individus. Mais il est tout à fait possible de développer des technologies fondées sur le logiciel libre et la contribution, comme une encyclopédie collaborative telle Wikipédia, par exemple, qui ne collecte pas vos données, ou un réseau social comme Mastodon par exemple, qui ne se fonde pas sur la publicité ciblée, ou encore comme un algorithme de recommandation collaboratif comme celui de Tournesol, qui s’appuie sur les jugements des citoyens, ou bien comme une plateforme comme BipPop, qui fonctionne de manière locale et permet aux collectivités territoriales de renforcer les solidarités, etc.

Nous avons largement les moyens intellectuels, techniques et financiers de développer ce type de technologies, qui ne visent pas la domination mais la contribution : la preuve, elles existent déjà… La question est plutôt celle de l’orientation des financements et des recherches en ces domaines, et de notre politique technologique à venir : nous avons écrit ce livre pour inciter les responsables politiques, les entreprises technologiques et les citoyens à explorer cette direction, même si ce n’est clairement pas l’orientation qui domine aujourd’hui.

Q.7. Tout le livre inspire l’idée d’une concentration massive des moyens techniques, des savoirs, des entreprises décisionnelles, à la manière d’un capitalisme concentré et concentrationnaire dans ses buts. Or, vous dîtes : « L’enjeu ne consiste plus, dès lors, à utiliser les technologies numériques comme des dispositifs de calculs pour engendrer des comportements mimétiques, prédictibles et capitalisables, mais à en faire des supports d’expression singulière et d’intelligence collective. » (p.158).

Du fait du modèle économique et des investissements massifs en centaine de milliards, n’y a-t-il pas une contradiction entre l’économie du projet des IA génératives invasives et l’échec patent des expériences passées que vous décrivez pour résister à la privatisation de chaque innovation technologique des dernières décennies ? L’alternative que vous exprimez est-elle économiquement, socialement et psychologiquement possible avec des techniques construites en vue d’aliénations savamment orchestrées par la psychologie cognitive (exemple de l’addiction induite par le scroll infini) ? 

Notre diagnostic est en effet que les technologies numériques sont massivement développées aujourd’hui, par quelques entreprises privées, pour « engendrer des comportements mimétiques, prédictibles et capitalisables ». Cela signifie que les propriétaires des algorithmes qui orientent nos décisions vont pouvoir transformer notre comportement en « capital », c’est-à-dire en stock dont les revenus futurs dégagés (par l’entreprise propriétaire grâce à vos clics) peuvent être anticipés de manière fiable. Cela suppose que vous deveniez prédictible. Et c’est exactement ce qui se passe lorsqu’une majorité d’internautes se met à suivre la dernière mode lancée par un influenceur. C’est à cela qu’il faut résister, d’où le titre de notre ouvrage. Cette résistance-là se joue au niveau individuel et psychologique, mais aussi au niveau collectif et politique, à travers l’encadrement juridique des réseaux sociaux par exemple ou à travers les types d’innovations que la puissance publique décide d’encourager ou non.

Il ne s’agit donc pas seulement de résistance, mais aussi d’invention – sur les plans juridiques, sociaux, technologiques. De nombreux chercheur(e)s, entrepreneur/ses, responsables politiques, associations, citoyen(ne)s, militant(e)s, œuvrent tous les jours pour réconcilier les développements numériques avec les intérêts des citoyens. L’organisation « Numérique en communs » fédère de nombreuses initiatives qui vont dans ce sens. Il est donc certain qu’il est possible de prendre cette direction des communs et de la contribution, que nous défendons dans le livre, lequel a été écrit pour participer à l’ouverture d’un avenir numérique émancipateur, par-delà les logiques de capitalisation et de prolétarisation actuelles. Il y a toujours du non-calculable dans l’avenir, un résidu improbable irréductible. L’important est donc de rester capables de nous projeter collectivement vers ce qui est à-venir et que nul d’entre nous ne peut calculer.

Continuer la lecture avec l'article suivant du numéro

L'IA, contre-avec l'ensemble humain

Jacques DEMORGON

Cet article teste la capacité réflexive de l'IA sur son propre savoir et sa place dans l'aventure humaine pour mettre en évidence les biais idéologiques et stratégiques présents dans les réponses apportées par l'IA à ce type de questionnement. L'article interroge alors la pertinence de certaines notions dont le big de data et sa pertinence épistémologique, montrant sa dimension markegting plus que scientifique. Et plus encore, fort de la connaissance des cultures et des connaissances antagonistes ou pluriels, l'article interroge...

Lire la suite

Du même auteur

Tous les articles
N°47 / 2025

Pharmacologie de l’ « intelligence artificielle » : pour une psycho-socio-pathologie de la vie numérique

Lire la suite