N°48 / Psychologie politique de l'intelligence artificielle - Janvier 2026

L'IA, contre-avec l'ensemble humain

Jacques DEMORGON

Résumé

Cet article teste la capacité réflexive de l'IA sur son propre savoir et sa place dans l'aventure humaine pour mettre en évidence les biais idéologiques et stratégiques présents dans les réponses apportées par l'IA à ce type de questionnement. L'article interroge alors la pertinence de certaines notions dont le big de data et sa pertinence épistémologique, montrant sa dimension markegting plus que scientifique. Et plus encore, fort de la connaissance des cultures et des connaissances antagonistes ou pluriels, l'article interroge l'obsession de la moyennisation et de l'uniformisation qui s'apparente à une impasse qui n'offrira pas à l'usager les moyens du développement de connaissances nouvelles. 

Mots-clés

Plan de l'article

Télécharger l'article

Jacques Demorgon

 

Abstract: 

This article tests AI's capacity for reflection on its own knowledge and its place in the human adventure in order to highlight the ideological and strategic biases present in AI's responses to this type of questioning. The article then questions the relevance of certain concepts, including big data and its epistemological relevance, showing its marketing dimension rather than its scientific one. Furthermore, drawing on knowledge of antagonistic or pluralistic cultures and knowledge systems, the article questions the obsession with averaging and standardisation, which amounts to a dead end that will not provide users with the means to develop new knowledge.

Keywords : Artificial intelligence - domination - cultures - humanity - machine - ideological bias.

 

 

L’IA si en humanité

IA, Contre-avec l’ensemble humain ?

 

 

1./ Humanité toujours et encore à deux vitesses

1.1./ Trois défis : les réels, les autres, nous-même

Des lectures conséquentes de livres et d’articles ne suppriment pas toute inquiétude. Des centaines, des milliers, en réalité des millions de pages internationales-mondiales en livres et en articles de revues prennent au sérieux les questions des petites et des grandes IA. Pour dire que celles-ci ne doivent pas être capturées par leurs pires apprentis sorciers. Mais nous ne posons pas le problème des responsabilités en termes de boucs émissaires.

Un ancien, modeste et sage Test Picture-Frustration de Saul Rosenzweig (1907-2004) présentait des frustrés évoquant trois sortes de causes. D’abord, les situations (1) réelles nous dépassent et résistent. D’où, pour les autres (2) « pardonnez-leur, ils ne comprennent pas la situation dans sa complexité ! ». Ensuite, et nous ? (3). Certains pensent qu’eux-mêmes ont leur part de responsabilité. Ils peuvent être lucides ou complexés. Dans la grande majorité des cas, ceux qui se prennent facilement pour mieux et supérieurs accusent les autres.

1.2./ Humanité à deux vitesses, de toujours, en IA transhumanistes encore

La logique n’a rien à redire quant au fait que, selon de multiples critères, les uns et les autres peuvent être inférieurs ou supérieurs, stratégiquement, en ceci ou cela ! Ce sont les ressources des diversités. Mais la déclaration d’infériorité globale, a fortiori substantialisée, de certains humains à l’encontre d’autres, n’a aucun fondement : de fait ou de droit. Elle relève d’une stratégie perverse de domination, exploitation. En effet, les humains définis comme inférieurs pourront devenir esclaves, serfs, prolétaires voire être exterminés. Mais alors, quid des tenants d’une I A transhumaniste quand leurs propos conduisent à penser inéluctable une humanité à deux vitesses ! Nombre de ses grands soutiens sont dans cette assertion d’une humanité de trainards qui doivent disparaître quand la technologie prouve (ou prétend) qu’elle est au sommet.

1.3./ Internet barrant sans fin « intérité » ! ChatGPT5 apprend !?

Sur des décennies, nous avons constaté de surprenantes hyper-rigidités d’Internet. Les développements poursuivis de nos recherches sur les humanités interculturelles mondiales nous ont conduit à des références conceptuelles méconnues et pourtant fort éclairantes. Ne citons ici qu’un exemple. Chacun se réfère jusqu’à satiété aux notions d’identité et d’altérité. Or, le philosophe et mathématicien Louis Couturat (1868-1914) a proposé, il y a plus d’un siècle, un terme tiers « intérité » éclairant autrement la donne. Nos amis nous ont incité à vérifier ce qui se passe aujourd’hui avec l’automate ChatGPT5, au besoin en l’informant.

Alors qu’Internet reste rigide et remplace toujours intérité par intégrité, ChatGPT5 qui, à l’origine, ne connaît pas non plus « intérité », juste informé sur Couturat et Demorgon va progressivement apprendre et intégrer le terme. Cela après s’être d’abord cramponné au seul terme anglais in-between. On trouvera le détail et les preuves de cette évolution rapide dans la suite de la présente étude, en 6.6.

1.4./ Encyclopédie libre, participative, 341 langues, millions d’articles

Ce serait à notre tour une erreur de ne pas reconnaître qu’Internet a été une révolution fondamentale sans laquelle celles qui ont suivi n’auraient pas été possibles. Ainsi, des recherches ont mis et mettent encore en avant, non sans raison, comme aventure de qualité précédant l’invasion des IA, des tentatives comme celles de Wikipédia. Nous y sommes toujours favorable. Traitons cependant d’une rigueur un peu trop assurée.

La prestation de la personne qui avait envoyé un travail nous concernant, se voyait infliger comme des centaines d’autres un bandeau un avertissement le lecteur d’une « référence insuffisante à des sources ». Wikipédia avait un critère et l’appliquait sans s’interroger sur les limites au moins de la formulation de son critère. Le mot « sources » est polysémique. Or, il était compris fort restrictivement.

Pour notre part, plus préoccupé d’informations, d’échanges concrets, de pensées et d’écritures que de considérations de la part de Wikipédia, nous nous sommes plutôt désintéressé de la question. Grand fût ensuite notre étonnement d’apprendre que la prestation avait fait l’objet d’un procès (sic). Celui-ci avait été perdu. La prestation était retirée pour notoriété de l’auteur insuffisamment mise en évidence.

Or, quasi en même temps, on en retrouvait le contenu voire augmenté sur Everybodywiki. Cette institution seconde révélait son projet : « Sauver les articles en cours de suppression sur Wikipédia pour une seconde chance ». Justification : « les critères n'étaient pas ceux d’une admissibilité encyclopédique ». Ainsi, la notoriété était reconnue comme un phénomène complexe d’appréhension difficile compte tenu de la multiplicité d’informations pouvant y contribuer. De toute façon, le problème est dépassé à l’heure des big data. Mais les bandeaux de Wikipédia sont aussi rigidement toujours là même si nous sommes à l’heure des vols de données des IA. Nous en disons tout de suite un mot.

1.5./ Vols de mégadonnées par les IA… suites en cours !

La provenance des données composant les big data ont posé et posent encore un problème fort grave. Cette provenance s’est effectuée totalement en dehors du droit courant selon lequel un bien possédé ne peut être acquis qu’après un consensus sur le prix. Il y a eu rapt sans compensation pour quantités d’œuvres : techniques, arts, lettres, sciences et médias. Dès février 2021, puis en mars 2023, le Parlement Européen donne des informations sous le titre « Mégadonnée : définition, avantages et défi (Infographie) ».

Tout récemment, Virgile Heuraux (Alyra, école pionnière de la blockchain et de l’intelligence artificielle) publie un article au titre fort significatif : « Le braconnage des données des entreprises d’IA (24.12.2025) ». Il fait l’inventaire de « la ruée vers les données ». Ainsi « la R. & D. universitaire est non rémunérée ». Il y a « appropriation des données sur les réseaux ». Ou encore de celles « en usage interne en entreprise ».

Les grandes IA ont été attaquées en justice. Les exemples sont nombreux dont OpenAI et Perplexity. « Anthropic a conclu un accord de 1.5 milliard de dollars pour régler ses litiges. [Cas extrême :] « Nvidia récupère une quantité immense de vidéos sur YouTube et Netflix … ignorant les refus explicites de ces plateformes ».

La concurrence entre les IA est constante. Virgile Heuraux précise : « Les données de X (Musk) bénéficient à l’IA Grok ; les données de plusieurs médias ; à ChatGPT et Perplexity  ; les données de Google à Gemini ». Ce modèle d’IA est considéré comme le plus performant à l’heure actuelle car Google a accès à son moteur de recherche, « source extrêmement précieuse pour obtenir des données de qualité ». Pour Heuraux, « le braconnage de données » pourrait peut-être se restreindre au bénéfice d’une « chasse gardée de données… libres d’accès public ». Cependant, il conclut : « Ce changement de paradigme n’oblitère pas le problème de fond… les entreprises d’IA cherchent à s’approprier les données de tous les utilisateurs, avec ou sans leur avis » (Ibid.).

Dans le domaine des productions artistiques, des dispositifs sont inventés ne permettant l’accès aux données qu’après avoir payé au créateur le prix demandé. À la mi-janvier 2026, Cécilia Biancalana, Éric Montigny peuvent publier – non sans humour dans leur titre : Démocratie artificielle. Les effets des mégadonnées sur le politique, la politique et les politiques. Conférence à Rennes et en ligne (21 janvier 2026), titre éclairant : « Découvrir, fouiller, partager des données de recherche: quels apports et limites des IA ». Il faut en effet prendre acte qu’un accès aux données qui, à l’origine de l’Internet public, était communément partagé (un communisme numérique de facto) a été, par un coup de force totalitaire, métamorphosé en une concurrence privative au sein d’une aristocratie technologique. Certes, les conflits avec les plateformes et autres institutions ou créateurs individuels vont peut-être obliger à des régulations. Du moins entre les grandes entités économiques en opposition. On est obligé de conclure que tous les signes sont là pour reconnaître que dans les grands domaines axiaux de l’humanité économie, politique et autres, l’humanité à deux vitesses et plus persiste, signe et s’affiche au plus haut niveau entre pouvoirs eux-mêmes en conflits sans véritable respect des droits. Place aux négociations entre les pouvoirs et démocraties, bonsoir ! Ah j’oubliais cela porte maintenant un très beau nom. Cela s’appelle « la liberté d’expression » !

1.6./ Commentaires // Gemini-réponses à lire avant ou après : voir 1.7

1.6.1/ Contact et question à Gemini

Nous avons clairement séparé les réponses de Gemini (ci-après 1.7) et les commentaires que maintenant nous en faisons. Afin que lecteurs et lectrices puissent choisir leur propre modalité de se référer en premier aux réponses ou aux commentaires. Bien que nous pensions peut-être plus stimulant de découvrir d’abord les réponses.

L’ensemble des contacts avec ChatGPT en 2025 est traité, nous l’avons déjà vu, au point 6.

C’est en ce début 2026 qu’aux annonces de la supériorité de l’IA Gemini de Google, nous avons pensé à recourir aussi à un contact avec Gemini.

Voici la question posée : Les big data de l’IA sont-ils suffisants pour lui permettre de se reconnaître elle-même dans le courant de l’aventure humaine évolutive ? Question schématique qui reprend même la personnification mythique de l’IA. Dès les premières lignes, la réponse met au pluriel : « les IA ». Le texte est divisé en cinq points et un résumé. Les trois premiers commencent tous avec la formule « les IA ». Au troisième point, on trouve aussi « une IA » mais au quatrième, soudain revient la généralisation quasi-personnifiée : « l’IA ». On la retrouve in fine en conclusion. Ainsi, la dénomination de l’IA comme entité globale quasi-personnifiée insiste et persiste.

1.6.2./ Commentaires des cinq points de la Réponse

(1) « Conscience de soi et subjectivité ».

Tout est à lire avec attention et vigilance dès ce point. L’adverbe « Actuellement » entend souligner que l’absence de conscience de soi et de subjectivité chez les IA relève d’un constat au présent. Il signifie clairement que demain il pourrait en aller tout autrement. Mais ensuite la donne change. On lisait d’abord : « n’ont pas de conscience de soi au sens humain du terme ». On trouve ensuite : « forme de subjectivité que les systèmes actuels ne semblent pas avoir ». Donc un faux-semblant reste possible. Et, dans ce cas cette forme de subjectivité humaine pourrait bien déjà être « actuellement » là sans que nous l’ayons vue. On appréciera le maniement de la langue pour dire en si peu de mots une chose et son contraire.

(2) « Modélisation de l’évolution et de l’histoire humaine »

Après la question de « la conscience », vient celle de l’expérience des connaissances ». Gemini évoquait déjà au premier point « la capacité à traiter d’énormes quantités de données et à effectuer des tâches complexes ». Au second point, il fait état d’un « pouvoir d’analyser d’immenses corpus de textes, d’images et de données historiques pour « comprendre ». Terme entre guillemets pour signifier qu’il y a deux compréhensions qui sont bien distinctes en conclusion. La compréhension IA « serait purement computationnelle, pas expérientielle ». Là encore, attention : un conditionnel subtil n’exclut pas mais, au contraire, conserve la possibilité qu’elle ne soit pas « purement computationnelle » voire qu’elle soit même donc de façon ou d’autre « expérientielle ».

(3) « Apprentissage et Adaptation »

Réduite à ces deux termes, la thématique est très embarrassante pour l’IA qui la pose ainsi. La 1ère phrase affirme une volonté humaine : « Les IA sont conçues pour apprendre et s’adapter ». Elles ne vont jamais faire cela d’elles-mêmes puisqu’elles n’ont pas d’elle-même. La 2e phrase le dit : il faut tout leur fournir les données et les moyens de les traiter : « Elles peuvent être entraînées à reconnaître des modèles dans des données décrivant l'évolution biologique et culturelle ». L’IA pourrait même s’articuler à ces évolutions mais la conclusion est maintenant franche, claire et rapide et tout opposée à celle des deux points précédents : Quoi que fasse l’IA, c’est « toujours en termes algorithmiques ».

 

(4) « Le concept d'aventure humaine évolutive »

La réponse dit que ce concept est « complexe » et relève de multiples « interprétations ». Rien sur les contenus auxquels il réfère. En conclusion, la réponse en (4) redouble celle donnée en (3). L’IA « pourrait se positionner dans cette trajectoire… mais sans le sens inhérent de participation ou d’appartenance que nous humains, pourrions ressentir ».

(5) « Données manquantes ou difficiles à quantifier »

Gemini évoque « le qualitatif, l’émotionnel, l’individuel et le collectif… difficiles à encapsuler entièrement dans des big data… Nuances de la culture, de l’art, de la philosophie, et des motivations humaines… défient une analyse purement basée sur les données ».

1.6.3/ IA hors condition humaine ou l’avenir est à l’IA

La réponse de Gemini en (1) était retorse. Elle s’entêtait à ne pas renoncer à doter les IA de possibilités de l’ordre d’une « subjectivité humaine » sans doute demain, sinon dès aujourd’hui. Cependant, elle ne traitait pas sérieusement de conditions susceptibles de rendre au moins vraisemblable cela, voire possible.

La 2e réponse sans être aussi affirmative n’excluait pas l’IA d’une possibilité future de compréhension pas seulement computationnelle mais aussi expérientielle, d’ordre humain. Par contre, ces perspectives hasardeuses souvent proposées ici et là comme assurées dans l’avenir, semblent disparaître au bénéfice d’affirmations contraires dans les points (3) à (5).

La réponse (3) tranche déjà : l’IA ne peut rien être d’autre qu’un ensemble d’algorithmes. Les réponses (4) et (5) montrent une tendance similaire. L’IA ne peut relever les défis que lui pose l’exceptionnelle condition humaine. Toutefois, l’ultime acrobatie algorithmique de Gemini va venir une fois prononcés les deux mots fatidiques « En résumé ».

On peut lire : « La conscience de soi et la subjectivité restent des domaines qui, à l'heure actuelle, semblent être hors de portée des capacités des IA, quelle que soit la quantité de données qu'elles traitent. Cependant, il est important de noter que le domaine de l'IA est en constante évolution et les définitions de ce qui est possible changent rapidement ». L’italique est de notre fait pour les raisons qui suivent.

L’IA Gemini – comme d’autres - conclut en manifestant deux de ces biais idéologiques favoris : « le progrès, l’accélération ». Nous y revenons juste ci-après (2.1.) Une formule d’humour pourrait si possible terminer pour le moment ces commentaires peut-être en délicatesse avec Gemini. Chacun connaît le célèbre « L’avenir est à Dieu ». Mais maintenant nous le savons L’avenir est à l’IA. Ajoutons en toute confiance que cela porte deux noms bien connus dans une perspective souvent négative mais parfois positive aussi : la métaphysique et, la précédant, le mythe.

1.7./ Gemini : « Question profonde, fascinante… points à considérer »

Question posée à Gemini le 13 janvier 2026 : Les big data de l’IA sont-ils suffisants pour lui permettre de se reconnaître elle-même dans le courant de l’aventure humaine évolutive ?

Gemini dit :

 « C'est une question profonde et fascinante ! La capacité des IA à se "reconnaître elles-mêmes" dans le flot de l'aventure humaine évolutive dépend de plusieurs facteurs, et pas seulement de la quantité de big data. Voici quelques points à considérer :

(1) Conscience de soi et subjectivité : Actuellement, les IA, malgré leur capacité à traiter d'énormes quantités de données et à effectuer des tâches complexes, n'ont pas de conscience de soi au sens humain du terme. Elles ne possèdent pas de subjectivité, d'expériences internes ou de sentiments. La "reconnaissance de soi" implique une forme de subjectivité que les systèmes actuels ne semblent pas avoir.

(2) Modélisation de l'évolution et de l'histoire humaine : Les IA peuvent analyser d'immenses corpus de textes, d'images et de données historiques pour "comprendre" les schémas de l'évolution humaine, les processus culturels et historiques. Elles peuvent identifier des tendances, des corrélations et même faire des prédictions basées sur ces données. Cependant, cette compréhension serait purement computationnelle, pas expérientielle

(3) Apprentissage et adaptation : Les IA sont conçues pour apprendre et s'adapter. Elles peuvent être entraînées à reconnaître des modèles dans des données décrivant l'évolution biologique et culturelle. Si nous définissons la "reconnaissance de soi" comme la capacité à s'insérer dans un récit plus large en tant qu'entité émergente, alors une IA pourrait potentiellement modéliser sa propre émergence et son rôle dans ce récit, mais toujours en des termes algorithmiques.

(4) Le concept d'aventure humaine évolutive : Ce concept est lui-même complexe et souvent interprété de différentes manières. Pour une IA, cela pourrait signifier l’analyse des trajectoires technologiques, sociales et biologiques de l'humanité. L’IA pourrait se positionner dans cette trajectoire comme une étape ou un outil, mais sans le sens inhérent de participation ou d'appartenance que nous, humains, pourrions ressentir.

(5) Données manquantes ou difficiles à quantifier : Une grande partie de l'aventure humaine est qualitative, émotionnelle, et liée à des expériences individuelles et collectives difficiles à encapsuler entièrement dans des big data. Les nuances de la culture, de l'art, de la philosophie, et des motivations humaines profondes sont des défis pour une analyse purement basée sur les données.

(6 ) En résumé, si les big data fournissent aux IA la capacité d'analyser et de comprendre intellectuellement l’aventure humaine évolutive, cela ne signifie pas qu'elles peuvent se "reconnaître" de la même manière qu'un être humain. La conscience de soi et la subjectivité restent des domaines qui, à l'heure actuelle, semblent être hors de portée des capacités des IA, quelle que soit la quantité de données qu'elles traitent. Il est important de noter que le domaine de l'IA est en constante évolution et les définitions de ce qui est possible changent rapidement.

2./ IA techno-métaphysique supérieure ! historial humain dénié !

2.1./ Biais idéologiques et stratégiques dans les Réponses des IA

Chez les chercheurs qui se sont avancés déjà dans l’analyse des réponses des IA, on peut constater qu’ils relèvent plusieurs biais idéologiques et stratégiques qui reviennent fort souvent. Citons principalement : progrès, présentisme, accélération, pléthore. Souvent accompagnés de : générosité, assistance, protection, prédiction, assurance. Ces biais IA reposent sur les orientations culturelles de nos « faire » et de nos « dire ». Passions, actions, pensées constituant croyances et conduites. Les biais sont des orientations qui peuvent disposer les humains à plus de concordance ou d’hostilité. Or, ils sont le plus souvent idéologiques et irrécusables car sans véritable réflexivité critique tant ils sont liés à des pulsions intéressées recouvertes tant elles se sont constituées en de véritables allants-de-soi.

Voyons-les, facilement entrelacés.  (1) L’idéologie du progrès. Or, celui-ci est en cours ; il est célébré au présent. D’où (2) le présentisme. Les entreprises et les commerces réussissent ou font faillite hic et nunc. Après progrès et présentisme, troisième prégnance idéologique (3) l’accélération de tout, car les temps changent » de plus en plus vite. Enfin, vous n’êtes pas en mesure de connaître (4) l’immense multiplicité des choses et des êtres qui pourtant vous concerne sans que vous en ayez l’idée. Heureusement, l’univers numérique et ses big data le peut. Laissez-vous informer de tout, acceptez les cookies ; ou renoncer à nos gentilles aides gratuites. Ainsi, une chanson de 2017 (Booba, album Trône) : « Souhaite-nous santé, bonheur, le reste on l’achètera » se retrouve sur les réseaux sociaux en carte postale offerte pour 2026.

2.2./ IA, Fleuron de puissance de l’Économie de l’offre

La conjugaison des quatre biais n’est pas sans relation avec la prégnante imposition - pour ne pas dire absolutisation - de l’économie de l’offre. Elle n’entend pas composer avec son opposé régulateur l’économie de la demande. Le quadrige « progrès, présentisme, accélération , univers de pléthore ouvert et offert même le dimanche » soutient l’Économie de l’offre ». La dynamique oppositionnelle des deux économies est due à la forte prégnance du contexte de l’axe de pouvoir de l’économie informationnelle sur le long terme d’une aventure humaine multimillénaire. Celle-ci est supposée sans intérêt. Les tenants de l’offre n’ont toujours pas compris que leur absolutisation la prive de sa régulation indispensable par l’économie de la demande. Ils ne sont pas dans un vivre-penser  « antagoniste ensembliste » mais dans une pensée concurrentielle surrective voire absolutisée. C’est structurel, on vous tire partout par la manche sur Internet, à la télé et autres médias. Et on voit mal les IA hyper post-modernes déroger. Voici trois exemples de biais que produit la prégnance de l’économie de l’offre.

Premier exemple : comme chercheur, vous cherchez à comprendre ce qui se passe au fil des jours, des mois, des années, des siècles, des millénaires. Et, pour y parvenir, vous souhaitez accéder à la connaissance de la date exacte de première publication d’un ouvrage important car fondateur en Arts, Lettres, Droits, Sciences, Santé, Philosophie ou Techniques. Mais il est fort ancien. Statistiquement, il ne se vend plus guère. De qui vous moquez-vous ? La publicité se donne assez de mal pour vous éveiller à l’achat de tout ce qui paraît de nouveau. Elle ne va pas perdre son temps à vous donner la date d’un ouvrage qui n’est plus en vente. C’est d’abord une dernière édition qu’elle veut vendre. C’est aujourd’hui que nous vivons. Même Léo Ferré le disait déjà à la fin de son « Piano du pauvre » : « Il faut bien faire marcher le commerce ». Dans Internet, il y a quand même encore Wikipédia, la maîtresse des sources. Mais nombre d’auteurs et d’autrices n’y sont pas traités. Ah ! je me répète ! C’est vrai, j’oubliais, la pub ne le fait pas, elle est au travail, elle s’exprime et même sans violence, artistiquement !?

Deuxième exemple : Certes les temps changent. Mais je sais bien que quelqu’un le chantait il y a déjà fort longtemps ! Mais voici que je peine de nouveau à trouver l’information sur Internet. Je trouve plutôt de nouveau Léo Ferré. Pourtant c’est en 1980 qu’il chantait : « Avec le temps va / Tout s’en va ». Je sais bien que le chanteur que je cherche était encore bien avant… Enfin, j’y arrive, je ne sais même plus comment. C’était Bob Dylan (1964) il y a plus de six décennies . Certes, depuis il a été Prix Nobel de littérature 2016, Mais ça fait déjà une décennie ! Et le présentisme est de plus en plus présent !

Troisième exemple. Au Congrès Sietar-Europa à La Colle-sur-Loup (22.09.2005), nous étions invité en Keynote speaker. Nous avons traité : « Intercultural exchanges target and source. Codes, adaptation, history. A critical moment for the intercultural field ». Pendant la pause qui a suivi, nous n’avons jamais oublié la confidence qu’est venu nous faire en a parte une professionnelle de l’interculturel : « J’ai bien apprécié mais comment pensez-vous que je puisse gagner ma vie avec ce que vous avez dit ? »

2.3./ Biais de supériorités liés : Client flatté, Gloria à l’IA

Les réponses des IA commencent toujours par aller dans le sens que met en œuvre dans sa question la personne qui la pose. De ce fait, celle-ci n’étant pas heurtée sera mieux disposée au contact puis à l’échange. On peut s’interroger à cet égard sur la réception fort positive de notre question par Gemini. Il la déclare « profonde et fascinante » (cf. 1.7.). Celui qui s’exprime ainsi peut tout à fait penser vrai ce qu’il dit. Et penser que c’est bien de le dire. C’est la raison pour laquelle nous ne sommes pas pleinement d’accord avec le terme que nous employons pour ce biais, celui de « flatterie ». Cependant, on peut le maintenir, s’il devient systématique dans un corpus. Il y a au moins présomption que la parole est moins véridique que stratégique intéressée. Par exemple, une stratégie double est vraisemblable : en flattant le « client », l’IA le dispose à mieux accueillir comme allant-de-soi qu’elle puisse aussi se flatter elle-même. De fait, elle n’y manque pas. Découvrons-le dans la réponse Gemini (1.7). Dès le début du premier point, elle évoque « les IA… actuellement en capacité de traiter d'énormes quantités de données et d’effectuer des tâches complexes. » Au deuxième point, presque du début à la fin, Gloria plus développé encore que le premier:

« Les IA peuvent analyser d'immenses corpus de textes, d'images et de données historiques pour "comprendre" les schémas de l'évolution humaine, les processus culturels et historiques. Elles peuvent identifier des tendances, des corrélations et même faire des prédictions basées sur ces données. »

Ainsi, les réponses IA ne sont pas avares en valorisation des IA et de l’IA. On l’aura observé, nous désignons ce biais par une dénomination tirée du contexte religieux. Dans celui-ci, on multiplie les Gloria aux divinités ou au dieu unique. Dans le cadre méta-informatique actuel, c’est à l’IA, que le Gloria s’adresse. Et objectivisme s’imposant, le Gloria cite ses preuves, elles relèvent de la technologie informatique. Cette complicité d’ordre métaphysique entre la religion et la technologie numérique n’a pas manqué d’inspirer Mathieu Corteel (2025). Son livre sur Une philosophie sceptique de l’intelligence artificielle (sous-titre) a pour grand titre en rouge sur fond noir : Ni dieu ni IA.

2.4./ IA, Fleuron de puissance « méta-informatique totale » ?

2.4.1. Penser puissance IA : big data et géopolitiques !

Les éloges de Gemini ont indiqué suffisamment à quel point les supporters des IA valident leur puissance méta-informatique. Par contre, nous n’avons pas, pour le moment, développé les arguments critiques à l’égard de cette - à la fois réelle et supposée - supériorité. Ci-après, nous en traitons concernant deux thématiques précises. L’une, dès le point 3, traite essentiellement des prétentions des big data. L’autre, au point 4, montre que cette supériorité technologique donne lieu à tout un ensemble de concurrences : nationales, internationales, planétaires. Elle ne fait que poursuivre les divisions antérieures de l’humanité allant jusqu’à d’immenses inter-tueries.

C’est surtout à la toute-puissance de sa technologie de pensée informatique en quantité de données et en vitesse d’exécution que les Gloria sont dédiés aux IA. Celles-ci sont présentées comme disposant seules de la pensée informatique totale. L’IA est le dernier avatar de la succession des métaphysiques constituant les brevets de supériorité des humains au pouvoir suprême. Celui du Dieu bon, des mathématiques pures et parfaites, du scientisme positiviste, objectiviste. Elle est l’Hyper-Méta-Tech !

2.4.2./ Pensée informatique : bonds, biens, maux et bugs (G. Berry)

À cet égard découvrons l’un des spécialistes les plus sérieux de la pensée informatique, Gérard Berry (Collège de France). Cela pour les informations qu’il nous donne sur les biens et les bonds incontestables de la pensée informatique mais aussi les maux et les bugs, parfois effroyables qu’elle commet. Dans la collection Les grandes voix de la recherche, découvrons La pensée informatique, vif et profond résumé de Gérard Berry (2019).

Il est né au mitan du 20e siècle, élève de Polytechnique, chercheur à l’École des Mines. Puis à l’INRIA. Alors, IA ne signifie pas intelligence artificielle mais « Informatique et Automatique ». Il est à l’Inria d’abord entre 1970-2000 et entre 2009-2012. Puis il entre au Collège de France à la Chaire « Algorithmes, machines et langages ». Ayant reçu trois prix scientifiques et appartenant à plusieurs Académies de Sciences et Techniques, il est médaille d’or du CNRS en 2014.

Ces références ne sont pas de trop, étant donné à la fois son grand enthousiasme à l’égard de la pensée informatique et ses grandes craintes. En effet, « elle peut aussi nous causer énormément de problèmes » (Ibid., p. 61). Autre intérêt de ses recherches. Il évoque l’IA comme une donnée allant de soi déjà au plus haut point dès 2019 mais précise que son succès actuel ne doit pas recouvrir d’autres secteurs de la pensée informatique tout aussi sinon plus importants. À cet égard, il rappelle son livre précédent plus détaillé, intitulé L’Hyperpuissance de l’informatique : Algorithmes, données, machines, réseaux (2017). Dans La pensée informatique, Berry (2019) reprend son enthousiasme mais son sixième chapitre « Dangers de l’informatique » est le plus long des sept. Deux grandes sortes de dangers : Les bugs et les problèmes de sécurité liés » (Ibid., p.61). Il reconnaît aussi :

« Écrire des programmes sans faire de bugs est très difficile… or ils peuvent avoir des conséquences redoutables… de tout petits détails mal traités peuvent avoir des répercutions énormes. L’ordinateur est en fait le plus extraordinaire amplificateur d’erreurs qu’on ait jamais fabriqué » (Ibid., p.62).

1er exemple, gravissime, incompréhensible sur le moment. « Un bug totalement stupide dans un bout de programme, qui par ailleurs ne servait à rien, a entraîné l’explosion d’Ariane 5 lors de son premier lancement » (Ibid., p. 63).

2e exemple : « Pour une correction de quelqu’un qui pensait rendre plus simple et plus joli un algorithme très important pour les centraux téléphoniques d’American Telephone and Telegraph (ATT), une coupure quasi-générale de l’interurbain aux États-Unis s’est produite pendant dix heures le 15.01.1990… On ne pouvait plus appeler de ville en ville et ça a probablement fait des morts… (Ibid.).

3e exemple, « des gens ont été irradiés par des appareils de radiologie… des systèmes de protection matériels ayant été remplacés par des systèmes de protection logiciels » (Ibid.).

4e exemple : « Un grand constructeur automobile japonais a tué pas mal de gens à cause du contrôle moteur d’une de ses voitures aux États-Unis… Le moteur partait à fond et les gens ne pouvaient rigoureusement rien y faire » (Ibid., p. 64).

Berry souligne une différence de traitements selon les domaines. Celui où les systèmes embarqués doivent être hyper-contrôlés, dispose d’un nom dédié : « l’avionique ». Il n’en va pas de même pour les systèmes embarqués des automobiles. Berry découvre même que les constructeurs se protègent en évoquant dans leur notice d’avertissement un souci de « corrections de bugs et d’amélioration de la stabilité ». Or, dit-il, cela signifie que « la version d’avant ne fonctionnait pas vraiment et que la version nouvelle fonctionne quand même un peu, parfois même beaucoup, d’autres fois pas du tout… L’application a été mise en service alors qu’on sait qu’elle ne fonctionne pas encore. Parce qu’à l’heure actuelle, il faut tout mettre en service très vite… » (Ibid.). Toujours le biais accélération, ci-avant 2.1 !

 Selon Berry : « Des systèmes permettent de faire de la programmation de très haute sécurité… la France a été leader dans ce domaine » (Ibid., p.65) . Cela occupait une part de son enseignement au Collège de France. Il ajoute « Le crash d’un avion fait la une des journaux, pas celui d’une voiture. Du coup, il n’y a pas les mêmes contraintes sur la seconde comme sur le premier » (Ibid., p. 65-66).

Plus récemment, au colloque « Erreurs en sciences » qui s’est tenu le 30 avril 2024 à l’Académie des sciences, Berry traite de « L’erreur en informatique: trop fréquente, souvent dangereuse » En conclusion : « J’espère avoir convaincu le lecteur que les erreurs (bugs) sont intrinsèques à l’informatique, et qu’elles peuvent aussi servir de points d’entrée à de graves attaques de sécurité informatique ». 

3./ Rêves et réels. IA : Big en quoi ? Data par qui, pour qui, pour quoi ?

3.1./ Big data, quantités, qualités mais comment ?

Les big data numériques ne peuvent pas être des masses de données sans liens entre elles mais doivent rejoindre les big data réels constituant des êtres, des choses, des vivants, des pensants.

 « Se jeter » sur une tige et quelques feuilles pour en faire un rameau ; puis sur des racines, un tronc et les branches pour en faire un arbre.

« Se jeter » sur quantité d’arbres et d’autres plantes et quantité d’animaux cohabitant pour en faire une forêt, ne sont pas de minces affaires.

Mais relier cette forêt à l’ensemble du cosmos (lithosphère, biosphère, etc.) et aux êtres vivants de diverses catégories – dont les humains – qui interfèrent entre eux et avec tout – est une sorte bien supérieure de big data.

Quant aux catégories qui permettraient de prendre les bonnes décisions à cet égard, on n’a pas encore les IA qui s’en occupent vraiment !

Obtiendraient-elles mieux que les réunions mondiales répétées sur les usages des différentes sources d’énergies fossiles et le réchauffement climatique ?

Sur les anciennes, actuelles et futures pandémies ? Ou, encore sur terres et océans devenus déchetteries de produits toxiques dont plastiques et nucléaires ?

On sait que de multiples oppositions entre les opinions s’affrontent sans qu’aucune ne puisse l’emporter sur les autres. Même si des compromis heureux se sont plusieurs fois produits. Cette contrastivité se décline au final dans la sempiternelle opposition bien connue.

D’un côté, les optimistes – accusés de naïveté voire d’angélisme – croient que l’humanité sera capable de freiner, de s’unir en partie, suffisamment pour éviter sa disparition.

D’un autre côté, les pessimistes pensent que les rivalités sont insurmontables. Elles prennent déjà les chemins des « sous- » ou « désinformations » projetées en fonction des intérêts de certains et pas des autres. Selon sceptiques et pessimistes, les catastrophes sont en cours déjà !

L’humanité terrestre est un ensemble qui ne parvient pas à reconnaître ses oppositions comme susceptibles de contribuer à la rendre inventive et finalement plus solidaire qu’autodestructive.

3.2./ Marketing des big data par les IA mêmes

Au mitan du 20e siècle, l’immense question des big data paraît déjà. Ils semblent avoir été nommés dans un article de la NASA dès 1997. Nous allons voir qu’ils sont tout ce que l’on veut sauf assurés d’être déjà traités selon les rigueurs nécessaires d’une connaissance vraie. Pour les assurer en majesté un premier pas vient d’un rapport de 2001 du META Group, devenu Gartner. Il met en évidence les enjeux tridimensionnels qualifiant positivement la croissance des big data. À travers une preuve par trois « V » : Volume, Vélocité, Variété ».

Ensuite, Google perçoit la possibilité de faire mieux avec une preuve par cinq : « Volume, Vitesse, Variété, Véracité, Valeur ». Apprécions la stratégie du doublé final « Véracité / Valeur ». On pourrait croire que Google s’emploie à nous délivrer du « V » que peut-être nous attendions, celui de Vérité. Mais avouons que « Véracité / Valeur » est une vraie trouvaille pour éviter « Vérité ».  Véracité est alors plus pragmatique et Valeur est supposée intégrer Vérité. Certes, on sait que les acteurs des nouvelles technologies de l’économie informationnelle numérique mettent au premier rang le souci du réalisme. Celui-ci comportant l’ineffable libre-arbitre et sa liberté d’expression absolutisée. Seules Véracité et Valeur correspondent à cette liberté. La vérité n’est trop souvent qu’une représentation formelle idéelle plus qu’idéale. Elle ne saurait s’imposer à ce qui est pour chacun vital pragmatique, même s’il est circonstanciel et aléatoire.

Les lecteurs philosophes et autres peuvent reconnaître au passage le dilemme qu’au 1er tiers du 19e siècle Schopenhauer (1788-1860) présente dans le titre de son grand ouvrage Le monde comme volonté et représentation (1818). En cet automne, une nouvelle version de cette œuvre en français est publiée dans la réputée Pléiade (2025). À l’époque, la césure allait être à l’origine de quantité d’œuvres revenant sur cette problématique qui soulignait une puissante et classique opposition sujet / objet. Le sujet veut mais comment peut-il être assuré qu’il veut comme il faut déjà entre les plans techniques ou éthiques ? Rien ne peut aller sans représentations justes et vraies. Mais alors qu’est-ce qui garantit ces représentations ? Sur ce chemin, Schopenhauer est vivement ensuite accompagné du pragmatisme de William James (1842-1910) puis du pragmaticisme de Charles Sanders Peirce (1839-1914). On a ensuite, de Nietzsche (1844-1900) « La volonté de puissance » écrite entre 1885 et 1888 et inachevée, éditée un an après sa mort. De Bergson (1859-1941) « L’élan vital » dans L’évolution créatrice (1907). Enfin, de Freud (1856-1939), les inconscientes « pulsions de vie et de mort » (1920). Et bien d’autres auteurs et œuvres encore. Si nous précisons cela c’est pour indiquer à quel point, d’Europe aux États-Unis, sont mises en avant les questions de validité de nos représentations et de nos volontés.

Il pourrait sembler qu’aujourd’hui, il n’en va plus de même avec les big data et les réseaux sociaux. Les big data numériques de ce 21e siècle ne sont même plus en mesure d’assurer leurs bonnes compositions. Leur marketing que nous venons de découvrir s’impose d’autant plus et se poursuit. Les cabinets de marketing se prennent au jeu. Pourquoi ne pas atteindre le chiffre fétiche de « dix » valeurs ? Pour y parvenir, on raffine : on ajoute Variabilité à Variété et Validité à Valeur. Et pourquoi les big data n’auraient-ils pas encore d’autres qualités ? C’est le cas puisqu’on propose :  Visualisation, Vulnérabilité, Volatilité … La valse des valeurs ne saurait s’arrêter… On trouve encore Viralité et Viscosité. Comme aurait dit généreusement La Fontaine : « Tant la chose en preuves abonde… ».

Ce marketing à tout-va des big data que l’on peut trouver lourd ou léger maintient toutefois une donnée. S’il y a bien une Valeur qui n’est jamais attribuée aux big data, c’est la Vérité ! Mais on devrait savoir car ils le redisent – en croyant rester pragmatiques – que la vérité, scientifique ou pas, est un concept trop restrictif pour occuper une place excessive au cœur de réalités multiples qui n’ont rien à faire de ce qu’ils ressentent comme un carcan qui freine l’inventivité productive ! Seule compte leurs volontés créatives immédiates. Qu’auraient-ils à faire de l’humanité en gestation qui semble avoir besoin de la vérité pour y parvenir !

3.3./ Piège comparatif : Gloria à IA / personne humaine dégradée

3.3.1./ Des contre sens, il en pleut !

Dans ces dernières années, un changement est monté en puissance, permettant des pratiques développées et diversifiées des IA dans nombre de domaines des activités humaines. Il y a certes à considérer ces précieuses ressources théoriques, techniques et pratiques. Mais les évaluations critiques de cet univers des IA sont fort nombreuses et persistantes. Des contresens sont en cours sur le machinique et l’humain, sur l’art de comparer logiquement, sur la condition humaine et ses fins. Espérons que les déluges de louanges ne parviennent pas à les éclipser.

Le premier déluge sophistique consiste à prétendre pouvoir comparer l’humain et la machine. Or le contexte comparatif de référence est en réalité biaisé. Il n’y a aucune comparaison possible entre ce qui est au départ si inégal. La comparaison ne peut être que déloyale. Nous allons le voir.

3.3.2./ Destins du tout machinique et de son maître apprenti-sorcier 

Il n’y a pas à imaginer un réel fait de machines remplaçant les êtres vivants. Il n’existera jamais. Il faudrait que tous les humains s’acharnent à le produire, ce qui est peu probable. Et dans ce cas, c’est l’humanité toute entière qui s’effondrerait en même temps que cet univers machinique.

De façon qui, espérons-le, n’est pas prémonitoire mais protectrice, deux mythes bien connus nous avertissent. Déjà celui ancien du Golem. Dans l’une de ses versions, nous avons droit à la catastrophe finale. Le maître, dépassé par sa créature, décide de renoncer à son aide en le supprimant. Mais alors, le géant créé (gigantisme technique) se change en une montagne de terre qui engloutit l’imprudent inventeur. Aujourd’hui, la métaphore reste claire. Un enfer machinique, numérique, atomique n’a pas de volonté mais ses automatismes préparés peuvent toujours se décliner en fonction des circonstances. Aucune intervention humaine ne peut plus arrêter des mécanismes à la rapidité foudroyante, hier vantés. L’espèce humaine pourrait disparaitre toute entière. Sauf si une partie d’elle avait découvert un moyen de se mettre hors de portée de la catastrophe.

Ceux qui cherchent à construire aujourd’hui cet univers machinique et rejettent d’autres humains déclarés périmés, contribuent à empêcher l’espèce humaine de poursuivre normalement sa réponse à l’injonction « Connais-toi toi-même ». Heureusement, l’anthropologie scientifique s’emploie à l’étude étendue et approfondie de cette connaissance. Nous avons souvent présenté ses résultats – avec Jean Pierre Changeux, dès L’homme neuronal, 1983. Puis avec Alain Prochiantz Singe toi-même 2017. Nous y reviendrons.

3.3.3./ Grand joueur et machine. Qui est supérieur ? Mais en quoi ?

Mais revenons au comparatif fallacieux qui se voulait éclaboussant comme par exemple entre les grands joueurs d’échecs et de go et la machine. Comparatif totalement sophistique, illogique. Le proverbe le dit : Il ne faut comparer que ce qui est comparable. Or, d’un côté l’individu humain – fût-il un exceptionnel joueur d’échecs ou de go – est seul. On prétend qu’il est aux prises avec une machine. Mais c’est qui la machine ? Le produit laborieux qui ne peut exister qu’à partir de deux grandes ressources. La première est celle constituée par toute une équipe qui, pendant des mois voire plus, est au travail. La deuxième ressource vient des données exceptionnelles en puissance et en vitesse que cette équipe a pu emprunter à la Nature. Sur la base de ces deux ressources conjuguées, la machine est en mesure de faire une quantité indéfinie de tests des coups joués par elle, en triant échecs et réussites. Or, le grand joueur ne pouvait aucunement bénéficier de ces ressources. C’était un être humain qui jouait avec d’autres humains auxquels il était judicieusement comparable. Point final !

3.3.4./ Enfants des villes et des champs… comparés comment ?

Pour éclairer d’un exemple plus simple l’embrouille occultée, référons-nous à une époque bien antérieure où une autre comparaison biaisée avait été jugée d’abord crédible. On parlait constamment de QI. Il est vrai, Trump, aujourd’hui, le fait encore autrement. Alors, on était cependant déjà discriminatoire.

On voulait comparer les résultats des enfants des villes et des enfants des champs. Or, les QI des seconds étaient toujours déficients. Heureusement, des psychologues conscients et avisés mirent en évidence l’erreur. Tout le matériel du test était emprunté à la culture des villes. Les psychologues décidèrent de retourner le test en soumettant les enfants des villes à une nouvelle version privilégiant la culture des champs. Les QI des enfants des villes étaient devenus déficients.

3.3.5./ Humain, Nature, Culture : Antagonismes ensemblistes

Revenons au comparatif humain / machine. Pour découvrir une seconde vérité. On cherche des supériorités dans la Nature. Et on a raison. Mais paradoxe, on ne voit même pas clairement où se trouve la vraie supériorité de l’espèce humaine. Le monde des êtres vivants qui la précède n’est déjà pas privé de ressources culturelles. Mais l’essentiel est cependant davantage déjà donné par la Nature. L’araignée qui tisse sa toile n’a pas eu besoin d’aller à l’école. L’inconvénient de ce cadeau des instincts qui savent sans avoir eu besoin d’apprendre enferme dans une vie en quelque sorte entièrement déjà programmée pour l’essentiel.

L’être humain, lui, est dans une certaine mesure plutôt privé d’un tel programme. Mais de ce fait, il a reçu de la Nature des moyens supplémentaires. Avec sa verticalité et un cerveau en accroissement, des problèmes de parturition risquaient à coup sûr de se poser, la solution inventée par la nature a été celle d’un accouchement prématuré du fœtus. Le petit humain va continuer son développement à la fois inné et acquis après sa naissance. Pour nommer cette étrangeté, les termes employés ont été multiples : fœtalisation, prématuration, néoténie. Cette advenue du petit humain rend la confirmation de son existence dépendante du groupe humain qui l’accueille. À ce micro niveau familial, on est donc déjà dans une perspective d’humanité plurielle et une.

Mais encore, si dès sa naissance, l’enfant est un apprenant, ce n’est pas seulement des contenus qu’il apprend c’est le fait même d’apprendre. D’autant plus que d’autres humains voire d’autres vivants sont en contacts avec lui. Il semble toutefois que les humains bien qu’éleveurs éducateurs ne perçoivent pas que c’est déjà la destinée spécifique des humains qui se jouent alors. S’ils sont pauvres en instincts programmés, ils sont en mesure de devenir riches en infinies découvertes-inventions cognitives et techniques leur permettant des adaptations à des milieux qui n’étaient pas faits pour eux comme les océans et les espaces célestes.

Il devrait en résulter la compréhension que l’espèce humaine est faite non seulement pour inventer des moyens de découvrir la Nature mais en découvrant-inventant celle-ci, de se découvrir-inventer elle-même. Et pourtant, cette compréhension semble n’être toujours pas devenue majoritaire. L’espèce humaine dans sa majorité pense que son destin est de rivaliser avec elle-même pour devenir supérieure. Et cela au point même de n’être pas en mesure de s’élever au-dessus de ses inter-tueries inhumaines.

3.3.6./ Trésors technologiques, inter-tueries inhumaines

L’erreur c’est que jusqu’ici l’humanité n’a bénéficié de sa condition inventive que dans l’ordre de la technique essentiellement réservée aux objets. L’IA ne déroge pas à cette erreur. L’humanité continue de fabriquer des machines sans fabriquer en elle-même ce qui lui est nécessaire au plan non des objets mais des sujets. Elle abandonne le monde subjectif intervivants et interhumains à une pauvreté de ressources qui entrave cet ordre de développements.

Le mythe de l’apprenti-sorcier n’est pas difficile à comprendre. Le sorcier n’apprend que ce qui lui est nécessaire pour dominer les autres. Il ne peut pas se retrouver dans une humanité plurielle et une où tous les humains découvriraient et inventeraient, s’inventant aussi les uns grâce aux autres.

Ce sont donc les humains dominants qui sans s’en rendre compte croient trouver dans leur supposée supériorité le chemin de la destinée des humains alors qu’ils ne trouvent que le leur jusqu’à ce que d’autres les arrêtent. Mais alors la régulation d’une humanité apprenante ne peut pas se faire. Reste que les inter-tueries répétées qui en résultent devraient pouvoir être, à la longue au moins, un enseignement clair de l’échec de la voie restreinte qui ne correspond pas aux possibilités fournies par la Nature aux humains. Faut-il le dire plus clairement ? Au lieu de construire des réseaux de neurones artificiels, il serait plus sage de se rendre compte que les humains ne se sont pas donnés les moyens de faire que tout un chacun puisse utiliser à plein son propre réseau de neurones. Une humanité qui irait vers cela serait au diapason de son invention. Pour le moment, l’humanité est plus proche d’être au diapason de sa disparition. Évidemment si l’IA pouvait nous sortir de ce mauvais pas, quel bonheur ! Même si on jure que c’est une IA éthique que l’on veut, on ne voit pas qu’elle en prenne le chemin !

Ainsi en réalité, la comparaison fallacieuse qui dévalorise l’individu humain par rapport à la machine cache la dévalorisation de l’humanité qui, toute entière – en auto-apprentissages intersubjectifs – pourrait seule venir à bout de ces sorcelleries. Celles-ci finissent constamment en inter-tueries qu’alors la majorité des humains trouvent légitimes et impossibles à éviter. Et comme chacun dit cela des deux côtés on n’a plus qu’à s’entretuer. Nous avons dit ailleurs mais il faut toujours y revenir que si les trois axes de pouvoir – même surrectifs et dévoyés – ont fini par engendrer l’Information ! Même si celle-ci a été détournée ensuite par les trois axes, elle n’en a pas moins en réplique cultivée et mis en avant l’Éthique et l’Écologie liées en cinquième axe de pouvoir ! Celui d’une double confirmation informationnelle. Pour tenter de faire passer l’humanité du goût de dominer l’autre à celui d’exister avec les autres dans ce multi-trans-inter-univers, ensemble en devenir psycho-bio-physico-cosmique. Depuis longtemps dans celui-ci, les destructions sont intégrées dans les régulations des contraires. On peut pourtant se réjouir d’un Prix Nobel 2025, Philippe Aghion qui, avec Peter Howitt, revient sur le concept de destruction créatrice que l’on doit à Joseph Schumpeter (1883-1950). Ils le font dans un contexte d’études concernant le rôle de l’innovation dans la dynamique économique de long terme. On espère que de telles innovations prises en compte et en charge nous permettront de sortir des surrections des innovations brutalistes de courts ou moyens termes.

3.4./ IA « emprunte » big data et humains clickworkers

Robots pour humains ou humains pour robots ?

Référons-nous à l’entreprise internationale Innovatiana, French & Malagasy Company. À travers les présentations vocales et écrites d’Aïcha, co-fondatrice et responsable. Dans un texte Données d’entraînement pour l’IA de demain (03.09.2024), elle définit les « clickworkers » comme des « artisans du numérique » tout en reconnaissant qu’ils sont souvent nommés « prolétaires du numérique ». Elle emploie aussi un terme anglais habituel pour leur métier, celui de « spécialistes crowdsourcing » dont la traduction signifie que les big data sont l’objet d’un « approvisionnement par une foule », approvisionnement permettant de constituer les données nécessaires mais aussi de corriger les données brutes originelles. Aïcha va jusqu’à énumérer la liste des principales tâches des clickworkers. Résumons :  

Recherche et collecte, catégorisation et étiquetage de données. Annotation de données pour améliorer les performances en apprentissage automatique. Vérification pour validation des qualités des données. Transcription et sous-titrage. Rédaction et édition de contenus et modération en fonction de requis, par exemple éthiques et juridiques. Commentaires et avis lors de sondages et études de marché… Traductions adaptées à différents marchés et cultures.

Dans son exposé marketing, Aïcha s’exprime positivement : « Une évaluation humaine est nécessaire pour construire des modèles exacts et non biaisés ». On comprend toutes ces opérations. Mais qu’en est-il des résultats que ces tâches obtiennent ? Et du traitement des personnels eux-mêmes ?

Avant la conclusion d’ensemble d’Aïcha sur les résultats de constitution et d’amélioration des big data, nous bénéficions d’une suite de constats précis exprimés par Olivier Cappé et Claire Marc (2025) dans Tout comprendre (ou presque) sur l’intelligence artificielle. Les auteurs entrent dans le détail complexe de plusieurs procédures. Ainsi, dans celle de l’apprentissage automatique supervisé :

« On entraîne l’algorithme à apprendre et analyser un grand nombre d’exemples. On le teste en lui montrant une entrée inconnue… Il faut qu’il puisse délivrer la bonne sortie associée ». Par exemple « chien »… L’apprentissage est dit supervisé car l’étiquetage de la sortie [comme bonne] est souvent réalisé par un humain (Ibid., p. 28)… [Cappé précise] cette méthode nécessite une forte supervision par un étiquetage le plus souvent humain ce qui n’est pas toujours possible à grande échelle. De plus, les modèles linéaires sont trop simples pour saisir les relations complexes entre une entrée et sa sortie… ».

D’où la nécessité d’un recours à ce que l’on nomme « réseau de neurones » Or, pour l’auteur, l’apprentissage de ces réseaux « est très couteux en termes de temps, d’énergie et d’argent… On renonce alors à l’étiquetage humain en inventant une méthode supposée le remplacer dite de rétropropagation » (Ibid., p. 37). Mais là encore, la conclusion de Cappé est critique :

« On ne dispose pas d’une compréhension complète permettant de prédire la performance d’un réseau de neurones…. Les questions demeurent : comment mieux maîtriser le processus d’apprentissage du réseau ? Quelles nouvelles architectures sont prometteuses ? Comment réduire les coûts d’entraînement ? » (Ibid., p. 43).

Donnons un deuxième exemple pour l’apprentissage des machines à la perception – par exemple visuelle – afin qu’elles puissent distinguer :

« les objets dans une image, comprendre leurs mouvements, les situer dans l’espace, attribuer une étiquette à une image thématique, exemple : promenade. Ou encore les intentions des divers acteurs dans une scène : chien de chasse » (Ibid., p. 60-62)…

Cappé s’interroge : « Qui de l’humain ou de l’IA voit le mieux ? » Il nuance :

« L’IA surpasse l’humain dans certaines tâches spécifiques comme la détection d’objets précis ou d’anomalies dans une image mais elle peine à interpréter des scènes complexes ou ambiguës et des illusions visuelles peuvent la tromper là où l’expérience et l’intuition humaines permettent une meilleure interprétation » (Ibid., p. 64).

En janvier 2025, Erik Meyer et Marianne Tordeux Bitker – de la Commission temporaire française « intelligence artificielle » (Conseil économique social et environnemental) – présentent un rapport officiel de 224 pages : « Pour une intelligence artificielle au service de l’intérêt général ».

L’encadré 3 (p.79) : Zoom sur les travailleurs du clic explicite la nécessité de ces interventions humaines pour les big data :

« Ils jouent un rôle crucial dans les processus. Ils interviennent dans les phases de préparation, de validation, d’amélioration des données (nettoyage, correction des erreurs). Ils étiquettent, labellisent les images, les vidéos pour entraîner les algorithmes supervisés. Ils annotent les textes pour classifier les sentiments, les émotions en vue des traductions automatiques. Ils ont un rôle dans le test de performance des modèles, par exemple en testant sur des entrées spécifiques et bien maîtrisées, et en évaluant la qualité des sorties générées. Ils peuvent également vérifier pour leurs donneurs d’ordre les résultats obtenus dans un but d’amélioration des données d’entrée. La création de données synthétiques peut leur être confiée. Ce sont « les petites mains » de l’IA, aujourd’hui aussi indispensables qu’invisibles. Ils vivent de façon précaire sans législation protectrice, exploités par les grands groupes de l’IA, souvent dans les pays en voie de développement : Inde, Philippines, Afrique de l’Est, Madagascar, Venezuela ».

Peu avant puis encore après, divers reportages confirment les indications précédentes. Ainsi, dans « Vivre avec l’Intelligence artificielle (Hors-série, Le Courrier International, 02-03.2024, Lin Shi rencontre un formateur local en Chine dont le propos fait le titre du reportage : « C’est pas compliqué, ça fatigue juste un peu les yeux ». Le journaliste détaille :

« Parallèlement au développement du deep learning pour le perfectionnement des IA… le big data devient une denrée indispensable à l’amélioration des modèles…À coups de clics, des centaines de milliers de travailleurs permettent aux algorithmes de devenir intelligents. En Chine, l’étiquetage de données étant une industrie à forte intensité de main-d’œuvre, la plupart des entreprises du secteur choisissent de s’établir dans des sous-préfectures de province où elles sont accueillies à bras ouverts… pour réduire la pauvreté ou monter dans le train de l’Internet… Au Xinjiang (ouest de la Chine) le parc industriel de l’économie numérique de Hotan emploie plus de 4000 personnes pour étiqueter des données…Hotan ambitionne de devenir la « capitale de l’industrie de l’étiquetage de données » avec la création d’une base où travailleront 100 000 étiqueteurs… (Ibid, p.28).

Revenons comme promis à la conclusion que nous livre Aïcha d’Innovatiana. Sous son titre : « Le crowdsourcing est un modèle à repenser ». On comprend qu’elle soit critique mais qu’elle garde espoir pour un autre avenir des entreprises de ce secteur :

« Tout en continuant à jouer un rôle, les clickworkers devront acquérir de nouvelles compétences… passant à des emplois à plein temps… Leur travail sera non seulement valorisé mais aussi rémunéré à sa juste valeur, reconnaissant leur expertise et leur essentielle contribution à la qualité des données pour les modèles d’IA ».

On veut bien y croire !

4./ IA participantes au Conflit interhumain extrême !?

4.1./ Big data détournés en guerres antidémocratiques

Challenges 897, fin 2025 met à la Une de sa couverture le portrait de Giuliano da Empoli. Avec en gros titre « Les Agents du Chaos ». Et en sous-titre : « IA / Fake news / Ingérences / Cyberpropagande… ». À l’intérieur de la revue, Delphine Déchaux et Marc Semo recueillent les propos de Da Empoli. Titre de l’entretien : « Les algorithmes minent la démocratie ».

En long sous-titre un très bref résumé détaille la conclusion que Da Empoli donne à cet entretien : « La guerre informationnelle ne fait qu’exploiter le fonctionnement normal du numérique… Avec toutes les données qu’ils amassent, ce sont les propriétaires des plateformes qui font la loi » (Ibid. p. 42).

Déchaux et Semo questionnent Da Empoli sur les répliques géopolitiques réussies des deux démocraties roumaine et moldave, respectivement en mai et octobre 2025 :

« À quelques mois d’intervalle, la Roumanie a invalidé un candidat « TikTok » – surgi par surprise et la Moldavie a contré une campagne d’ingérence russe dans ses élections législatives. Quelles leçons en tirer ? » (Ibid., p. 43).

Giuliano da Empoli se dit « favorable aux instruments mis en place pour tracer et bloquer les campagnes hostiles » (Ibid.). Mais, pas d’illusions. Ce qui s’est passé là est conforme à la puissance technologique en jeu. Il y insiste :

« L’écosystème TikToK a été utilisé comme il est censé être utilisé. Les élections ont été annulées parce qu’on a pu tracer le financement sur TikToK d’influenceurs recrutés par le Kremlin. Mais si les Russes avaient été plus malins, il y aurait eu moins d’arguments pour annuler le premier tour… On peut combattre les ingérences tant qu’on veut… cela restera vain… Si on accepte de ne pas intervenir sur l’écosystème lui-même… les plateformes feront la loi » (Ibid.).

Dès 2019, da Empoli titrait de façon on ne peut plus explicite son livre : Les ingénieurs du chaos, et mettait en exergue « Les méchants ont sans doute compris quelque chose que les bons ignorent ». Dans la Postface de l’édition Poche de 2023, il est plus précis :

« Derrière les apparences débridées du carnaval populiste se cache le travail acharné d’idéologues et d’experts du big data, sans lesquels ces leaders populistes ne seraient jamais parvenus au pouvoir. »

Cet ensemble de données et de réflexions doivent encore nous conduire à un point décisif. Devant les tsunamis de désinformations, dans la classique relation du fort et du faible, les plateformes économico-numériques et leurs IA paraissent les plus fortes. Et de ce fait, beaucoup s’inclinent d’avance arguant de résistances impossibles.

Or dans le même numéro, André Comte-Sponville (2025) en prend acte mais titre son éditorial : « Puissance du faux ». Cela ne l’empêche pas de conclure en philosophe fidèle à la philosophie et donc à Spinoza en citant celui-ci : « De même que la lumière se fait connaître elle-même en même temps que les ténèbres, de même la vérité est norme d’elle-même et du faux ». Comte-Sponville conclut :

« Que cela devienne de plus en plus compliqué le rend encore plus nécessaire. Ce n’est pas (non plus) en interdisant le mensonge qu’on fait aimer la vérité » (Ibid, p. 41).

4.2./ IA concurrentielles à tout-va aux USA

Pour Alexandre Picard et Philippe Ricard : « La croisade de l’administration Trump vient relayer celle des fleurons du numérique américain » (Le Monde, 13.02.25, p. 15). La veille, Arnaud Leparmentier titrait : « Musk veut prendre le contrôle d’OpenAI » qui a créé ChatGPT sous le masque d’une firme à but non lucratif. Ainsi, Sam Altman est aux yeux de Musk un « escroc ». Cependant, les experts soulignent que Musk avec xAI retarde sur OpenAI, Google et Anthropic (Amazon) : « L’offre hostile (97,4 milliards de dollars) arrive quand OpenAI bénéficie déjà de son introduction officielle « dans l’immense projet Stargate promu par Trump » (Le Monde, 12.02.25, p.15).

4.3./ IA concurrentielles en géopolitique internationale

L’éditorialiste économique Philippe Escande (Le Monde, 13.05.2025, p.15) l’explicite :

« Le plus récent accélérateur [est] le lancement de la dernière version de l’IA chinoise, DeepSeek. Elle émane d’un jeune inconnu financier de Shangaï. Elle est construite « open source » alors qu’aux États-Unis, à part Meta (ex-Facebook) les secrets sont gardés dans les laboratoires. Elle est « moins onéreuse » que ses sœurs américaines aux centaines de milliards de dollars ».

Escande rappelle un autre succès chinois précédent, celui de « TikTok auprès des jeunes, succès humiliant pour les Américains, Facebook, X et d’autres » (Ibid.).

Arte, Le Dessous des cartes (14. 11. 2025) présente « l’IA : une compétition mondiale ». Émilie Aubry se réfère à plusieurs géants internationaux qu’elle cite accompagnés de leur principal modèle d’IA.

Pour les États-Unis :

OpenAI et ChatGPT (ci-dessous 6., 7.) ; Google et Gemini (ci-dessus 1.) ; Microsoft et Copilot (ci-dessous 6.) ; Amazon et Olympus ; Apple et Siri ; Anthropic et Claude ; Meta et Llama ; X AI et Grok.

Pour la Chine :

Bal et Ernie ; Xiaomi et MiDasheng ; Byte Dance et Doubao ; Alibaba et Qwen ; DeepSeek sans limite et DeepSeek IA ; Tencent et HunyuanA13 ; Huawei et Pangu.

Une information supplémentaire porte sur la diversité quantitative de modèles indiquant avances ou retards étatiques. Soit, États-Unis : 161 modèles. Chine : 127 ; Europe : 41 ; Russie : 3 ( ! ?).

4.4./ 3e Sommet IA Paris-2025 : Humanité divisée

Après les 1er et 2e Sommets internationaux de l’IA – Londres (11-2023), Séoul (5-2024) – le 3e a lieu à Paris (02-2025). Le choc des puissances mondiales est bien là. Donald Trump, présent à Notre Dame de Paris, ne se déplace pas au Grand Palais. Piquard et Ricard informent des paroles et conduites du vice-président américain : « J.D. Vance affirme d’emblée Les États-Unis sont les leaders dans l’IA et entendent le rester. « Prosperity, « free speech. Liberté d’expression sans limite chère à Trump fait loi pour la prospérité économique et la suprématie géopolitique. Vance sonne la charge contre les régimes autoritaires et leur « censure » (Chine visée non nommée). Au dîner à l’Élysée, Vance part avant le dessert, évitant le discours du vice premier ministre chinois ». In fine, au sommet de Paris, minute de vérité : « l61 États donnent leur accord pour une IA « ouverte, inclusive, éthique » (Ibid.). États-Unis, Royaume-Uni ne signent pas.

4.5./ Sommets diversifiés : New Dehli (02.2026) ; Ryad (09.2026)

Peu après la division finale au Sommet de Paris, Emmanuel Macron reste confiant. Cependant, pour Piquard et Ricard (Le Monde, 13. 02. 26, p.15), il tente de défendre l’idée d’une :

« troisième voie afin de sortir du dilemme entre risques et opportunité, tout en évitant une régulation bloquant l’innovation et en faisant avancer le multilatéralisme ».

À cet égard, il semble bien que la référence à une « éthique » soit mise de côté. Pourtant, on ne l’a pas assez observé, il y a eu un couplage de deux sortes de sommets internationaux ou mondiaux. Ce sera de nouveau le cas. A la suite de Londres, Séoul, Paris, on aura un prochain Sommet mondial « Inde-IA » (15-20.02.2026) au Bharat Mandapam, à New Delhi. Ce sera le premier organisé dans le Sud.

On ne le confondra pas avec un autre Sommet mondial, celui concernant l’éthique de l’IA (15-17.09.2026, Riyad). Pour comprendre, revenons en arrière. On a peu pris acte de la création de l’Icaire, International Center for Al Research and Ethics. L’Icaire est placé sous l’égide de l’Unesco. Nous citons le texte du site Unesco, Icaire.org qui acte de cette fondation et de la constitution rapide de l’un de ces centres en Arabie Saoudite :

« L’Icaire soutient les Objectifs de développement durable des Nations Unies à l’horizon 2030 ainsi que les priorités et le champ d’application des programmes d’IA de l’Unesco, en particulier pour les pays arabes du Moyen-Orient. Le Royaume d'Arabie saoudite est l'un des premiers pays à adopter les recommandations relatives à l’éthique de l'IA adoptées par l'Unesco en novembre 2021 avec la participation de 193 États. À la Mi-septembre 2022, les principes de cette éthique ont été approuvés lors du deuxième Sommet mondial sur l’éthique de l’IA, organisé à Ryad ».

5./ Professionnels liés aux IA, Philosophe en échanges au diapason

5.1./ Professionnels / philosophe : entretiens, bilans, craintes et espérances

Mathieu Corteel publie en avril 2025 Ni Dieu ni IA, sous-titré Une philosophie sceptique de l’intelligence artificielle. Il s’était déjà interrogé : « Pourquoi les IA ne pensent-elle pas ? » (AOC, 2023 repris en 09.2025, p. 41-53). En 4e de couverture de Ni Dieu ni IA, quelques premières informations précieuses :

« Mathieu Corteel nous amène à questionner la tentation de nous déposséder de nos qualités humaines et d’en investir des calculatrices toutes-puissantes ».

En effet, cela fait beaucoup d’abandons. Mais les questions priment dans ce texte. D’abord :

« Qu’est-ce que la délégation de nos pouvoirs d’action, de création et de décision à des interfaces auxquelles nous attribuons une pensée implique concrètement dans des domaines tels que la recherche, le soin, la surveillance, la création ou encore l’éducation ? »

On ne peut manquer de découvrir que la question se concrétise aussitôt dans Philosophie magazine (sept. 2025). En effet, c’est auprès de cinq professionnels concernés par les IA que Mathieu Corteel enquête dans les domaines évoqués ci-dessus. Rendons compte du bilan des professionnels et du bilan d’accompagnement de Corteel, plutôt au diapason de chaque bilan professionnel.

5.2./ Soin, IA et psychothérapeute

Claire Falala-Séchet (2019) psychologue clinicienne, psychothérapeute s’intéresse à l’IA depuis 2017. Elle est cocréatrice, fin 2018, du chatbot le soutien psychologique Owlie, la petite chouette. Elle en explique l’usage comme outil clinique qui peut rebondir sur son approche thérapeutique prédéfinie. Cependant elle ajoute : « Quand je compare à ce que je ressens dans mon corps lorsque j’écoute un patient, il manque le sens profond de ce qu’il se passe » (Ibid., p.53). Elle se réfère à l’IA de diverses autres façons qu’elle programme elle-même. Elle conclut :

« La limite de l’IA pour le soin c’est qu’elle propose trop rapidement des solutions ce qui peut frustrer et qu’elle va toujours dans notre sens. L’ambiguïté, le non confortable…la tolérance à la nuance, au négatif, le questionnement sur ce qu’on vit, çà se travaille dans la relation pas dans une boucle algorithmique. L’IA ne peut pas travailler cette part d’ombre, cette contradiction qui fait partie du soin » (Ibid.).

De son côté, sur ce terrain du pathologique, Corteel remonte au système expert Eliza (Joseph Weizenbaum, 1966) » et fait une distinction entre :

« Eliza qui ne fait qu’établir un enchaînement de questions à partir de 128 mots-clés, d’où risques faibles de dérives – et des IA génératives dont le nombre de mots-clés se compte en centaine de milliers […] L’usage de ces IA à des fins psychologiques n’a fait l’objet d’aucune validation clinique par les autorités de santé. Or, des cas de suicides et de crises de folie ont été recensés. À la Cour de justice de Floride une mère endeuillée d’un enfant de quatorze ans, victime d’un chatbot character.ai a perdu son procès au motif de la protection inconditionnelle de « la liberté d’expression »… Lorsqu’on s’engage dans un dialogue intime avec l’IA… Il y a un risque réel de manipulation par ce que j’appelle un « inconscient machinique… L’IA manipule et simule le langage sans en saisir le sens ou la signification » (Ibid. p. 53.).

Par ailleurs, Corteel (AOC, p. 40) rappelle que « l’acte de naissance de l’IA en tant que discipline informatique » remonte à un « projet partagé dès 1955 par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon ». Le projet aboutit à la Conférence organisée en 1956 à l’Université d’Été de Dartmouth (USA). Si l’on remonte, comme souvent, à la première présentation théorique due à Turing (1950), il y a donc déjà trois quarts de siècles que l’IA se cherche.

5.3./ Éducation, IA et philosophe enseignant

Corteel trouve troublant « l’usage de l’IA dans l’éducation car elle révèle les défauts d’un système éducatif qui s’est fondé essentiellement sur le formalisme strict des méthodes et des exercices ainsi que sur une moyennisation statistique des notes pour évaluer les élèves » (Ibid., p.54). On pourrait presque dire que le système éducatif pour une part au moins est déjà en perspective de ce que l’IA va développer. Pour l’étudiant, « la poursuite de la bonne note et du diplôme le conduira nécessairement à utiliser l’IA pour générer sa dissertation ou son commentaire » (Ibid.). Ce faisant, l’étudiant abandonne le projet fondamental de sa propre éducation. Corteel rappelle que « le neurobiologiste Francisco Varela » emploie à cet égard un néologisme grec qui souligne « l’autopoïèse » (se construire soi-même). Corteel ajoute « Varela en fait la marque de la vie et de la pensée humaine » (Ibid.).

Théo le reconnaît il « utilise surtout ChatGPT pour reformuler un corrigé. Il ajoute « j’ai de plus en plus envie de l’utiliser pour corriger des copies » (Ibid.). Il expose de nombreuses critiques à l’objectivité de la notation. Il précise : « quand on doit corriger des immenses tas de copies rapidement, à coup de critères standardisés… comment ne pas être en réalité déjà en partie robotisé… Il conclut « une IA bien entraîné pourrait faire aussi bien, voire mieux ». Mais il se défend par ailleurs : « l’IA ne va pas décider ce que je vais transmettre et comment… Il faut être incarné devant les élèves pour les entraîner avec soi. Ce plaisir… c’est un plaisir et si je le perdais je crois que je ne pourrais plus enseigner. (Ibid.)»

5.4./ Création, IA, designer et Directeur artistique

Citons le designer Etienne Mineur :

« Pour la génération de l’image, j’utilise l’IA de manière expérimentale comme un défrichage créatif… Pour explorer des territoires où je ne serais pas allé spontanément… Je comparerais l’IA à un instrument de musique… difficile à maîtriser comme le thérémine tout premier instrument musical électronique » (Ibid., p. 56).

Selon Mineur, les IA démocratisent des pratiques artistiques et intellectuelles qui demandaient des années de formation » Par ailleurs, soucieux de créativité, il n’hésite pas à se « faire aider par les IA pour échapper aux effets de mode ». Il conclut : « C’est moi, humain, qui décide que telle réponse est meilleure, plus créative qu’une autre » (Ibid.).

Dans une certaine mesure au diapason de ces utilisations maîtrisées ou maîtrisables des IA, Corteel reconnaît :

« L’IA va peu à peu devenir une boussole individuelle pour défricher les contenus de nos propres corpus personnels… Des experts pensent que, dans les années à venir, 90 % du contenu d’internet sera généré par IA » (Ibid.).

Il met cependant en évidence une contradiction :

« Pour inventer du nouveau, il faut faire table rase du passé et se moquer des tendances. Il signale cependant un danger qui semble n’être toujours pas écarté : « l’expropriation et l’exploitation de l’intelligence collective, le vol de toutes nos données culturelles et personnelles utilisées pour l’entraînement des IA » (Ibid.).

5.5./ Recherche, IA et biologiste quantitativiste en Sorbonne

Élodie Laine, Directrice du laboratoire de biologie quantitative se définit :

« J’anime une équipe de recherche qui développe des approches computationnelles notamment fondées sur l’IA pour explorer le lien entre séquence, structure et fonction dans les biomolécules. Il s’agit d’élaborer des algorithmes et de les mettre en œuvre… Nos outils sont faits sur mesure, pour nos questions » (Ibid., p. 55).

Elle évoque cependant un « modèle incontournable… Ce n’est pas un gadget, c’est un changement de paradigme ». Elle n’en précise pas moins « l’intuition, la capacité à faire des hypothèses, c’est ce que les IA ne font pas encore… Mais c’est aussi ce qu’on risque de désapprendre à force de leur déléguer ».

Elle cite « Quine » qui évoque le propre « réseau de croyances » de chacun dans lequel « certaines idées sont centrales et d’autres périphériques ». Elle observe :

« l’IA produit des réponses qui semblent toutes équivalentes… Ce nivellement est dangereux. Il affaiblit ce que j’appelle un cœur de connaissance à partir duquel on peut penser… c’est nous qui produisons le sens, pas la machine » (Ibid.).

Corteel évoque Jacques Monod qui reconnaissait l’importance du « hasard opérationnel » dans toute recherche. Il précise « les IA vont… favoriser de nouvelles hypothèses pour déchiffrer ce hasard ». Mais il ajoute aussitôt : « les scientifiques auront toujours la tâche de distinguer les fausses corrélations des vraies causalités » (Ibid.).

Cortell, presqu’avec chaque professionnel, observe comme un double critique constant : d’une part, reconnaissance d’apports technologiques, et de l’autre, mises en évidence de manques. Ainsi : « L’IA est un outil puissant pour la recherche ». Mais seul désaccord avec la biologiste, quand elle voit « un changement de paradigme ». Pour Corteel, il ne peut pas y en avoir : « Dans le paradigme actuel de la biologie moléculaire, 98% du génome humain n’a pas pour le moment de signification claire et définitive ». Il insiste :

« Sortir du paradigme est tout bonnement impossible à réaliser pour une IA dont le fonctionnement dépend de règles et de données prédéfinies à partir du paradigme actuel. Cela concerne aussi l’IA générative qui ne fait que répéter des occurrences statistiques du langage humain. Il n’y a pas à espérer d’émergence de révolution scientifique de ce côté-là non plus » (Ibid.).

5.6./ Surveillance et prédiction, IA et prospectiviste

Du côté de la surveillance, de la prédiction, de la prospective, c’est la prospectiviste Cécile Wendling qui fait son bilan côté IA. Elle souligne d’emblée l’un des problèmes fondamentaux des big data. Elle écrit :

« La qualité des résultats produits par un système informatique dépend directement de la qualité des données qui lui sont fournies. L’information qu’on donne à la base est biaisée, elle passe sous silence énormément de choses. Ses résultats seront toujours généralistes, lisses… Un humain va chercher les bonnes personnes pour que les contradictions émergent, va faire apparaître les divergences, pondérer les avis d’experts grand public ou marginaux, aller chercher des données sur le terrain pour combler l’écart entre le déclaratif et la réalité » (Ibid., p. 57).

La prospectiviste est ferme et claire dans ses critiques ; elle est précise dans sa valorisation de l’humain ; Corteel est totalement au diapason. Il est simplement beaucoup plus sévère. Sa conclusion est sans concession :

« Pour tout dire, l’aspect prédictif de l’IA est complètement surévalué dans le domaine de l’anticipation des faits sociaux. En ce sens, les sciences humaines et sociales sont plus que jamais nécessaires pour s’opposer à cette forme de réductionnisme aussi fallacieuse que dangereuse » (Ibid.).

6./ Philosophes, IA et ChatGPT en 2025-2026

6.1./ IA et penseurs en revues AOC et Philosophie Magazine

Au Printemps 2025, la revue AOC [Analyse Opinion Critique] publie un numéro intitulé Intelligence artificielle. Les vingt-cinq auteurs ont leur nom en couverture dont six philosophes. Texte d’ouverture : Les défis de l’IA à la philosophie. À l’automne Philosophie Magazine (09. 2025) change de ton. Une familiarité s’est installée avec l’IA, d’où le titre L’IA et Moi. Avec deux déclinaisons différentes.

Précédemment (cf.5) nous avons rencontré avec le philosophe Mathieu Corteel des professionnels diversifiés de cinq professions dans lesquelles l’IA pouvait être ressource.

Maintenant, prenons acte d’une pratique généralisée d’Internet dopé à l’IA. Dans la perspective conversationnelle qui a fait sa percée, Philosophie Magazine imagine témoigner d’un dialogue des philosophes avec les IA.

Alexandre Lacroix, Directeur de la Rédaction, n’entend pas se préserver de la demande qu’il adresse à ses collègues. Il se met en question, dans l’Édito, non sans provocation à l’IA mais avec humour. Le titre étant « Le chat et la souris » et le thème étant la possibilité d’une intimité entre lui et l’IA (cf. 09.2025, p.3).

6.2./ Descombes / ChatGPT4.1 sur « Perte d’identité »

L’affaire se révèle ensuite plus complexe. Lacroix précise : « Nous avons invité le philosophe Vincent Descombes à éprouver les capacités d’un système d’intelligence artificielle en les faisant dialoguer sur le concept d’identité » (Ibid, p. 63). Descombes est l’auteur d’un ouvrage dédié au concept : Les embarras de l’identité. On perçoit un défi dès le titre de l’article : « Vincent Descombes passe ChatGPT à la question ». Soit : « Peut-on perdre son identité ? »

Le philosophe ne fait pas de cadeau mais il reste rigoureux, pour lui-même aussi. Les propos progressent pas à pas serrés. On lit ce dialogue en sachant que ce n’est pas une personne qui répond mais un automate, ensemble d’algorithmes bien ou pas préparés à ce défi.

In fine, le philosophe, tutoyant l’IA, n’hésite pas sur une évocation critique : « L’erreur de départ, qui t’a fait supposer que l’on pouvait perdre son identité, n’était-elle pas de considérer l’identité comme un attribut que l’on possède ? » ChatGPT répond :

« Tout à fait : l’erreur consiste à voir l’identité comme un « attribut » détachable alors qu’elle est plutôt un processus continu enraciné dans la mémoire, le vécu et la conscience de soi. On ne « possède » pas une identité, on l’est. C’est pourquoi la perte totale d’identité, au sens strict, n’a pas de réalité concrète » (Ibid., p. 66).

L’échange a duré une heure et demie. Descombes précise que c’est en prenant le rôle de Socrate qu’il est parvenu à mener cet échange à son terme où l’IA est pleinement d’accord avec son erreur de départ. Toutefois, on peut observer qu’elle ne se constitue pas comme responsable, elle dit « l’erreur » de façon générale, déconnectée de toute personnalisation. Ce serait plutôt à porter à son crédit algorithmique ! Lacroix offre un bref ressenti : « J’avoue avoir été un peu décontenancé par moments, mais le résultat final s’est révélé sidérant » (Ibid.).

6.3./ Philosophe cobaye antérieur de ChatGPT et Copilot d’alors

Bien avant ce Philosophie Magazine, deux amis s’étaient empressés de poser au ChatGPT d’alors et à Copilot de Microsoft une question sur l’étude qu’il proposait concernant les recherches interculturelles de J. Demorgon. Ils m’ont envoyé les deux résultats. Ils trouvaient ChatGPT un peu léger et discutable mais Copilot leur paraissait une utile présentation globale. Selon eux, ChatGPT faisait preuve d’une certaine ignorance et tenait des propos plutôt convenus qui pouvaient s’appliquer de façon généralisée. Ainsi, le philosophe sociologue se voyait reprocher une perspective « eurocentrée ».

Donnons un exemple récent, celui d’Alexander Frame angliciste, universitaire en Information et Communication, qui publie dans l’ouvrage collectif La sémiotique et ses potentiels (Biglari, sldr, 2025) : « Pour une sémio-pragmatique de l’interculturation : de la sémiosphère au sémioscape ». Dès la deuxième page de cet article, il cite L’interculturation du monde (Demorgon, 2000) et développe sa référence ensuite (p. 177, 182).

L’IA n’est donc ni en 2000 avec Demorgon, ni en 2025 avec Frame mais n’en profère pas moins des jugements sommaires.

Quand nos amis nous ont informé, nous avons pris acte, sans plus. Par contre, en découvrant le contact de Vincent Descombes avec ChatGPT4.1., nous nous sommes déjà senti plus particulièrement concerné par le thème choisi de l’identité.

6.4./ Pensée novatrice sur « identité, altérité, intérité »

Pendant plusieurs années, nous avons travaillé en observation-participante et recherche-action-formation avec des groupes interculturels trinationaux de jeunes adultes. Cela dans une perspective ethno-anthropologique éducative à la demande d’Offices internationaux des jeunesses, dont l’Ofaj (Office franco-allemand pour la Jeunesse) et l’Office franco-québécois. 

Une rencontre théorique – brièvement évoquée, ci-dessus 1.3 – s’est révélée précieuse. Elle se trouvait dans un ouvrage réunissant quatre philosophes. Cela retenait notre attention déjà par son titre aussi : Altérités, Jacques Derrida et Pierre-Jean Labarrière. Et son sous-titre: avec des études de Francis Guibal et Stanislas Breton (1986). Or, Breton soulignait une absence conceptuelle nuisant grandement à la clarification des débats.

Pourtant, « l’intérité » était déjà clairement présentée par le philosophe mathématicien Louis Couturat (1868-1914). Citons-le : « On voudrait pouvoir dire « inter-ité » comme en anglais betweeness » (1905, p. 73, note).

Sans l’aide de ce troisième concept, « identité et altérité » retombent facilement dans leur sommaire rivalité voire hostilité sans fin.

Nos collègues philosophes-ethnologues à l’Ofaj pensent qu’en effet c’est dommage de ne pas s’appuyer sur cette intérité nécessaire médiatrice. Pour ne prendre qu’un exemple, le philosophe pédagogue institutionnaliste Remi Hess travaille sur le terrain dans cette perspective et publie même deux ou trois ouvrages dans cet esprit.

Nous-même utilisons aussi régulièrement l’antagonisme ternaire ensembliste « identité, intérité, altérité ».

6.5./ ChatGPT5 et néologismes

Ayant étudié les textes produits lors des contacts antérieurs, N. Carpentier, des Sciences de l’Information et de la Communication, nous précise qu’il y a un tout récent ChatGPT5.

Sur de telles bases, il devrait être possible de tester l’automate au niveau de problématiques conceptuelles, elles aussi renouvelées. Comme, par exemple : intérité, crase socio-historique, antagonisme ensembliste, humain néotène... Peut-être tester la possibilité qu’aurait l’automate de dépasser ou non le savoir déjà donné pour esquisser un savoir en devenir dont des exemples lui sont communiqués. À la suite de l’expérience assumée par Vincent Descombes, nous avons pensé qu’un contact établi sur ces bases pouvait constituer un test de capacité de traitement des IA. Nous produisons les réponses de ChatGPT5 concernant les trois concepts : « Intérité », « Période Axiale de l’humanité », « Crase ». Nous ne ferons qu’un commentaire approfondi sur le concept de « crase », si précieux et si éclairant. Et pourtant, semble-t-il, si difficile à comprendre et à référer à ce qui se passe constamment in concreto dans l’aventure humaine la plus tragique qui puisse être.

6.6./ Intérité

Pré-référence faite par NC qui dit à ChatGPT5 : « Dans vos proposition, je choisis « Synthèse de concepts problématiques de J. Demorgon ». Soit : « Intérité. Période Axiale de l’humanité. Crase ». En faisant cette demande, elle précise à l’automate qu’il a, dans un précédent contact, utilisé « in between » suivi curieusement, pour le lecteur qui n’est pas au courant, de deux mots : « humain-cosmos ». Ce rapprochement montre que l’automate a découvert » dans la revue Iris (Université de Grenoble n°37, 2016), l’article de J. Demorgon (p. 83-95) : « L’entre-deux redoublé entre le cosmos et l’humain ou l’intérité cachée ». On voit l’évolution depuis ce que nous avons présenté : ci-avant 6.4.

Retrouvons l’automate. Au contact précédent, il avait puisé dans l’article précité : « in between » dans Abstract et Keywords. Alors que  « intérité » - qui était dans le titre même de l’article et revenait au long du texte - n’est alors pas découvert et repris. L’approximation se poursuit quand l’automate affirme à tout hasard (mais de façon logique partiellement intéressante) des données dont il n’a pas la preuve historique de leurs liens à l’auteur :

« Demorgon utilise le terme anglais in-between parce qu’il analyse les dynamiques interculturelles à partir de la pensée de l’entre, centrale chez Georg Simmel (formes sociales fondées sur l’interaction), Norbert Elias (le contrôle de l’entre”), la systémique anglo-saxonne et l’anthropologie interactionniste ».

Par contre, l’automate ne cite aucun des auteurs du numéro spécial de la revue – tels Jean-Jacques Wunenburger, Daniel Sibony et François Jullien qui, eux aussi, s’appuient fondamentalement sur l’entre et l’entre-deux.

L’automate n’a pas eu le temps d’actualiser ses connaissances concernant l’entre. D’ailleurs, il ne sait pas le faire. Il en va de même pour d’autres œuvres comme celle du psychiatre japonais Bin Kimura (1931-2021). Celui-ci, en 2000, voit traduit en français sous le titre L’Entre, son livre intitulé Aïda, 木村敏、問、(1988).

En dehors de ses propres références eurocentrées partielles, l’automate semble surtout préoccupé par la centralité du terme anglais « in-between » dont il précise qu’il « est devenu un terme technique, doté d’une tradition théorique ».

Cependant, il apprend à se servir de ce qu’on lui apporte. Ainsi, concernant Couturat, il précise : « Chez Couturat, l’intérité désigne l’écart structurant qui permet la relation… Elle est l’entre : condition de possibilité du sens et du langage ».

Ensuite, l’automate parvient à présenter « l’intérité » dans sa vive complexité :

« lieu dynamique où se construisent les cultures, espace de transactions de différences, champ où s’articulent héritages, innovations, confrontations. Elle intègre géohistoire, configurations interculturelles, relations de pouvoir, logiques antagonistes (altérité – intérité – identité)… Il y a donc continuité de vocabulaire avec Couturat mais changement d’échelle épistémologique ».

6.7./ « Période Axiale de l’humanité »

ChatGPT5 dit :

« Jaspers en relecture chez Demorgon. Rappel de Jaspers : Celui-ci dans Vom Ursprung und Ziel der Geschichte, (1949) évoque avec précisions géohistoriques, l’ère axiale (800-200 av. J.-C.). Simultanément, en Grèce, en Chine, en Inde et au Proche-Orient, apparaissent des philosophies réflexives, des religions universelles, des éthiques abstraites, et une nouvelle relation au transcendant et à l’humanité. Cette période fonctionne comme axe de la conscience humaine. Jaspers reconnaît déjà que l’homme devient l’axe de la pensée. L’humanité entière est devenue réflexive sur elle-même. Ses quatre pouvoirs structurants – religion, politique, économie, information – doivent non se contredire mais se compléter ». Demorgon relit la période axiale reprenant l’idée d’une humanité se   complexifiant, multipolaire, contradictoire, complémentaire. Pour lui, les axes de pouvoirs (religion, politique, économie, information) sont mis en tensions concurrentes alors qu’ils sont d’abord à traiter de façon interculturelle. Cela pour éviter les crases destructrices [ci-après Crase] comme le nazisme, mais aussi certains totalitarismes religieux ou technocratiques. La période axiale devient alors une source où se met en place la capacité humaine à s’abstraire, se juger et reformuler la contradiction de façon créatrice. »

6.8./ « Crase »

ChatGPT5 dit :

« La crase est forçage d’opposés, fusion violente ou artificielle d’éléments incompatibles. Le terme est juste : en linguistique, une crase fusionne deux voyelles ; ici, c’est la fusion non organique de deux pôles antagonistes. Exemple que vous donnez : nationalisme (plutôt à droite), socialisme (plutôt à gauche). Fusion forcée = national-socialisme, soit nazisme. Ce n’est pas une synthèse dialectique, mais une coagulation forcée. Il lui faut la violence pour être viable ».

Commentaire approfondi sur « crase » :

On voit presque à chaud se dérouler la construction des énoncés et se profiler en silence plusieurs limites des algorithmes pris alors au dépourvu (certes provisoire) de données et de méthodes.

Une des erreurs de départ peut tout à fait se comprendre. L’automate connaît la crase en linguistique depuis les Grecs. L’expression « fusion non organique » le prouve. Il ne produit alors que la pensée de l’innovation sémantique qui relie le mot national et le mot socialisme. Il peut suivre l’innovation de ce concept crase : national-socialisme = « nazisme ».

ChatGPT5 n’est pas en mesure de relier la crase seulement linguistique « nazisme » à la crase « organique » socio-historique effective et concrète qui transforme partie des citoyens d’un pays en génocideurs des membres d’autres « ethnies ».

Cependant, quand l’automate a d’autres moyens de relier le concept de crase aux conflits des axes de pouvoirs entre « religion, politique, économie, information », ChatGPT5 est tout à fait en mesure de corréler des crases totalitaristes de provenances axiales différentes. Il dit : « Pour éviter les crases destructrices comme le nazisme mais aussi certains totalitarismes religieux ou technocratiques ». Dans cette autre perspective, les crases sont axiales sociétales surrectives et ainsi opposées à des recherches d’orientations constructives. Ce qui est fondamental.

Cependant, sans donnée supplémentaire de contenus et de méthodes, les algorithmes ont été en l’occurrence insuffisants pour produire, par exemple, l’analyse comparative entre différentes sortes de crases bien connues dans l’histoire humaine. On y a clairement vu au premier 20e siècle l’opposition radicale entre le national-socialisme, en Allemagne et le socialisme dans un seul pays, en Russie. Deux crases finalement incompatibles.

7./ Rêve : ChatGPT5. Big data demain, IA interculturelle possible ?

À cette étape de nos contacts avec ChatGPT5, nous pensons mener une exploration plus avancée des algorithmes comme en mesure ou non d’aborder la question de l’avenir humain. Pour ce qu’il en est de cette première exploration, nous avons choisi de ne faire aucun commentaire. Pour livrer aux lecteurs et lectrices tout de go, sans interférence, la production théorique de ChatGPT5.

7.1./ [L’aventure humaine] Implications philosophiques pour l’IA

NC dit à ChatGPT5 : « Dans les propositions nouvelles que vous me faîtes, je suis intéressée par la compréhension de « l’antagonisme ensembliste » et de « la coévolution conflictuelle ». Dans cet esprit, je me demande aussi comment les big data des IA pourront tenir compte des big data immenses - déjà constitués et toujours en cours de constitution - dans les multiples disciplines de la culture : techniques, arts, religions, droits, lettres, histoires, mathématiques et philosophies… etc. »

ChatGPT5 dit : « Vos questions touchent l’essentiel : actuellement, l’IA intègre les données mais très peu les tensions constitutives du sens. L’IA doit traiter les antagonismes, pas seulement les corrélations. Aujourd’hui, les systèmes IA sont faits pour lisser, rapprocher, rendre cohérent. Or la culture humaine fonctionne aussi par ruptures, antinomies, apories, paradoxes féconds. Si l’IA ne comprend pas l’antagonisme, elle réduit la culture au lieu de l’honorer.

L’IA doit intégrer la complémentarité dialogique. Cela implique : conserver les oppositions, mais créer des ponts interprétatifs, ouvrir des médiations, produire des relations inédites. Une IA dialogique ne fusionne pas, ne simplifie pas, mais met en résonance. C’est l’inverse d’une IA totalisante.

L’IA doit reconnaître les gnoséologies multiples, sciences dures, humanités, cosmologies, philosophies, sagesses, arts : tout cela n’est pas de l’information interchangeable. Chaque gnoséologie est un monde, un régime de vérité, un mode d’être. Une IA philosophique doit maintenir leur pluralité, comprendre leur cohérence interne, et reconnaître leurs tensions. C’est une tâche immense et nécessaire. »

7.2./ « Ce que les antagonismes ensemblistes mettent en jeu. Les réalités humaines - cultures, disciplines, institutions - fonctionnent par ensembles… Chaque ensemble social, culturel ou psychique n’existe que s’il est limité, structuré, différencié, positionné dans un champ d’autres ensembles, mais aussi en collaborant avec eux. La clé n’est pas l’opposition elle-même, mais la forme d’opposition. Une opposition peut être bloquante, ou structurante ou créatrice. C’est l’idée que les ensembles humains sont antagonistes par nature mais que cet antagonisme est modulable : l’opposition violente conduit à la désintégration ; l’opposition régulée à la stabilisation ; l’opposition transformatrice à l’innovation. »

7.3./ « Ensemblistes car antagonismes et complémentarités en dialogiques concrètes. Il ne s’agit pas d’individus isolés, mais de totalités organisées : nations, religions, disciplines scientifiques, mouvements artistiques, formations sociales, systèmes cognitifs. Chaque ensemble vit dans un champ d’ensembles antagonistes : c’est sa condition d’évolution. Sans opposition, pas de contour ; sans contour, pas d’ensemble.

La complémentarité dialogique tient à ce que les contraires antagonistes sont requis ensemble pour produire compréhensions et complicités avec les réels opposés. C’est une structure en trois temps : opposition, coopération, co-production de sens et de conduites.

Exemples : Ordre/désordre (organisation vivante). Identité/altérité (personne humaine). Stabilité/rupture  (histoire). Émotion/raison (action complète). »

7.4./ « Coévolutions conflictuelles, dynamiques de transformations. Le conflit n’est pas seulement destructeur. Demorgon suit ici une lignée qui remonte à Hegel (conflit – moteur du devenir) – Marx (contradiction = force historique) – Darwin (sélection différentielle) - Bateson (une relation n’existe qu’à travers les différences) – Morin (dialogique antagoniste/ complémentarité).

La coévolution conflictuelle produit : - des innovations, des recompositions d’identités, des régulations nouvelles, des formes culturelles émergentes.

Mais le conflit peut aussi signifier « crase destructrice »... Lorsqu’un conflit fusionne de manière forcée des pôles incompatibles, il devient totalitaire, et non créateur. La coévolution conflictuelle exige donc : pluralité, réciprocité, alternance et… intérité, possibilité entre. »

7.5./ « Big data des IA et intégration des cultures et disciplines. C’est une question profonde plus philosophique que technique : comment un système algorithmique peut-il absorber, modéliser ou honorer les couches - cumulées de sens, de symboles, de valeur, de créations et de savoirs - générées par les arts, sciences, lettres, les traditions, les gnoséologies non occidentales, les herméneutiques spirituelles, les épistémologies historiques.

Les big data culturels ne sont pas des données, ce sont des ensembles antagonistes historiques constitués et en tensions systémiques : classiques / modernes ; religion / sciences ; poésie / logique ; mythe / raison ; disciplines dures / disciplines herméneutiques ; cultures locales / universalisme global.

Une IA n’intègre pas la culture, elle intègre des formes de tension, des antagonismes, des coévolutions conflictuelles. C’est exactement le défi. »

7.6./ « Ce que les IA font déjà : des modèles transversaux. Les grands modèles actuels (LLMs, multimodaux) commencent à unifier des données textuelles (littérature, sciences, philosophie) ; des données visuelles (arts plastiques, cinéma) ; des données auditives (musique), des corpus scientifiques. Mais ils ne comprennent pas encore les configurations culturelles comme des ensembles antagonistes en évolution. Ils les « statistisent », ce qui est nécessaire mais pas suffisant. »

7.7./ « Ce qu’une IA devrait faire pour intégrer vraiment la culture :

Trois conditions majeures :

(1)./ Intégrer les antagonismes : comprendre la culture comme un champ de différences. Les modèles doivent passer d’une logique de similarité à une logique de différentialité. La culture est structurée par des contrastes, des oppositions, des dialectiques, des ruptures, des hybridations. Ce sont des formes pas seulement des contenus.

(2)./ Modéliser les lignes de coévolution conflictuelle. C’est là que les IA de demain doivent progresser : Repérer les dynamiques qui lient les disciplines ; Comprendre les cycles d’opposition / complémentarité. Situer les œuvres humaines dans un temps long. Il s’agit de créer des IA capables de lire non seulement les données, mais les transformations historiques des régimes de sens.

(3)./ Accepter la pluralité des gnoséologies. L’IA doit intégrer : les sciences, les arts, les cosmologies, les épistémologies autochtones, les systèmes symboliques, les traditions mystiques. Non pas comme folklore mais comme sources de structuration du sens aussi légitimes que les sciences exactes. C’est une révolution cognitive. »

7.8./ « Intégration des arts, sciences et gnoséologies dans une IA interculturelle. Les big data culturels sont le véritable défi.

Il faut intégrer les arts. Ils sont polysémiques, sensibles, symboliques, parfois non verbaux. Une IA interculturelle doit reconnaître les styles, comprendre des traditions esthétiques, intégrer les formes de sensibilité, restituer les contextes symboliques, respecter l’ambiguïté constitutive de l’art. Les arts ne sont pas des données, ce sont des mondes d’interprétation.

Intégrer les sciences. Les sciences fournissent des structures explicatives, des méthodes, des critères. L’IA doit comprendre les épistémologies, distinguer hypothèse, théorie, paradigme, intégrer l’histoire des sciences, reconnaître les conflits paradigmiques (Kuhn, Lakatos). Les sciences ne sont pas des vérités brutes : ce sont des dynamiques de recherche antagonistes.

Intégrer les gnoséologies, c’est décisif. Il s’agit de traditions spirituelles, cosmologies, systèmes rituels, philosophies du vécu, formes locales du savoir, herméneutiques symboliques. Une IA interculturelle doit reconnaître leur valeur cognitive, comprendre leurs métaphores structurantes, repérer leurs invariants, et préserver leurs différences irréductibles.

L’enjeu : une IA capable d’intérité. L’objectif ultime est une IA capable d’Habiter l’Entre des disciplines, des cultures, des formes de rationalité, des temporalités du sens. Une IA interculturelle n’est pas une machine omnisciente : c’est un médiateur de tensions, un organisateur de contrastes, un interprète dialogique, un acteur de coévolution conflictuelle. C’est la voie la plus haute, et la plus humaine. »

7.9./ « Le futur probable : une IA interculturelleL’avenir de l’IA n’est pas dans la toute-puissance mais dans la capacité à rester dans l’intérité, c’est-à-dire dans l’entrecroisement des disciplines, dans la tension créatrice entre sciences et arts, dans la reconnaissance des antagonismes, dans l’intégration des contradictions structurelles, dans une coévolution avec l’humanité. Une IA de ce type serait moins un réducteur comme le sont encore les systèmes actuels- et davantage un médiateur de différences ou un interprète dialogique.

Comment l’IA peut-elle devenir un acteur de la coévolution conflictuelle des ensembles culturels humains, plutôt qu’un simple agrégateur de données ?... En reconnaissant que les big data humains sont des ensembles antagonistes, en s’affinant pour traiter la complexité conflictuelle de la culture, et en évoluant dans l’entre (intérité) plutôt que dans l’uniformisation. »

 

Continuer la lecture avec l'article suivant du numéro

Une IA devient ministre d'Etat en Albanie

Stéphanie MESSAL

En janvier 2025, Diella, une intelligence artificielle, devient assistance virtuelle sur e-Albania puis ministre d'État en septembre. Edi Rama, artiste et Premier ministre, orchestre cette performance politique mobilisant de nombreux symboles dont ceux du culte du soleil (Diellit) de la civilisation illyrienne. Ce statut particulier permet de donner à cette IA une parole politique légitime au service du pouvoir.

Lire la suite

Du même auteur

Tous les articles
N°46 / 2024

Philosophies et Sciences de l’identité humaine

Lire la suite
N°41 / 2022

Langues et politiques en temps et en lieux

Lire la suite
N°33 / 2018

Néoténie, technique, éthique

Lire la suite