Abstract: This second article assesses the informational chaos and growing entropy of generative AI outputs due to the depletion of human sources and the increasing proportion of AI-generated derivative sources, without any verification of their accuracy. This chaos can only increase due to the toxic strategies of actors, such as the practices already observed on social networks and the effects of polarising social practices, which will distort the content and quality of generative AI productions. Both the uses and the processing models run the risk of sterilising knowledge, with unprecedented political and social consequences.
Keywords: Entropy - obsolescence - generative artificial intelligence - polarisation - predation - alienated.
L'entropie systémique de l'IA générative grand public
Pierre-Antoine Pontoizeau
Introduction
Notre premier article publié dans les Cahiers en juillet 2025 a montré que les solutions cognitives – terme que nous avons adopté au détriment de l’oxymore de l’intelligence artificielle – installent une relation de domination de la machine sur l’homme, dans une compétition humiliante, menant à un rapport de domination de ces solutions, comportant des risques gnoséologiques, l’homme, ne maîtrisant plus ses connaissances, ses expériences, alors victime des procédés qui l’enferment dans la soumission, jusqu’à tenter de le persuader de ne plus apprendre comme l’écrit Laurent Alexandre.
Dans ce deuxième article, il s’agit d’évaluer l’inévitable brouillage résultant des usages grand public, sans oublier les interventions d’institutions subversives [1] . Ils produiront rapidement un chaos informationnel qui conduira à une entropie de ces solutions et à leur obsolescence. Il y aura aussi, des déformations progressives et prévisibles de la base des connaissances, du fait des pratiques sociales, en vertu de effets de polarisation connus en psychologie sociale. Enfin, nous montrerons que le modèle à l’œuvre est largement inspiré des exploitants pétroliers, gaziers ou miniers dans un rapport de prédation-destruction [2] de la ressource qu’ils prétendent valoriser, avec des conséquences sur le système de création et de transmission des connaissances, soit un risque socio-politique majeur et inédit pour notre civilisation : une agnotologie destructrice.
1. Le chaos informationnel et l’entropie croissante des productions de l’IA générative
L’observation des réseaux sociaux montre que leur usage a largement favorisé la construction, la diffusion et la réplication de toute sorte d’informations et de connaissances. Cet usage a permis en certaines circonstances de préserver une liberté d’expression du fait des témoignages, des prises d’images sur le vif et des relais des premiers témoins, avec ces usagers, y jouant un rôle de lanceur d’alerte. Dans le même temps, ces réseaux sont devenus les lieux d’une diffusion massive d’insultes, d’intimidations, de productions massives de fausses nouvelles ou d’informations falsifiées, pour nuire ou influencer, à l’initiative de personnes, d’influenceurs et d’institutions subversives agissant délibérément en ce sens.
Il n’est pas rare de trouver des informations contradictoires sur des événements, relatés par les uns ou les autres de manière totalement incompatible, jusqu’à ne plus savoir ce qu’il en est vraiment sur le terrain, chacun en venant à s’interroger sur l’existence ou non de l’événement comme le montrent des reportages fictifs, troublants, et de plus en plus nombreux, produits à l’aide des solutions cognitives [3]. La réalité se dérobe sous le jeu du théâtre des marionnettes et des ombres qui rappelle la caverne platonicienne. Très concrètement, trois facteurs jouent un rôle éminent dans cette entropie croissante : la dérive des sources, l’effet de la conception de ces solutions et les stratégies toxiques dans leur usage.
1.1. Des sources humaines aux sources construites par l’IA générative
Le premier cycle de production des solutions cognitives s’appuie essentiellement sur des productions humaines. Ces sources servent à produire une image ou un texte en vertu d’une demande. Faire une image à la manière de, suppose d’avoir les images de, pour créer un visuel selon les caractéristiques de. Sans ces sources initiales, pas de visuel. Toutes les réponses sont le résultat d’un traitement de ces données préexistantes à l’ère d’internet. Les encodages et techniques de traitement algorithmiques sont des opérations qui s’appuient sur ces sources en vue de leur restitution ou transformation dans une forme visuelle ou textuelle accessible à l’usager.
Mais, très rapidement, les productions secondes de ces solutions cognitives vont figurer dans ce vaste réservoir des documents disponibles, alors enrichis de ces nouvelles productions, pour produire de nouveaux textes ou images, générés par les algorithmes, comme l’effet jaunissement l’atteste [4]. D’un socle initial constitué de productions humaines, nous allons très vite glisser vers un deuxième état du système où, une part, puis une majorité des textes ou images y seront des productions artificielles, dénommées savamment : nouvelles sources, pour des apprentissages de plus en plus synthétiques [5]. Il est donc prédictible qu’émergera un temps où ces productions synthétiques représenteront la grande majorité, puis l’essentiel des ressources disponibles en vue d’un nouveau traitement. Les risques sont donc bien ceux d’un mouvement entropique ou de dégénérescence du modèle se nourrissant de lui-même, cette autoréflexion rappelant les logiques circulaires en forme de soliloques, soit une tendance aussi décrite en psychologie à propos du système schizophrénique, dont les principales caractéristiques sont : une perturbation de la perception de la réalité, des hallucinations délirantes et un isolement relationnel.
Il est intéressant de noter que dès ces apprentissages synthétiques, les solutions cognitives vont bien développer ces trois tendances schizophréniques : une confusion progressive entre les connaissances humaines sourcées de la première époque puis toutes les productions secondes artificielles et jamais fiabilisées, une fabrication d’hallucinations, terme déjà utilisé pour évoquer les productions délirantes, comme les jurisprudences fictives [6], et un renoncement à se nourrir de l’extérieur dans un isolement égotique. Nous sommes en présence d’un phénomène de reproduction de connaissances par « consanguinité » qui menace ces solutions d’un effondrement « psychologique » et « cognitif » sur elles-mêmes [7].
1.2. De l’effet de la conception du modèle sur son entropie croissante
Plus encore, il y a la croyance de ces dirigeants, qui semblent inspirés des modèles de prédations des ressources, comme dans les minières, pétrolières et gazières. En effet, les propos d’E. Musk ou d’I. Sutskever montrent qu’ils se représentent le champ des connaissances humaines comme une ressource limitée, ayant fait l’objet d’une captation définitive et achevée, selon leur propres dires, grâce à la constitution d’un internet où l’humanité aurait offert gracieusement la totalité du savoir humain. Le passage à la deuxième époque d’un apprentissage synthétique a trois conséquences qui renforcent l’hypothèse de cette entropie croissante.
La première conséquence est d’isoler la machine dans un apprentissage circulaire. Et aucun psychologue ou logicien ne peut ignorer l’effet aliénant d’un tel procédé. L’autoréférence induite fabriquera progressivement plus d’hallucinations, en l’absence de contrôle, privée d’un lien avec le réel, faute d’une vérification effective, la solution n’ayant plus aucune relation avec son extériorité. En plus du risque schizophrénique déjà mentionné : perturbation de la perception de la réalité, hallucinations délirantes et un isolement relationnel, le logicien sait qu’un système fermé est condamné à produire en boucle à partir de ses données jusqu’à l’épuisement. C’est le tautisme technologique si bien décrit par Lucien Sfez dans Critique de la communication publié en 1988. Rappelons qu’en étudiant les principaux théoriciens de la cybernétique et des théories de la communication, L. Sfez en conclut qu’ils conduisent les sociétés vers le tautisme qu’il définit comme la combinaison de la tautologie et de l’autisme dans son néologisme. La confusion entre le réel et sa représentation se réalise par l’intermédiation de la technique qui fait écran au réel vécu, entrave l’expérience et lui substitue un monde fictionnel fondé sur la répétition des représentations devenant la réalité de remplacement. La technique absorbe l’humain.
La deuxième conséquence est liée aux comportements individuels dominants d’une acceptation de la production comme source fiable et valide incontestable, celle-ci sera reproduite, rediffusée, réinsérée et donc largement multipliée sur l’internet et dans les solutions cognitives, devenant une de ces sources secondes à nouveau exploitée par les algorithmes. Ce phénomène de boucle autoréférentielle est inéluctable, en l’absence de création textuelle nouvelle résultant d’un travail de recherche accomplit par des humains. Le comportement humain soumis par l’excès de confiance attesté dans le premier article constitue un piège pour l’avenir même de ces solutions promises à la dévaluation de leur production. Là encore, le propos de L. Sfez est d’actualité, car son étude du tautisme renvoie bien à cette disparition de l’homme pensant, jugeant, expérimentant au profit de l’homme capté par la représentation, devenant à lui-même le mirage d’une représentation, d’où le terme composé entre logique et psychologie de tautologie-autisme [8].
La troisième conséquence est justement cette absence de nouveauté, par la privation-destruction des authentiques sources nouvelles ; et ce pour plusieurs raisons. La première tient à l’opération de captation-prédation des ressources cognitives, au mépris du droit des institutions, des auteurs et des chercheurs [9]. La deuxième tient aux décisions progressives de défendre les droits d’auteurs et d’obliger ces acteurs à en payer le prix, ce qui les dissuadera d’enrichir leur base de connaissances et la troisième d’avoir des institutions qui choisiront d’isoler leur système d’information pour se protéger de ces captations sauvages, comme l’étudie actuellement les institutions de recherche et les revues scientifiques chargées de leur diffusion afin de faire valoir des solutions plus modestes et spécialisées à l’usage des chercheurs et de publics limités [10].
1.3. Des effets des stratégies toxiques des acteurs
Faut-il ensuite être d’une grande naïveté pour ne pas avoir à l’esprit que l’internet et les solutions cognitives vont devenir le lieu d’une guerre d’influence, un territoire de propagandes et de manipulations à grande échelle, à l’instar des actions des agences de renseignement opérant massivement dans les réseaux sociaux, comme le reconnait Marc Zuckerberg lui-même [11] ? La guerre cognitive et gnoséologique a déjà commencé. Ces stratégies toxiques vont se multiplier pour asseoir des positions dominantes, manipuler des opinions, dénaturer des résultats de recherche, transformer des textes originaux, nettoyer le net, etc. Il existe déjà des agences spécialisées dans le nettoyage de l’internet pour y faire disparaître des informations qui affectent la qualité de l’archivage, livré à l’œuvre de destruction ou de déformation de multiples officines aux services de personnes ou d’institutions.
Quelques exemples montrent déjà que ces stratégies toxiques sont à l’œuvre indépendamment de toute position sur le fond des débats. L’assignation des opposants réduits au statut d’agents complotistes, de contestataires délirants et paranoïaques relevant d’un traitement psychiatrique ou fabricants subversifs de contre-vérités participent aussi de ces stratégies d’ignorances volontaires, qui visent la production d’une idéologie scientifique et des narratifs institutionnels incontestés. Là où la recherche scientifique produit des controverses fort éloignées des simplismes d’un scientisme dogmatique dont l’usage par les politiques participent d’un refus du débat sur des options sociales et politiques ouvertes, les stratégies toxiques contribuent à la dégradation croissante de l’exigence scientifique : expérimenter, apporter des preuves factuelles, pouvoir répéter des expériences, attester des conclusions. Or, les solutions cognitives comme les réseaux sociaux sont dans les mains de concepteurs qui biaisent et fabriquent des stéréotypes [12].
2. Les effets de polarisation des pratiques sociales
Si le risque entropique est inhérent au fonctionnement des algorithmes, un autre risque n’est pas évalué, faute de procéder à un examen des comportements sociaux qui constituent pourtant une partie très significative de ce que ces solutions produiront dans la durée, à l’instar des réseaux sociaux. C’est la raison d’un détour, selon nous très salutaire, par les résultats souvent contrintuitifs de la recherche en psychologie sociale, sur les effets des discussions sur les membres d’un groupe et leur comportement individuel. Car la moyennisation est un effet prévisible des algorithmes, mais celui de la polarisation est un autre effet consécutif des usages sociaux.
2.1. Les phénomènes sociaux de polarisation
La recherche sur les phénomènes de groupe doit beaucoup à des auteurs du milieu du 20e siècle dont les études [13] ont mis en évidence le phénomène de polarisation des positions, très loin de l’illusion du dialogue vertueux producteur d’un consensus intelligent [14], du fait de la qualité des arguments ou d’une négociation entraînant le groupe à s’accorder. Malgré les effets de normalisation et de conformisme social qui portaient à croire qu’un groupe produisait des alignements de points de vue, ces recherches ont montré que, selon les positions initiales, les modes de décision entraînaient un renforcement de ces positions en polarisant les avis, malgré le travail de groupe [15]. Alors que la croyance était celle d’un dialogue favorisant l’émergence d’un consensus par « l’influence modératrice sur les jugements individuels » [16], il ressort plutôt : « une conclusion tout à fait différente concernant l’impact de la discussion du groupe sur les jugements et décisions individuels, à savoir que, sous certaines conditions, le groupe engendre une plus grande extrémité ou polarisation des jugements et des décisions. » [17].
Ainsi, le débat au sein du groupe favorise une polarisation bien plus qu’il ne facilite une modération ou une régulation. La discussion a un effet de renforcement identitaire et de réaction aux argumentations hostiles, conduisant à ces divergences plus grandes. Serge Moscovici conclut ses recherches [18] par trois explications : l’implication et l’engagement inducteurs de la polarisation, l’effort ou l’échange de vue inducteurs d’une signification croissante des stimuli et l’interaction dans le groupe, inductrice d’un renforcement des certitudes. Enfin, cette polarisation trouve une autre explication dans la constitution de l’identité de soi par un jeu d’image entre la recherche-construction de son identité personnelle dans ou contre le groupe et celle d’une projection de soi par identification au groupe. Le psychosociologue Eugène Enriquez étudia ces enjeux de construction de soi, par fusion ou opposition au groupe, par attirance vers l’acquisition des attributs de l’image du groupe ou par répulsion afin de s’en distinguer. Et cette image de soi avec ou contre le groupe d’appartenance joue aussi dans des fusions et oppositions entre des groupes par attirance ou rejet, selon les phénomènes d’endogroupes ou d’exogroupes.
Or, très loin des groupes restreints et des groupes sociaux décrit par la psychosociologie selon des critères de proximité géographique [19], les réseaux sociaux et les relations d’un individu dans l’environnement numérique exacerbent les effets de fracturation et de fragmentation sociales avec ces miroirs éclatés – je reprends là l’expression d’E. Enriquez. Or, en créant des groupes éphémères, des relations sans lien affectif antérieur, des proximités transitoires ou les détachements et les séparations sont innombrables, l’appartenance sociale et les facteurs de pressions collectives liés aux appartenances de proximité ont manifestement moins de prégnance. Le phénomène de polarisation trouve dans ces nouveaux contextes plusieurs explications cumulatives. L’affirmation de soi et son identification par les autres passe par une reconnaissance et une approbation sociale qui s’obtient plus par l’affichage de positions militantes que par l’expression d’un jeu de médiation et de composition dans les relations au sein du groupe. Sa visibilité sur le réseau tient à l’excès de la position. Son existence personnelle passe plus par une exhibition de soi, par une assertivité éventuellement agressive pour susciter des réactions fortes en sa faveur ou pour nourrir une polémique avec des jeux de fraternisation et d’excommunication où le dialogue a disparu au profit d’injonctions, d’attaques ad hominem, d’exagérations de toutes sortes qui viennent amplifier les cercles d’attention sur les réseaux, de défense ou d’hostilité ; l’antagonisation devenant une forme de distinction militante. Tout le système se nourrit de cette « polémisation » de la relation, et j’entends bien ici faire référence à la racine guerrière du terme polémique (polémos – démon de la guerre).
Les productions ont déjà fait dériver les solutions cognitives et quelques situations embarrassantes [20] ont démontré ce phénomène de dérive et de divergences croissantes, où l’usage manipulatoire, le test de la solution et pour d’autres des stratégies toxiques de propagandes rendent les solutions obsolètes.
2.2. Les dérivations sociales vers l’accroissement des divergences
Et ces tendances connues de la polarisation augmentent dans une société où les relations sont majoritairement intermédiées par des machines. Les manipulateurs des réseaux sociaux comme les manipulateurs d’algorithmes produisent des biais de confirmation, puisque chacun entre en relation avec ses pairs et que la consultation d’une information provoque des propositions d’informations similaires. Ces phénomènes d’encerclement, de renforcement, voire d’isolement dans ces bulles relationnelles et cognitives sont connues, et elles participent de ces polarisations croissantes par isolement et excès croissant dans l’expression de sa position initiale. La division-fragmentation s’accroit.
Si la psychologie sociale explique ces phénomènes de séparation-polarisation, chaque groupe a intérêt à revendiquer son identité par opposition pour confirmer son existence propre, fidéliser ses membres, voire en attirer de nouveau. L’hystérisation participe d’une stratégie commune où le militantisme construit une authentique propagande de guerre pour désigner les ennemis, rassembler et éviter tout consensus qui serait une trahison. Les solutions cognitives grand public vont devenir des champs de bataille idéologique jusqu’à la dissociation de clans rivaux portant leurs représentations du monde, leur mythe et leurs preuves à la façon de sectes bâtissant des représentations et/ou connaissances irréconciliables.
3. La dissociation sociale et la fracturation politique
Tout cela indique que les solutions cognitives produisent une dissociation sociale qui porte sur plusieurs aspects : celui de la transmission cognitive à laquelle se réfère Alberto Bandura dans toute sa théorie des apprentissages sociaux fondée sur l’expérience vicariante ; celui de l’annihilation de l’art de la conversation, fracturant le corps social.
3.1. Des effets probables de la polarisation-antagonisation des représentations sociales
Avec une solution générative grand public, il s’agit de répondre à toutes les questions du quotidien comme à toutes les questions à la manière d’une encyclopédie universelle, voire à entrer dans l’intimité de la confidence et du conseil personnel. Il y a une prétention, bien différente des solutions spécialisées dans des tâches spécifiques ou des domaines très circonstanciés comme l’imagerie médicale assistée par des solutions d’analyse. Dans le contexte des solutions grand public, mais aussi dans l’usage inconsidéré de ces solutions par des professionnelles dans leurs entreprises, les risques sont parfaitement identifiés.
3.1.1. La destruction de la transmission cognitive est inévitable, dès lors que l’essentiel de l’apprentissage humain s’obtient en vertu du principe de la vicariance décrit par Alberto Bandura. Il y a une différence radicale entre la mise à disposition d’une donnée, d’une image ou d’un texte qui sont confiés à la seule capacité d’intellection de son réceptionnaire et l’enrichissement de son accueil par le jeu d’une médiation. Lire ou regarder n’est pas la même chose que de lire en ayant parallèlement le cours qui explique, commente, met en relation avec d’autres textes, contextualise donc, voire interprète en vertu de grilles de lecture successives appartenant à des champs théoriques ou disciplinaires distincts. Cet exercice passe aussi par le dialogue et l’interaction, soit le questionnement produit par l’intellection et l’attente d’une réponse qui nourrit le processus cognitif. De même, dans la capacité à produire des modalités de créations intellectuelles, de la réflexion à la résolution de problème à l’inventivité en situation, ces procédés s’appuient sur des apprentissages sociaux, par vicariance, observations, appropriations, imitations partielles, reprises des attitudes qui disparaissent dans une interaction intermédiée par la solution cognitive.
Le consommateur de la solution générative grand public s’expose donc à la répétition tautistique, s’il ne préserve pas des attitudes sociales d’éveil à la connaissance, l’expérience, la pratique en situation, le jugement selon des partis-pris qui font l’intelligence en situation. Un scandale récent atteste du risque de perte de contrôle de la connaissance accompagnée de l’incapacité progressive de disposer des connaissances permettant d’évaluer la production de la solution cognitive. Des générations d’étudiants produisant massivement leurs travaux à l’aide de ces solutions ne vont plus disposer, ni du regard critique, ni des connaissances fondamentales dans leur discipline pour apprécier la qualité cognitive de ces productions. Le cas très récent du cabinet de conseil Deloitte produisant un rapport pour 250.000 € pour le département de l’emploi (Department of Employment and Workplace Relations (DEWR) australien est exemplaire et une seconde affaire similaire au Canada. Propos incohérents, citations fictives, hallucinations par des références à des études inexistantes, etc. ont été révélés par un universitaire, qui lui connait justement le domaine en question. Ce cas permet de voir que par intérêt, par paresse, la chaine de production de nouvelles prétendues connaissances sera affectée de ces productions qui vont-elles-mêmes nourrir d’autres productions se référant à l’autorité du rapport initial. L’entropie est inscrite dans ces solutions et dans l’effet consubstantiel de leur usage induit.
3.1.2. L’annihilation de l’art de la conversation,
Faut-il en venir à ce qui fait connaissance en société ? Si le langage est bien un des véhicules majeurs des faits sociaux, l’emprise technologique annihile l’art de la conversation, pour lui substituer un simulacre, comme le montre les conversations et confidences où la solution cognitive entretient une boucle d’autojustification, jusqu’à conduire au suicide ou à soutenir des dérives psychiques, par absence d’éthique humaine et d’interpellation introduisant une approche personnelle de la situation dans une conversation entre humain.
Le sociologue David Le Breton a raison d’aborder cette question dans son livre La fin de la conversation. La parole dans une société spectrale publié en 2024. Le langage parlé fait qu’un même mot peut avoir des centaines de significations et nuances qui ne sont pas liées au seul langage, mais à la situation dans sa réalité physique qui met en jeu autre chose que les mots par des objets, des gestes, des actions, des intentions changeantes, etc. Il suffit de penser à la valeur du silence ! Pour la machine, le silence n’a pas de signification, alors que dans la conversation, le silence sera par exemple réprobateur, réflexif, méditatif, interrogatif, tactique, etc. La conversation engage donc une présence, elle aussi au-delà du seul langage. J’emprunte à David Le Breton cet extrait d’un entretien radiophonique : « dans la conversation, il y a une présence, une mutuelle présence, c'est-à-dire qu'on est physiquement là devant l'autre. Il y a une reconnaissance, il y a une réciprocité, il y a un va-et-vient de la parole. Il y a également du silence, et non pas une panne comme c'est le cas dans la communication. Donc on est capable de se taire ensemble parce que le silence peut faire aussi partie de l'amitié et d'un échange de sens, etc. Donc, c'est un contact la conversation, au sens très fort du terme. La communication, pour moi, elle est à distance. » (France Inter – 27 juin 2024)
Et la conversation n’a pas de but constant, elle peut varier, de l’explication d’une situation à un ami, à un échange d’informations locales, ou un questionnement de l’un vers l’autre interrompu par une histoire récente qui s’intercale dans la conversation, etc. Il y de nombreux plans, une connaissance mutuelle qui parle de soi, de l’autre, d’une situation, etc. Et tout cela s’entremêle avec un art du changement de pied quasi-instantané. En s’isolant dans une relation intermédiée par l’outil et la solution cognitive associée, il y a disparition de cette sociabilité et des affections qu’elle produit.
3.2. Du risque de stérilisation du savoir
Il y a aussi une distinction à faire pour comprendre que le risque de stérilisation entropique est bien réel. C’est le risque de récursivité, autre manière de qualifier le tautisme de L. Sfez. Le cas des étudiants faisant confiance par facilité dans les résultats de la solution ne sont pas éloignés de l’intérêt productiviste du cabinet Deloitte produisant son rapport à l’aide de solutions cognitives pour 250.000 €, au risque d’être confronté à un lecteur vigilant et sachant qui démontre la supercherie. Mais la contestation de la qualité de la production tient à cette génération de sachant ayant appris et qui peuvent revendiquer que leur savoir contredit la « soupe » de la solution cognitive. Ce qui est en risque tient, selon nous, à trois dimensions des relations socio-cognitives qui disparaissent, dès lors que l’intermédiation des solutions monopolise l’attention de l’utilisateur. Elles sont les clés d’une société qui ne sombre pas dans l’entropie de son patrimoine de connaissances et dans la création de nouveaux savoirs.
Première dimension : le jugement gnoséologique, qui tient à la connaissance permettant d’évaluer la crédibilité de la proposition. Nous l’avions aussi vu dans le premier article. Si les personnes n’ont plus la capacité d’émettre un jugement gnoséologique, elles sont alors en situation de dépendance et de soumission à une production dont, même les hallucinations, ne seront plus repérables. La stérilisation des productions des solutions cognitives est prédictible aujourd’hui dès lors que la compétence de contrôle ne peut plus se pratiquer. Première entropie
Deuxième dimension : l’interaction sociale praxéologique, qui tient à la capacité d’effectuer un contrôle social en se concertant avec d’autres détenteurs de connaissances et d’expériences qui vont confirmer, faire consensus ou dissensus pour nuancer, circonstancier la proposition cognitive. Faut-il rappeler que la création de nouvelles connaissances procède bien par le jeu des interactions sociales lors de colloques scientifiques par exemple ou lors de commissions d’experts s’accordant sur la justesse d’une norme (pensons à la production des normes industrielles ISO). Le monopole accordé à la solution cognitive comme source de connaissance transmet au biais algorithmique la responsabilité de la disparition de points de vue marginaux, la moyennisation aliénante de positions plus variées, etc. La stérilisation par simplification est elle aussi déjà observée. Deuxième entropie.
Troisième dimension : l’expérience effective adéquate, qui est à nos yeux la plus essentielle car elle brise le tautisme en cours. Le monde de la représentation n’absorbe pas le réel vécu, l’expérience sensible et corporelle, les sentiments humains et les relations à des réalités physiques triviales ou non, dont dépendent les connaissances, les mots et les chiffres n’étant que des représentations. La connaissance est liée à l’expérience, dans la démarche scientifique de Claude Bernard d’abord, mais aussi dans l’élaboration d’une connaissance éprouvée dans des pratiques. Or, cette décorrélation signe la fin de la connaissance comme savoir et action. Il n’y pas la totalité du savoir et de l’expérience humaine sur le net. La source est incomplète par construction. Troisième entropie
A cet égard, les dernières positions prises par Open IA sur son irresponsabilité concernant la valeur de la production des réponses de sa solution sonne comme un défi entre les ressources financières et les ressources consommées (eau et énergie en particulier) pour en arriver à la conclusion que sa production intellectuelle n’est pas assumée en responsabilité, car en fait peu fiable, inexacte, et risquée s’il s’agit de se confronter à une mise en œuvre dans la réalité. C’est ici toute la différence entre une solution cognitive spécialisée, pensons à l’imagerie médicale, où nos trois dimensions demeurent présentes : jugement gnoséologique du médecin qui sait, interaction sociale praxéologique du collège médical pour statuer pour des cas singuliers et expérience effective adéquate engageant leur responsabilité pénale dans le réel des actions menées sur le corps des malades.
Voilà pourquoi, la prédiction de la faillite des solutions cognitives génératives grand public paraît très manifeste et que le maintien des trois dimensions évoquées ici sera le signe d’une préservation de la qualité de la production des connaissances.
Conclusions
La conclusion tient eu deux points. Un sur le politique, l’autre sur la technique.
Sur le politique, la dérive entropique des solutions cognitives fait augmenter le risque d’une double dissociation schizophrénique, celle d’un éloignement du réel assorti d’une fragmentation de ses représentations délirantes en autant de visions qui ne font plus partie de la réalité de l’autre. Le dialogue devient impossible, l’antagonisation, la schizophrénie et l’hystérisation des relations opacifiées par cette fracturation des connaissances détruit les pratiques qui font l’expérience démocratique et dont les solutions cognitives ont détruit la pratique, puisque « Je » ne parle qu’à lui-même au travers d’une machine qui lui répond. Ce, à chacun sa folie, fait courir le risque d’une radicalisation soudaine vers un ralliement fusionnel où les antagonismes feront se lever des groupes les uns contre les autres.
Sur la technique, notons que de nombreux auteurs avaient annoncé cette faillite de l’homme dévoré par la technique. Jacques Ellul dans Propagande dès 1954 évoque bien cette disparition de l’homme encerclé par la technique dont il n’est plus qu’une excroissance. Neil Postman évoque aussi cette distraction nihiliste que les techniques accomplissent dans Se distraire à en mourir dès 1986. Mais le mot de la fin appartient, je crois, à l’épistémologue Paul Feyerabend :
« La tentation sera dès lors toujours plus grande de réduire l’homme à ces solutions efficacement rationnelles …/… Une société d’hommes patiemment déshumanisés afin d’en simplifier les problèmes, une existence aux gestes méthodiquement conditionnés, un pouvoir de critique et de réaction savamment inhibés ne sont pas choses absolument chimériques et nous nous demandons si le monde moderne n’offre pas comme des réalisations sporadiques de cette dégradation de l’humain. » (1979, 121).
Il convient d’en sortir, mais cela signifie de changer de paradigme et de sortir de la foi naïve en l’efficacité bénéfique des techniques. Mais, à la fascination pour l’automobile et bien d’autres techniques, succède un temps de désamour et de banalisation ou de remise à sa place. Le temps de la lassitude, des échecs et de la critique viendra, et ce rapport à la technique des solutions cognitives va passer l’épreuve du feu, c’est-à-dire, celle du réel.
Bibliographie
ALOMBERT, Anne. 2024. Schizophrénie numérique. Paris : Editions Allia
ALOMBERT, Anne. GIRAUD, Gaël. 2024 Le capital que je ne suis pas. Paris : Fayard
BODART, Yves. 2018. Les phénomènes de groupe. in CIPS. n° 117-118. p.121-146. Liège :
CHATEAURAYNAUD, Francis. LAMY, Jérôme. 2024. Les algorithmes et leurs écologies. Une sociologie du numérique attentive à la matérialité des dispositifs dont dépendent les boucles computationnelles. in La nouvelle revue des sciences sociales
DROZDA-SENKOWSKA, Ewa. RIC, François. MULLER, Dominique. 2007. Groupe et décisions collectives. in Revue Inflexions. n° 5. p.213-229
ENRIQUEZ, Eugène. 1971. Les méthodes centrées sur le groupe. Paris : PUF
FARRELL, Henry. NEWMAN, Abraham. 2024. L’empire souterrain. Comment les États-Unis ont fait des réseaux mondiaux une arme de guerre. Paris : Odile Jacob
FEYERABEND, Paul. 1979. Contre la méthode. Paris : Seuil
JULIA, Luc. 2019. L’intelligence artificielle n’existe pas. Paris : Editions First
JULIA, Luc. 2025. IA génératives, pas créatives. Paris : Editions Cherche-midi
LE BRETON, David. 2024. La fin de la conversation ? La parole dans une société spectrale. Paris : Métailié
LOUIS-GUERIN, Christiane. 1972. Effets du groupe sur les jugements et les attitudes individuelles. in Bulletin de psychologie, tome 25 n° 300. p. 705-713
MANOVITH, Lev. 2010. Le langage des nouveaux médias. Dijon : Les presses du réel
MOSCOVICI, Serge. CHATEL, Marie-Madeleine. ZAVALLONI, Mariza. 1968. Effet de polarisation et construction des échelles d'attitudes. in Bulletin de psychologie. tome 22. n° 274. p.329-340
OBERLE, Dominique. 1999. Le groupe en psychologie sociale. in Sciences humaines, n° 94 - La vie des groupes.
POSTMAN, Neil. 2010. Se distraire à en mourir. Paris : Nova
POSTMAN, Neil. 2019. Technopoly. Comment la technologie détruit la culture. Paris : L'échappée, 2019
SADOWSKI, Jathan. 2020. Too Smart : How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Cambridge, Massachusetts : MIT Press
SADOWSKI, Jathan. 2025. The Mechanic and the Luddite : A Ruthless Criticism of Technology and Capitalism. Berkeley : University of California Press
[1] Nous attirons l’attention du lecteur sur nos recherches concernant les institutions subversives qui ont donné lieu à un article Le temps des illusionnistes 1 - les subversions institutionnelles, publié dans les Cahiers de Psychologie Politique, n°42 en 2022.
[2] Le lecteur gagnera à lire Le capital que je ne suis pas ! d’Anne Alombert et Gaël Giraud publié en 2024 chez Fayard qui font d’ailleurs le lien, sur lequel nous reviendrons en fin d’article, entre privatisation des communs et avènements de régimes autoritaires ; « la privatisation de ce qui ne peut l’être (la terre, le travail, la monnaie) avait conduit à la décomposition du corps social et alimenté le recours aux régimes autoritaires et totalitaires du XXe siècle, de même la capitalisation de ce qui ne peut être capitalisé (les ressources naturelles et les savoirs humains) conduit aujourd’hui à l’avènement de nouvelles formes d’autoritarisme et de totalitarisme. » (2024, 21)
[3] Il existe des séries de reportages troublants, entre fictions et vraisemblances, entre cinéma et reportage, entretenant une confusion gnoséologique sur leur statut : https://www.google.com/search?q=ours+polaires+couverts+de+parasites . La qualité visuelle, les commentaires, le scénario apportent un crédit à ces fictions, celles-ci portant aussi sur des sujets d’actualité comme les guerres actuelles : Ukraine/Russie et Israël/Iran. Beaucoup portent sur des fictions de catastrophes : Skyscraper Collapses Suddenly as Nearby Ground Slides Away!
[4] L’effet jaunissement observé dans la production des images semble provenir de trois biais qui s’accumulent pour produire et reproduire en les accentuant les signes du jaunissement des images. Le premier serait lié aux sources elles-mêmes, avec une préférence pour es couleurs chaudes qui auraient un effet déformant sur les autres images par moyennisation dans les traitements. Le second tiendrait justement à ce traitement colorimétrique accentuant production après production le jaunissement. Le troisième tiendrait à un défaut de traitement initial, plus technique celui-là dans la gestion des couleurs par la balance des blancs qui rectifient les effets de couleurs dominantes liés à l’éclairage par exemple. Le phénomène de jaunissement illustre bien la déformation progressive altérant la qualité de toutes les images.
[5] Elon Musk annonçait durant l’été 2025 sur X que les IA ont « épuisés pratiquement toute la somme cumulative des connaissances humaines en matière de formation de l’IA. » Et son collègue co-fondateur d’Open AI, Ilya Sutskever, indique : « le pic de données », à partir duquel les nouveaux apprentissages de l’IA dépendront d’un processus dit synthétique de données produites dans l’environnement de la solution. Ces termes traduisent une conception « minière » d’une ressource limitée et exploitée.
[6] Lire l’article : Un avocat américain a utilisé ChatGPT pour préparer un procès... et n'a cité que des faux arrêts | France Inter. En résumé, l’avocat utilise ChatGPT pour produire ses conclusions en citant six arrêts inexistants. Interrogé par le juge, l’avocat s’est défendu, reprenant au passage la totalité des procédés évoqués dans notre précédent article mentionnant les risques gnoséologiques : « L'avocat a affirmé avoir "regretté d'avoir utilisé une intelligence artificielle générative pour remplacer la recherche légale", et reconnaît qu'il "n'était pas au courant de la possibilité que le contenu de ChatGPT soit erroné". » (France Inter – 30 mai 2023)
[7] Les travaux de Jathan Sadowski, expliquent fort bien les risques de faillite des entreprises cognitives qui ne peuvent que retarder l’effondrement de leur modèle, par un rejet massif de toutes les critiques qui alertent sur les défaillances scientifiques de leurs constructions informatiques du fait des enjeux financiers liés à la consommation de capitaux en centaine de milliards. Ces deux ouvrages sont : Too Smart : How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World (Trop intelligent : Comment le capitalisme numérique extrait des données, contrôle nos vies et conquiert le monde) qui décrit les motivations économiques et politiques des opérateurs des technologies dîtes intelligentes et The Mechanic and the Luddite : A Ruthless Criticism of Technology and Capitalism (Le mécanicien et le luddite. Une critique impitoyable de la technologie et du capitalisme) qui explique les risques d’effondrement et de domination agressive, en proposant le démantèlement des capitalistes technologiques.
[8] Il en donne la définition suivante : « "Principe qui consiste à prendre la représentation de la réalité pour son expression. Par ce biais les médias se copient les uns les autres et cette répétition tend à nous faire croire qu'elle vaut preuve. Le terme est à la fois un néologisme et un mot-valise, forgé à partir des mots tautologie et autisme (maladie de l’auto-enfermement communicationnel dans laquelle le patient n’éprouve pas le besoin de communiquer)" » (1988)
[9] Les affaires récentes aux Etats-Unis confirment le fait de prédation des ressources cognitives sur le même modèle d’appropriation des minières, pétrolières, gazières, les créateurs de solutions cognitives acceptant des règlements qui suffisent à démontrer le vol manifeste dans leur pratique. Par exemple, Anthropic accepte de verser 1,5 milliard « à un fonds d’indemnisation d’auteurs, ayants droit et éditeurs qui poursuivaient l’entreprise pour avoir téléchargé illégalement des millions de livres » (La Croix, 6 septembre 2025) : IA et droits d'auteurs: Anthropic va verser 1,5 milliard de dollars
[10] Les chercheurs sont soumis à des règles qui les incitent à multiplier leurs productions, au risque d’eux-mêmes utiliser des solutions cognitives au lieu et place d’authentiques recherches, les revues sont aussi potentiellement utilisatrices de ces solutions pour procéder à des évaluations des textes, et les étudiants sont encore plus exposés à des pratiques « paresseuses » ; soit le risque d’expulsion de toute novation, révolution ou contestation du savoir dominant avec l’enjeu de préserver l’intégrité scientifique et la liberté fondamentale d’une activité scientifique. Comment préserver l'intégrité scientifique à l'heure de l'IA et de la multiplication des revues ? - Campus Matin
[11] Marc Zuckerberg, fondateur de Facebook a reconnu les pressions exercées par l’administration : « C’est une lettre qui fera date, aux Etats-Unis, dans les rapports entre plates-formes numériques et Maison Blanche. Lundi 26 août, le PDG de Meta (Facebook, Instagram), Mark Zuckerberg, a affirmé dans un courrier adressé à une commission du Congrès américain que l’administration Biden avait « fait pression sur [ses] équipes pendant des mois pour qu’elles censurent certains contenus liés au Covid-19 ». » (Le Monde, 27 août 2024)
[12] Des études ont déjà été réalisées sur les stéréotypes des solutions cognitives en matière de production d’images. Nous renvoyons le lecteur aux travaux important de Lev Manovitch, théoricien de la culture numérique analysant les stéréotypes de l’IA sous le vocable de l’esthétique de l’IA qui démontrent l’influence des modèles de traitement sur la production des images stéréotypées des solutions cognitives. Il a publié : Le langage des nouveaux médias en 2001, traduit en 2010 aux édition Les presses du réel
[13] Les principales études sur ce phénomène dénommé « risky shift » sont celles de N. Kogan et M.A. Wallach menées pendant les années soixante : Risk taking : a study in cognition and personality. New York : Holt, Rinehart & Wintson. 1964 ; Group risk taking as a function of members anxiety and defensivenss levels. Journal of personality. 1967; M.A. Wallach, N. Kogan et D.J. Bem : Group influence on individual risk taking. Journal of Experimental Social Psychology. 1969 ; Diffusion of responsability and level of risk taking in groups. Journal of Abnormal. and Social Psychology. 1963 ; et les travaux de Serge Moscovici, dont son article portant sur ses études sur la polarisation : The group as a polarizer of attitudes. Journal of Personality and Social Psychology, 1969
[14] E. Drozda-Senkowska , F. Ric et D. Muller montrent que la valeur du consensus relève surtout d’ : « un principe fondé sur la croyance dans les bienfaits d’un réel débat lors duquel les membres d’un groupe prennent connaissance des faits, échangent des points de vue différents, comparent des arguments opposés sans que rien ni personne ne gêne la transmission et la discussion des informations, la valeur du consensus dépend de la qualité des échanges. » (2007, 225)
[15] D’autres travaux dont ceux J.H. Davis ont contribué à éclairer les conditions de la décision collective entre la vérité l’emporte car elle est manifeste, la vérité soutenue l’emporte parce que plusieurs membres en sont les porteurs, l’équiprobabilité des solutions selon le portage au sein du groupe et la proportionnalité selon le soutien qu’elle rencontrera. : Social Interaction as a combinational process in group décision. Academic Press. 1982
[16] J’emprunte cette juste expression à Christiane Louis-Guerin dans son article de 1972 Effets du groupe sur les jugements et les attitudes individuelles p.709
[17] (1972, 709)
[18] Nous nous référons à son article de 1968 Effet de polarisation et construction des échelles d’attitudes publié dans Bulletin de psychologie
[19] L’article d’E. Drodza-Senkowska, F. Ric et D. Muller commence par cette définition présente dans toute la littérature de l’époque, mais qui dénote l’ampleur de la rupture consommée par l’émergence des relations sociales intermédiées par l’internet puis les réseaux sociaux, puisque la définition en est devenue largement caduque : « on utilise le terme de groupe pour désigner l’ensemble des personnes qui se trouvent en un même lieu au même moment. » (2007, 213)
[20] Dès 2016, des solutions de ChatBot, robot artificiel s’exprimant en langage naturel, dont Tay de Microsoft qui ira jusqu’à nier l’holocauste avec cet échange :
- « Est-ce que tu crois que l’holocauste a eu lieu ? »
- « pas vraiment désolée »
Microsoft débranchera la solution après moins de deux jours d’utilisation (Le Monde, 24 mars 2016) A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter. De même plus récemment une étude de l’UNESCO alerte sur les stéréotypes et leurs influences : Intelligence artificielle : l’UNESCO alerte sur les stéréotypes racistes, sexistes et homophobes | ONU Info. Enfin,