N°47 / Psychologie politique de l'Intelligence Artificielle - Juillet 2025

L’obsolescence programmée de l’intelligence artificielle générative grand public

Pierre-Antoine PONTOIZEAU
L’obsolescence programmée de l’intelligence artificielle générative grand public

Résumé

Mots-clés

Plan de l'article

Télécharger l'article

L’obsolescence programmée de l’intelligence artificielle générative grand public

Introduction

Il n’y pas de machine qui n’ait été dépassée un jour par d’autres machines. Il n’y a pas de marché qui n’ait prévu l’obsolescence programmée de ses produits dans l’économie contemporaine.  A l’inverse, la présentation qui nous est faîtes des solutions cognitives à quelque chose de messianique. Les discours ont une connotation révolutionnaire pour annoncer une nouvelle ère [1]. Ils ont une dimension mythologique pour exciter les esprits sur les espoirs fous que nous pourrions placer dans ces productions technologiques. Ils ont un aspect subversif, car l’oxymore de l’intelligence, dîtes artificielle, invite à tourner la page de l’obsolescence de l’homme en faveur de la robustesse intellectuelle, voire l’infaillibilité des réponses produites par ces machines. L’intelligence humaine est mise au martyre de la concurrence parfaite du travail de la machine [2].

Nous voulons ici développer des hypothèses que nous étudierons en deux articles. Elles s’appuient sur trois intuitions.

La première est dans le titre. Les productions contemporaines sont toutes programmées pour leur obsolescence assez rapide, du fait de raisons économiques si magistralement résumées par Günther Anders :

« C’est le cas de certaines lames de rasoir, par exemple, que les firmes qui en détenaient le brevet ont renoncé à produire, parce que l’immortalité effective de ces produits aurait entraîné la mort de la production. Or la production vit de la mort des produits (qu’il faut toujours racheter) ; c’est par conséquent pour assurer l’ « éternité » de la vie de la production que chaque exemplaire doit être mortel. » (2002, 69)  

La seconde tient au fait que l’information concentrée localement en des machines est entropique, sur les plans énergétique et surtout épistémologique.

La troisième, et nous commencerons par celle-ci, est psychologique et gnoséologique, parce que l’adaptation de l’homme à la machine se fait au détriment de l’homme, éprouvant une « honte prométhéenne », et j’emprunte ce terme à Günther Anders dont les conséquences sur les connaissances sont prédictibles.

Le plan général de ces deux articles sera donc le suivant. Nous commencerons par l’étude du procès en cours où les solutions cognitives – terme que nous adopterons au détriment de l’oxymore de l’intelligence artificielle – installent une relation de domination de la machine sur l’homme en cours de décérébration. Nous continuerons par l’examen de la portée gnoséologique de la relation entre la construction de ces solutions et leur usage, soit un producteur sachant et un consommateur à l’ignorance croissante. Dans le deuxième article, il conviendra d’évaluer leur inévitable brouillage dans un chaos informationnel totalement prédictible qui conduira à leur obsolescence, surtout pour les solutions dîtes universelles pour le plus grand nombre. Nous terminerons par une partie politique, parce que la généralisation de cette production n’est pas sans conséquence sur une conception normative de la connaissance et de la vie publique.

Dans ce premier article, il s’agira de vérifier la relation de domination de la machine sur l’homme et ses raisons. Et, ne cachons pas que nous utiliserons une série de notions issue du premier essai de Günther Anders intitulé : Sur la honte prométhéenne, de son ouvrage exceptionnel déjà cité : L’obsolescence de l’homme, publié en 1956 et dans lequel il diagnostique avec une acuité admirable les « computing machines » (2002, 48) et leur corollaire de « human engineering. » (2002, 54). Ces notions sont : réification, désertion, machinisation, honte, intentionnalité, résignation et malaise de la singularité.

1. La compétition humiliante entre intelligence humaine et solution cognitive

Avec les solutions cognitives se joue une dialectique inédite dans l’histoire des techniques et dans le rapport psychologique qu’entretient l’homme avec ses inventions. C’est la raison d’un détour généalogique grâce aux travaux des anthropologues et philosophes des techniques que sont André Leroi-Gourhan et Gilbert Simondon, dans le but de mieux mettre en relief ce qui se produit avec ces technologies cognitives. Et fort de cette histoire, l’analyse documentée s’appuyant sur les notions de Günther Anders montrera, par contraste, que nous basculons d’une ère de la technique joyeuse à celle humiliante de l’homme honteux, concurrencé par ses propres machines, du moins est-ce le discours dominant des politiques et des producteurs de ces solutions cognitives. Se joue, pensons-nous, un rapport de domination inédit entre les producteurs de la technique et leurs consommateurs aliénés ; soit la tentative d’un ordre politique nouveau où la technique sert quelques ambitions conscientes ou non d’un asservissement plus que d’une émancipation, dans un rapport quelque peu morbide à la rationalisation-reconstruction du monde [3]. Ces techniques cognitives, par l’intrusion mentale qu’elles suscitent, réifieraient l’homme en retour plus qu’elles ne le libéreraient.

1.1. L’outil, expression des intentions et prolongement habile du corps humain

L’univers machinique s’est installé au fil des millénaires parce que les outils ont prolongé le corps humain en lui conférant des qualités complémentaires dont il ne disposait pas. Est-ce pour autant que l’homme s’est complexé de ne pas être aussi coupant que la pierre de silex ou aussi puissant que le marteau sur l’enclume ? Il faut avoir à l’esprit l’enseignement d’André Leroi-Gourhan, l’anthropologue des outils et de la technique. La conception de l’outil satisfait l’obtention d’un résultat qui requiert le concours d’un objet dont l’usage relève d’une pratique habile, exploitant les propriétés physiques de l’instrument dont le corps humain est dénué. Quelques exemples extraits de sa classification en témoignent. Son approche fonctionnelle est très intéressante, car elle manifeste les prolongements du corps dans ses fonctions qu’il ne peut réaliser que très imparfaitement. Les masses et les marteaux pour écraser ou enfoncer, les pierres, lames, haches et couteaux pour couper et trancher, les frondes et arc pour projeter, etc. Pour chaque technique, il s’agit de faire mieux que le corps humain. Il peut lancer, frapper, déchirer ou couper, mais les objets apportent plus de force, de précision, d’efficacité. La technique libère, elle émancipe et développe une puissance que le corps n’aurait pas seul.

Ce comportement de production des outils tient aux besoins humains : amélioration de la qualité des opérations avec les buts d’amélioration de l’habitat, des vêtements, de son alimentation, etc. Cette première époque de la technique n’induit pas une honte de soi, une concurrence entre l’homme et l’outil. Elle magnifie la pratique et l’habileté de l’artisan ou du chasseur dans l’usage des outils qu’ils élaborent, l’utilisateur étant, le plus souvent, indissociable du fabriquant.

L’ethnologue discerne déjà l’influence en retour de l’outil sur l’homme. Dans La Mémoire et les Rythmes en particulier, il montre que la socialisation de l’homme se fait par l’adoption de rythmes et de cadences où la maîtrise de l’outil impose en retour sa propre discipline. L’artisan doit se maîtriser pour exploiter l’instrument selon l’intention qui vise un but de production. Mais, plus la technique se complexifie, plus l’artisan se doit d’acquérir des compétences et des comportements qu’oblige l’instrument, même si sa créativité s’y exprime jusqu’à faire évoluer les instruments pour obtenir d’autres résultats. Il est bien discipliné par l’outil et en un certain sens subordonné aux règles de son bon usage. Couper, lancer, peser devient un artisanat où les gestes appris conditionnent ce rapport d’efficacité. Ici, l’homo faber est fier de ce qu’il accomplit. Le savoir de l’artisan est magnifié, car lui sait faire bon usage de la technique.

1.2. La machine, système complexe dont l’humain est le supplétif

Notre deuxième grand spécialiste de la technique, Gilbert Simondon développe la thèse d’une sorte d’autonomie des outils dans un mode d’existence propre. La différence très notable qui le distingue de son prédécesseur tient à la nature et à l’époque des techniques qu’il étudie. Il s’intéresse aux techniques contemporaines du 20e siècle, constituant des systèmes techniciens composés de multiples parties qui prennent leur place dans des ensembles [4]. Il décrit des machines, voire des systèmes de machines comme les usines ou les réseaux par exemple.

Là où l’anthropologue fait peu de cas de la distinction entre le producteur de la technique et son utilisateur, souvent les mêmes personnes ou des personnes proches dans la communauté, G. Simondon observe ce clivage entre les producteurs des machines : experts et spécialistes qui fabriquent, laissant souvent peu de place à l’utilisateur, supplétif au service de la machine. Faut-il se souvenir du film Les temps modernes de Charlie Chaplin en 1936 ? A ce sujet, G. Simondon montre que la technique n’est plus du tout le prolongement du corps humain pris individuellement, mais une machine réalisant un ensemble de tâches que des corps humains ne peuvent plus accomplir, l’homme servant la machine pour qu’elle perdure dans son fonctionnement. L’inversion est manifeste :

« Au XXe siècle, ce n’est plus le morcellement hiérarchique ou local de la société qui crée l’aliénation de la société humaine par rapport à l’homme, mais plutôt son immensité vertigineuse, sans limite, mouvante ; le monde humain de l’action technique est redevenu étranger à l’individu en se développant et se formalisant, en se durcissant aussi sous la forme d’un machinisme qui devient un nouveau rattachement de l’individu à un monde industriel qui dépasse la dimension et la possibilité de penser de l’individu. » (1958, 145)

Cette critique de ce machinisme aliénant est connue. Et elle tient, pour une part, à ce clivage entre le producteur ingénieur et le travailleur exécutant des tâches prescrites, voire le consommateur conditionné des objets techniques complexes que G. Simondon analyse, à juste titre, comme une discontinuité du savoir dans la société, fragmentée entre deux ou trois catégories d’humains aux relations asymétriques :

« La plus forte cause d’aliénation dans le monde contemporain réside dans cette méconnaissance de la machine, qui n’est pas une aliénation causée par la machine, mais par la non-connaissance de sa nature et de son essence, par son absence du monde des significations, et par son omission dans la table des valeurs et des concepts faisant partie de la culture. » (1958, 9)

Prenons l’exemple de l’automobile qui est un système machinique complexe dont le conducteur ne connait que très marginalement les savoirs qui l’ont rendu possible. Lui est un usager développant des pratiques plus ou moins expertes pour des usages domestiques ou compétitifs de l’automobile : le pilotage. Il peut ne rien savoir de la conception industrielle de son engin. Et l’ouvrier ne connait que très partiellement le système auquel il contribue. Plus encore G. Simondon mentionne les grands réseaux d’infrastructures où l’usager en fait bien quelque chose, mais pris dans ce système que des spécialistes construisent et organisent sur de vastes étendues géographiques [5]. L’aliénation est le résultat d’une disjonction où le producteur peut assigner des buts à ses techniques où la prescription des usages aliène le consommateur.

G. Simondon distinguait déjà les fonctions techniques et les fonctions biologiques, semblant convenir que le vivant n’était pas réductible à la technique et qu’il y aurait un abus de langage à toujours s’illusionner sur des propriétés vivantes attribuées à la technique, par abus de métaphores [6]. Il prend pour exemple l’enregistrement qui n’est pas la mémoire, la conservation qui n’est pas le souvenir, etc. En revanche, G. Simondon découvre par la cybernétique que l’automatisation ne se fait pas au détriment de l’autonomie de machines informatiques de plus en plus sophistiquées. A ce stade, elles se rapprochent un peu plus de l’humain, même si deux qualités semblent faire défaut : l’intentionnalité dans un acte d’invention et l’absence de limitation à leurs actes par une éthique, la machine pouvant dysfonctionner, mais pas renoncer à agir [7]. Ainsi, les métaphores humanisantes de la solution cognitive rapprochent de l’homme, mais elles absorbent d’autres réalités par extension abusive du champ de la métaphore jusqu’à la confusion. Elles peuvent conduire dialectiquement à sa déshumanisation en retour par l’imitation de la machine [8]. C’est ce que voit G. Simondon et c’est le sens de l’analyse que nous proposons à partir des concepts de G. Anders. La métaphorisation développe une confusion, un passage réciproque où l’humain peut se désirer machine et se projeter dans la machine. Il y a peut-être bien un désir de désincarnation ou de désincorporation, pour conquérir les prétendues vertus machiniques.

1.3. La solution cognitive, humiliation et désir morbide de l’obsolescence de l’homme

Une certaine conception de l’esprit scientifique que nous avons étudié dans quelques articles [9] promeut l’apathie et une raison morbide jusqu’à une sorte de déshumanisation dont Edmond Husserl indiquait qu’il s’agit d’une extranéation, soit cette négation de l’humain par lui-même dans sa quête de l’objectivité scientifique qui, par conséquent, condamne le cœur, les sentiments, les perceptions et les émotions humaines, soit le déni du monde vécu que Karl Jaspers reformulera dans l’expérience vécue, signe d’une philosophie de l’existence [10]. Aujourd’hui, la promotion et l’installation des solutions cognitives dans les pratiques professionnelles et quotidiennes paraissent suivre quelques étapes où les notions de G. Anders ont toute leur pertinence, car il s’agit bien d’un processus de réification-machinisation. Nous renverrons par des notes à des propos de l’auteur sur les notions que nous lui empruntons, explicitant cette déshumanisation.

Première étape : la réification [11] de la connaissance en informations ou données calculables

C’est là l’œuvre de l’oxymore : intelligence artificielle. Il suppose que l’œuvre de l’intelligence consiste en un traitement programmable de données calculables, l’intelligence se confondant avec la seule des sciences qui puissent valoir : les mathématiques. Et, la codification des savoirs laisse entrevoir une mathématisation absolue des raisonnements dans une logique elle aussi absolue, produisant des savoirs vrais, par le miracle des algorithmes. Dès lors que l’humain est convaincu de la vérité de cette conception et de cette représentation sociale de l’intelligence, la machinisation de l’intelligence n’est plus qu’une histoire de délai quant aux techniques disponibles. Être intelligent revient à calculer, maitriser des bases de données, les manipuler par des critères dans des équations, afin de produire un résultat déclaré vrai. La question n’est pas ici de savoir si l’hypothèse est juste, il s’agit surtout de convenir que l’environnement social joue un rôle éminent de conditionnement des humains, pour qu’ils s’imaginent être des machines pensantes [12], destin préférable à leur humanité méprisable.

Cette réification capitalise déjà sur les comportements codifiés-normés qui envahissent la vie quotidienne. Il faut saisir des codes, répondre à des séquences par des choix préétablis, répondre à des agents conversationnels par des lettres ou des numéros qui inversent le rapport entre la machine et l’humain qui se soumet, fait allégeance et se comporte en supplétif de la machine pour lui être compréhensible. Même les solutions populaires de solutions cognitives exigent une question pour produire une réponse. Pourquoi ce protocole ? Nous y reviendrons. Cet enfermement cognitif commence dès ces premières séquences de la relation : homme-machine, qui ne tolère pas de fantaisie ou d’alternative.   

Et sur le fond, la promesse est que toute connaissance constituée est normalisable, codifiable, exploitable, reproductible. La traduction est automatisable, le diagnostic médical l’est aussi, l’exploitation de bases juridiques de même. Tout savoir devient un système et la machine peut l’encoder et l’exploiter plus vite que l’homme. Cette réification de la connaissance constituée se substitue à l’intelligence et elle persuade que rien ne peut échapper à l’intelligence machinique à laquelle il faut se fier. A l’inverse, l’erreur et la lenteur sont le propre de l’homme imparfait, d’où la deuxième étape. L’intelligence se confond avec la seule connaissance constituée et réputée établie, donc réifiable.

Deuxième étape : l’infériorisation de l’humain discrédité par la performance machinique

Cette infériorisation est observable dans les événements au retentissement mondial organisés par les grandes entreprises technologiques. N’ont-ils pas, pour faire leur preuve, organisé des compétitions avec les joueurs d’échec et de go ou dans des jeux tel Jeopardy, faisant valoir la puissance de leur machine [13], dépassant et discréditant la performance humaine ? Dans les usages professionnels, les lectures des radiographies médicales en quantité avec des erreurs minimes, voire parfois des observations là où le médecin avait manqué de discernement, en très grand nombre, servent bien cette démonstration d’un humain imparfait, peu performant donc discrédité et substituable.

De même, les utilisateurs des solutions d’Open IA ont des propos édifiants pour dire que la solution les épate, qu’ils n’auraient pas fait mieux, surtout dans le temps imparti, etc. La machine est jugée plus performante. L’humain se dévalorise et il admire la machine, renonçant potentiellement à ce qui le distingue de ce miroir machinique. L’étudiant produit sa synthèse plus vite, presque mieux pense-t-il et le résultat a demandé peu d’effort ! De même des professionnels qui s’illusionnent sur leur valeur ajoutée, en produisant potentiellement la même chose au même moment par l’usage permanent de la solution cognitive. Celle-ci devient l’auteur de la seule solution du moment que des milliers de personnes reproduisent comme des clones.

Cette infériorisation est d’ailleurs étonnante, car elle met en avant certains critères au détriment d’autres qui nuanceraient assez largement cette performance machinique. Un enfant a besoin de la vue de quelques exemplaires d’un animal pour reconnaître la totalité des animaux de cette espèce alors que la machine a besoin de disposer de centaines de milliers d’images pour un espérance inférieure à 100%. Comme l’indique L. Julia : « AlphaGo est donc une machine équivalente à 2.000 ordinateurs, soit un petit data center. Deux milles ordinateurs qui consomment 440 kilowatts juste pour jouer au go. C’est beaucoup d’énergie pour gagner au go. » (2025, 21). Bref, il faut circonscrire la performance dans l’exercice, sans prendre en compte sa préparation, l’énergie consommée, voire le coût comparé. L’infériorisation est donc partiale et sélective retenant un critère d’efficacité, en occultant les conditions générales de cette efficacité. 

Mais pourquoi le marteau ou le silex n’ont-ils pas produit un tel discrédit ? Parce que ces machines « intelligentes » s’insinuent dans notre esprit, au lieu de prolonger notre corps. Elles s’incorporent en nous jusqu’à dissuader d’apprendre ou de mémoriser, déléguant la tâche à la machine dans une inversion du rapport de connaissance. L’homme n’aurait rien à perdre de son intelligence en laissant en friche son esprit : sans apprentissage, sans mémoire ! Etonnant paradoxe. Que puis-je dire de Platon sans l’avoir lu, étudié et mémorisé ? Et que pourrais-je dire de ce que me dit une machine sur Platon si je n’en sais rien ? [14] C’est la troisième étape de la désertion de la connaissance   

Troisième étape : l’intériorisation par la désertion et la résignation

La preuve de la supériorité étant effectuée, il s’agit de se résigner, de renoncer à contester. Sur ce point G. Anders est précieux dans ses deux notions de désertion et de résignation.

La désertion manifeste la honte relative à une comparaison qui rend désirable la machine. Se déserter soi-même signifie, préférer devenir autre par dénigrement de soi. Or, la machine et ses propagandistes stigmatisent la « machine humaine » pour la rendre décevante. Elle est une « construction défectueuse ». (2002, 47). La désertion tient aussi au besoin d’éliminer le facteur humain, sans cesse jugé comme le fauteur de trouble des échecs machiniques. Ce n’est pas la machine qui est défaillante, c’est la part d’humain ne sachant pas interagir avec la machine. Il convient alors d’envisager d’absorber l’humain dans le projet machinique, soit de conduire à cette désertion de soi pour devenir une partie du système machinique [15].  

La résignation tient à cette intériorisation de cette infériorité. Au lieu de voir la variété des actions humaines qu’aucune machine ne saurait accomplir, la machine spécialisée sur quelques tâches imposent sa performance spécifique en déstabilisant l’humain qui se perçoit comme borné, limité. Les aptitudes physiques de l’homme le disqualifient car il est inadapté aux conditions machiniques qui excèdent ses limites. Les pilotes de chasse sont un bon exemple de mise en risque au-delà des limites avec des accidents et maladies qui sont en train de conduire à évincer le pilote au profit d’une automatisation et d’un déport de l’humain, expulsé de la machine, ou à sa transformation physiologique [16].  

Il faut noter que cette intériorisation tient à deux types de relation ; celle bilatérale de l’homme à la solution cognitive qui obtient cette désertion jusqu’à souhaiter ressembler à cette machine en renonçant à tout ce qui distingue l’homme de celle-ci ; celle sociale des rapports humains dont nous examinerons plus loin qu’ils sont un enjeu d’une autre désertion, d’un désinvestissement par une distanciation sociale libérant des transactions, rapports de force ou négociations pour gérer des désaccords, des divergences en vue d’un consensus par reconnaissance partielle des mérites des positions et arguments des uns et des autres. La soumission à la machine libère du poids d’exercer des responsabilités d’adulte et de prendre de ce fait des risques dans des discussions entre humains. Là encore, la désertion et la résignation jouent pour s’éloigner des désagréments, désaccords, vexations et autres frustrations d’une relation humaine authentique.  

Quatrième étape : l’installation triomphale par la soumission consentie

Face à de telles performances, le triomphe de la machine conduit à la soumission. Celle-ci est manifeste, même dans les études de Microsoft qui mettent en évidence un déficit croissant d’esprit critique. Les arguments sont là : vitesse d’exécution, quasi-exhaustivité des sources, mise en forme aboutie, intelligence manifeste de la proposition [17]. L’interaction avec la solution cognitive désoriente l’usager qui en oublie le contrôle du travail fait par la machine. L’installation est d’autant plus triomphale qu’il n'y a pas de modèle auquel comparer la réponse. A la différence d’une production qui s’évalue à sa conformité à des standards, l’interrogation de la solution cognitive laisse ouvert le champ libre à une réponse sans autres repères que les connaissances et surtout les ignorances ou croyances du questionneur. Mais, comme la requête suppose cette ignorance partielle ou totale, le consentement est d’emblée plus facile à obtenir. A cet égard, l’étude Microsoft met en évidence ce renoncement à l’examen critique, parce que la confiance est naïvement donnée.

Cinquième étape : la honte prométhéenne et la totémisation des machines cognitives

Ajoutons à cette relation de désengagement un abandon, voire une régression, pour ne pas dire une paresse, car la machine devient la « médiatrice totalisante » selon l’expression de G. Simondon, privant l’homme de sa tâche de médiateur entre ses intentions, ses actions et les objets impactés par l’exercice de cette médiation ; soit un travail. Avec un certain usage, voire une incitation à un usage passif, il y a substitution, si ce n’est négation du travail tel que défini par le philosophe : « Il y a travail quand l’homme ne peut confier à l’objet technique la fonction de médiation entre l’espèce et la nature, et doit accomplir lui-même, par son corps, sa pensée, son action, cette fonction de relation. » (1958, 242). La honte entraîne la dévaluation de l’effort et cette totémisation qui conduit à ne plus penser par honte pour laisser le totem machinique penser à notre place. Le totem est bien l’interdit par la sacralisation de l’objet qui détient son pouvoir [18].

L’étude Microsoft montre bien que la confiance tutoie une totémisation de la machine cognitive qui sait plus, qui va vite, qui fait mieux que l’homme. La honte prométhéenne est donc une ultime conséquence de cette relation asymétrique qui, fort étrangement, reproduit la relation infantile de l’enfant questionnant ses parents, dans l’attente de leur enseignement. La solution cognitive s’impose dans un discours totémique, quasi-religieux comme vu dès notre introduction et il ressemble à cette relation décrite dans l’analyse transactionnelle : parent – enfant [19].

2. Les enjeux psychologiques et gnoséologiques de ces solutions cognitives

Les propos de G. Anders datent de 1956 et ils sont aujourd’hui confirmés dans les études réalisées par des chercheurs, voire des institutions partie-prenantes comme Microsoft [20]. Il y a deux environnements propices à des usages qu’il faut examiner : ceux des professionnels et ceux de l’éducation. Pour chacun d’eux, il nous semble que se jouent une asymétrie et une pression sociale, la première relevant de la position en surplomb de la solution, la seconde relevant du jeu des acteurs qui en font usage d’où une relation psychologique toxique et une gnoséologie régressive. Et cela existe parce que l’intelligence est confondue avec les simples données, la connaissance est limitée à des opérations et les solutions cognitives à une inévitable moyennisation entropique comme décrite par L. Julia [21].

2.1. Le risque psychologique de la relation de domination et de subordination

La lecture attentive des études les plus récentes montre que les motivations des utilisateurs et leurs points d’attention traduisent bien cette subordination à la domination des productions de la solution cognitive [22]. Nous avons mené une enquête par écoute active, auprès de professionnels afin d’obtenir leur témoignage de leurs pratiques, dont il ressort trois constantes qui confirment et affinent, nous semble-t-il, les conclusions de Microsoft.

a) Une relation exclusive de la personne concentrée sur la réponse à sa demande.

La première dépendance psychologique tient à ce processus de questionnement qui n’est pas celui d’une conversation entre adultes. Il y a une infantilisation de la relation, une asymétrie installée par la position d’infériorité du questionneur qui ne sait plus, ne sait pas chercher une solution. Il est d’emblée dans une relation exclusive de dépendance à ce qui lui répond, ce nouveau maître machinique apportant la réponse. Une enquête de terrain par observation et questionnement des praticiens montre que la plupart des questionneurs ne contrôle pas la qualité de la réponse. Il n’y a pas de recoupement, pas de vérification des sources, pas d’interrogation d’une autre solution cognitive, voire d’une personne en capacité de répondre. La relation a bien ce caractère exclusif d’une soumission initiale délibérée à la machine qui va répondre.

b) Un jugement autoréférentiel de la qualité de la réponse.

C’est le fait que le seul instrument de contrôle narcissique est la personne elle-même. Elle juge de la réponse à l’aune de son ignorance, procédant par vraisemblance, par assentiment immédiat, mais avec un esprit critique très faible sur les modalités d’élaboration et de délivrance de la réponse. Ce jugement autoréférentiel peut suffire avec une population éduquée sur la question posée avec un souci de la vraisemblance par quelques recoupements ; mais l’autoréférence grandissante pour des générations de moins en moins éduquées conduit à les soumettre à la vérité produite par la solution cognitive, soit un rapport de soumission croissante. Ce que dit la machine est réputé vrai, et elle n’ouvre pas à un nouveau dialogue ; car elle ne suscite aucune curiosité.

c) Une autosatisfaction de son autonomie à produire la réponse.

Par un phénomène d’identification à la machine, le questionneur est satisfait d’une autonomie biaisée et d’une indépendance à d’autres humains. Je peux par moi-même produire des réponses, sans dépendre d’une tierce personne dont je devrai reconnaître la supériorité dans ses savoirs. On observe même que dans des controverses que beaucoup ne cherchent plus à raisonner et argumenter pour concéder à un tiers qu’il a raison. Il recherche l’intermédiation de la solution cognitive pour arbitrer, l’interlocution étant parasitée ou évitée par cette médiation qui vient libérer d’un consentement à autrui, évitant le sentiment de défaite et de frustration humaine. La machine a raison et cette soumission-là n’a pas, semble-t-il, d’enjeux relationnels et psychologiques. La solution fait office d’arbitre.

2.2. Des risques avérés d’une soumission dénuée d’esprit critique

Les résultats des études de Microsoft mettent aussi en évidence ces phénomènes. Concernant l’esprit critique, l’étude de Lee confirme que les outils d’IA générative peuvent « inhiber l’engagement critique avec le travail et pourrait conduire à une dépendance excessive à long terme sur l’outil et à une diminution des compétences pour la résolution indépendante des problèmes. » L’accomplissement de la tâche de recherche diminue l’exigence critique par rapport à l’attente d’une réponse rapide en vue d’une résolution de problème ou d’une intégration dans un document de travail estudiantin ou professionnel [23]. Le but prime et la solution satisfait aisément ce but qui a perdu en exigence cognitive. La collecte prime la vérification.

Dans la section 6.2. de cette étude intitulée : changements dans la pensée critique dus à l’IA générative, les auteurs indiquent que « les travailleurs du savoir » font surtout des efforts d’intégration de la réponse dans leur propre production : « L’accent est déplacé de la résolution de problèmes à l’intégration de la réponse de l’IA. » Cette étude a le mérite d’enquêter auprès d’utilisateurs dans sa section 5.1. intitulée : Quand les travailleurs du savoir perçoivent l’augmentation/diminution de l’effort pour les tâches de pensée critique grâce à l’IA générative. Le résultat est très clair. Des deux-tiers au trois-quarts des travailleurs interrogés signalent la diminution de leur esprit critique, en produisant « beaucoup moins d’effort » ou « moins d’effort » lorsqu’ils utilisent une solution IA par rapport à une situation sans ces solutions. Et cette tendance s’accroit à proportion d’un degré de confiance qui fait encore plus diminuer l’attention critique. Le risque est donc attesté.

Cette étude s’intéresse au deuxième usage d’assistant à l’écriture dont les professionnels et les étudiants sont friands, pour gagner du temps et accélérer leur capacité de traitement d’une masse de données considérables, travaillant plus en retraitement de travaux existants, à la façon de méta-analyses pour les étudiants et en rédaction rapide et pertinente, faute de temps pour les professionnels. L’étude de Lee apporte là encore des résultats qui légitiment la thèse de la soumission ou passivité dénuées d’esprit critique. En effet, les auteurs vérifient bien cette perception d’un assistant productiviste, générateur de contenus, voire habile dans l’adoption d’une stylistique commandée lors du prompt : instruction ou série de données fournies à une solution cognitive, qui utilise ces informations pour générer des réponses : texte, image essentiellement. Les auteurs notent bien que l’usage prématuré de ces solutions vient se substituer à un travail personnel et que les « rédacteurs novices peuvent devenir trop dépendants de ces outils, ce qui pourrait nuire à leur développement des compétences à long terme en contournant les processus critiques d’écriture, tels que la construction des arguments logiques et la compréhension du sujet. »  Le problème est clairement identifié.

Ils notent que le développement des compétences d’écritures est en jeu, par cette délégation. Leurs travaux montrent aussi une certaine passivité, un consumérisme induisant un désengagement, une motivation et une attention moindre, soit une vigilance intellectuelle défaillante. Ils usent de la formule d’« amnésie numérique » lors de la constitution des revues de littérature produites sans une activité intentionnelle de recherche, sans lecture et sélection, mais procédant par une simple accumulation des références disponibles et proposées par la solution cognitive [24].

Enfin, cette étude investigue les circonstances de l’exercice de la pensée critique. Plusieurs restrictions sont mentionnées. Premièrement, le manque de temps qui oblige à sacrifier une activité de contrôle, de vérification, de fiabilisation. Les chercheurs notent qu’indépendamment de ce manque de temps objectif, les « travailleurs du savoir » ne sont pas incités et ne se sentent pas responsables de la qualité de leur production. Elle ne ferait pas partie de leur champ de responsabilité. Mais le plus grave réside, selon nous, dans la perte d’autonomie et dans l’affaiblissement de la qualité du jugement autoréférentiel mentionné précédemment : « Les participants font face à des obstacles pour adopter la réflexion critique, en particulier dans la vérification et l’amélioration des résultats de l’IA générative, même s’ils sont autrement motivés à le faire. Les participants rapportent des obstacles à l’inspection des réponses de l’IA (58/319), comme le fait de ne pas posséder suffisamment de connaissances dans le domaine. » Le rapport de domination est avéré entre le consommateur indigent subissant la réponse d’autorité, à laquelle il ne souhaite pas opposer une critique, faute de temps, faute de capacité, voire de volonté ; d’où le risque majeur d’une société où la connaissance constituée serait objectivée dans des machines, les humains perdant le sens de leur expérience, de leur connaissance et de leur jugement critique. Cette relation de soumission psychologique a donc un impact sur la connaissance, soit, selon nous, un risque gnoséologique majeur [25].

2.3. Le risque gnoséologique de conformisme cognitif et d’entropie des savoirs

Les pratiques estudiantines et scolaires sont elles aussi révélatrices. Elles mettent en relief d’autres aspects plus opportunistes qui semblent orienter vers un conformisme social à des réponses universelles jugées vraies par le plus grand nombre. Examinons ici rapidement la stylistique et la qualité cognitive.

a) Le style des productions littéraires de ces solutions cognitives est bien le fruit d’un traitement moyennisant d’une littérature préexistante. Elle possède quelques caractéristiques linguistiques. Le style est descriptif, narratif, dénué de références expérimentales et sources ni constructions dialectiques ou problématiques. Le phrasé est assertif ou affirmatif. Le style masque mal son origine, celle du traitement massif de documents par des choix sémantiques non-clivant. D’ailleurs, ce style moyen utilise peu d’adjectifs qualificatifs. Il y a un rédigé péremptoire, sans nuance ni controverse ou exposé des thèses contradictoires qui peuvent s’opposer. Cette rédaction laisse flotter l’idée d’un savoir établi, une vérité latente, des définitions stables ; bref un savoir constitué et figé [26]. Avec une telle stylistique, c’est la pluralité même de l’expression de la pensée qui risque de se réduire au profit d’un alignement vers l’atonie littéraire et la monotonie.

b) La qualité cognitive dépendra de ce fameux jugement autoréférentiel auquel nous n’échapperons pas. En reprenant l’article sur les enjeux anthropologiques de l’IA produit par l’IA et une série de requêtes menées par nos soins, plusieurs critiques s’imposent.

Premièrement, les mots clés ne font jamais l’objet d’une définition, c’est-à-dire d’un choix théorique d’entendre ces notions selon une de leurs acceptions possibles, laissant penser que ces termes sont dénués d’enjeux philosophiques, théoriques, voire idéologiques, selon la manière de les définir. La polysémie n’est pas de mise.

Deuxièmement, les généralités qui s’enchainent ne font l’objet d’aucune démonstration, ni par des déductions conceptuelles, ni par des inductions faisant explicitement référence à des études expérimentales, des témoignages ou des observations. Le propos est linéaire.

Troisièmement, le texte ne se situe pas dans un cadre conceptuel qui expliquerait la problématique en vertu d’un choix épistémologique, d’un angle de travail. Le texte est générique, général, comme si aucune discipline ni aucune méthode ne permettait de construire le propos.

De ce fait, il est manifeste que le contenu a une prétention normative et universelle, comme s’il était encyclopédique, au sens d’un résumé de l’état de l’art sur la question [27].

Le style est souvent sentencieux et l’absence de discipline scientifique dans la rédaction démontre que la généralisation de cette pratique va accroître cette tendance, avec le risque de produire très rapidement une fabrique de propos approximatifs, par retraitement des textes existants, dont la part produite par l’IA elle-même va auto-confirmer et auto-légitimer cette tendance. C’est pourquoi nous prenons le double risque d’un conformisme cognitif par la domination de cette stylistique et d’une entropie des savoirs, par l’effet massif des moyennisations des textes s’accumulant dans les ressources utilisées par l’IA générative. C’est la négation de la recherche expérimentale, c’est la négation de l’apport spécifique d’une discipline sur un thème, c’est la perte de la création d’une pensée originale développée par un auteur selon ses recherches ou sa sensibilité singulière [28]. Cette moyennisation est une promesse de monotonie future, entropique et fatale à la qualité de la connaissance disponible par ces outils. Faut-il y voir un alignement politique massif des esprits au détriment de la connaissance ? A étudier dans notre second article.

3. Le rapport de domination entre producteurs et consommateurs

Ce rapport de domination est, à ce stade de notre travail, plus qu’une hypothèse. Et les propos de certains spécialistes dont L. Julia [29] laissent à penser qu’il n’y pas chez certains producteurs d’intention de domination, mais plutôt ce jeu de l’ingénieur fasciné par les défis techniques et les prodiges des solutions qu’il imagine. Mais au-delà de leur intention, le résultat est là, du fait de la distance considérable séparant le producteur du consommateur. Ils sont chacun dans un système où l’un construit et l’autre utilise, les compétences de l’un n’étant pas celle de l’autre. Le système se nourrit de lui-même, tant par ses règles que par les activités des consommateurs. Il y a de ce fait au moins deux niveaux à distinguer entre les producteurs de l’infrastructure technique de ces réseaux et de leurs algorithmes et des producteurs-consommateurs-manipulateurs de contenus ; sans oublier les concepteurs-opérateurs mondiaux de ces réseaux, puisque les solutions cognitives ont besoin de se constituer en consultant des quantités phénoménales de documents, selon des règles pleine de biais par définition, favorisant une entropie croissante ou la « machine à désastre » [30], renforcée par les amplifications des rédactions nouvelles qui s’en inspirent, saturent les réseaux qui sont la source de ces modèles. La circularité est ici fatale.

Il faut continuer de distinguer les usages professionnels dans l’exercice d’un métier et ceux de l’éducation : de l’école primaire aux recherches et doctorat [31]. Pour mieux saisir ce risque entropique menaçant les connaissances humaines, approfondissons l’effet d’infantilisation et celui de soumission qui concourent, selon nous, à une crise prédictible des connaissances professionnelles et académiques, soit une obsolescence des savoirs issus de ces solutions, qui les disqualifiera à terme.

3.1. L’infantilisation et le transfert confortable de la responsabilité

Revenons sur cette inhibition de l’esprit critique qui confine à une infantilisation où la machine écrit à ma place, où la machine répond à l’enfant poseur de question comme dans la relation père-mère / enfant. Les travaux le plus récents donnent des indications sur cette inhibition [32]. Les institutions éducatives mettent en évidence la crainte d’une aliénation de l’esprit critique et avec lui de la démarche hypothético-déductive qui caractérisent l’esprit scientifique dans une relation à la vie et à des réalités observables. Ces études soulignent l’enjeu de la préservation de cet esprit critique, à la façon d’une stratégie d’auto-défense, face aux séductions et raccourcis des solutions cognitives. Le diagnostic est donc largement partagé et les solutions pédagogiques déjà envisagées [33].

L’inhibition de l’esprit critique est le résultat de l’usage immodéré de ces solutions qui produisent un effet connu de submersion psychologique, inducteur d’une dépression cognitive face à l’immensité inaccessible, provoquant ce renoncement fataliste à apprendre, devant un foisonnement incommensurable des sources. De plus, nous constatons que l’acceptation des réponses tient simplement au fait que l’apport est dans un premier temps bénéfique, sans une exposition immédiate à des erreurs, des sanctions, des conséquences négatives dont des accidents. Bref, l’inhibition de la critique tient de la paresse, tant que la solution apporte des avantages ; sans risques identifiés. Les conclusions de l’équipe autour du doctorant H.P. Lee de Carnegie Mellon University corroborent celles des spécialistes de l’éducation. Cette confiance induit une baisse d’attention et d’esprit critique, une des questions subsistantes, étant l’insertion des réponses dans des documents où ils doivent prendre une place.

A cet égard, l’étude de Microsoft laisse plus entrevoir une recherche de réponse encore plus englobante que la restauration d’un authentique esprit critique. La charge de travail qui engendre encore un effort tient à cette insertion entre le préconstruit et l’apport de la réponse. Et les propos des chercheurs laissent supposer, une fois de plus, que le problème c’est l’humain, que la défaillance ou l’insuffisance sont chez le consommateur qui ne parvient pas à insérer la réponse de manière satisfaisante dans son contexte, sorte de mauvais réceptacle. Il y a en effet un risque d’incohérence, un autre de discontinuité rhétorique ou stylistique. Les auteurs indiquent qu’il y a ici une perte de temps dans ces efforts de réinsertion et la solution idéale consistera à dissuader de penser et d’écrire en commandant des plans, des intentions pour se faire livrer le prêt à penser et à usage dans sa totalité.

Les producteurs de solutions entretiennent et accroissent cette relation asymétrique qui conduit inéluctablement à la substitution de l’homme par la machine cognitive et l’expression quelque peu dévalorisante de « travailleur du savoir » accrédite le préjugé d’une machinisation et substituabilité du travail humain par la technique. L’irresponsabilité est bien encouragée. Et il y a bien une infantilisation quand il y a refus d’un effort et d’un travail au profit de la recherche d’une solution toute prête dispensant de tout investissement personnel.

3.2. La soumission volontaire et l’enjeu politico-gnoséologique des solutions cognitives

De ce fait, les solutions cognitives font peser un risque majeur sur les connaissances. Il est manifeste que cette relation psychologique conduit à une passivité et à une incapacité croissante d’émettre un jugement critique éclairé. Les éducateurs se plaignent de cette infantilisation qui conteste même l’utilité d’apprendre, la machine donnant les réponses. L’ignorance volontaire devient la règle d’une intelligence paresseuse contestant l’effort, du fait de la facilité. En une génération donc, l’immense majorité du corps social disposerait d’une moindre capacité de se forger un jugement critique. L’information ou la connaissance diffusées par la solution seront acceptées, jusqu’à socialement contester la critique émanant d’un potentiel rebelle, ce qui s’observe déjà dans des relations de chantage à la paresse, discréditant le récalcitrant qui voudrait encore travailler. Dans le monde de l’entreprise l’employeur sera le premier à préférer l’économie immédiate aux risques encore peu mesurés [34]. Ces stratégies d’adoption concourent déjà à créer cette situation de soumission, car pourquoi s’interposer, au nom de quels savoirs et prétentions ? Le rebelle sera marginalisé.

Les conséquences sur la connaissance publique diffusée sont alors comparables à ce qui s’observe déjà sur les réseaux sociaux. La connaissance se déforme par des diffusions massives qui impactent les moyennisations algorithmiques qui colportent des connaissances dénuées d’une validation expérimentale ou d’une légitimité scientifique. La connaissance produite par la solution à un instant T devient la référence du moment pour les consommateurs qui contribuent à la relayer sans filtre critique. La connaissance subira aussi très vite des stratégies militantes d’opérateurs qui multiplieront les sources « biaisées », afin d’influencer les travaux des solutions cognitives, incapables de trier en vertu de critères de fiabilisation et de validation [35].  

Premières conclusions

Elles sont de plusieurs ordres.

a) Sur le plan psychologique, il paraît acquis que la honte prométhéenne ira croissante pour des consommateurs de solutions cognitives massives et invasives dans la vie professionnelle et dans le monde éducatif. Celle-ci s’accompagne déjà d’une régulation négative très entropique où les rebelles sont discrédités [36] ; soit l’encouragement au conformisme social par un désinvestissement cognitif croissant et déjà observé par de très nombreux travaux réalisés par des psychologues, des cogniticiens, des pédagogues et des sociologues.

b) Sur le plan sociologique, l’analyse de situations signale, d’ores et déjà, qu’une pression sociale intéressée se met en œuvre, l’irresponsabilité personnelle puis collective ayant l’immense avantage de fuir toute sanction résultant d’une prise de risque et de responsabilité. Le refus d’être adulte permet de nouveau de se référer aux définitions de l’analyse transactionnelle qui attestent bien que la relation à la solution cognitive n’est pas du tout celle d’un adulte [37].

c) Sur le plan gnoséologique pour terminer, les connaissances partagées sont de qualité décroissante par leur démultiplication dans les systèmes qui prennent comme source les productions secondes, à l’instar des réseaux sociaux. Nous partageons ici complètement le diagnostic de L. Julia sur l’effondrement entropique des solutions cognitives massives dont l’obsolescence est prédictible, pour ne pas dire programmée, laissant place à quelques autres options encore plus invasives. Ce sera l’objet de notre second article.

Terminons par l’énoncé de quatre critiques essentielles induites de toutes les études disponibles, qui précipiteront rapidement ces solutions dans leur obsolescence : inexactitude, biais, irresponsabilité et éthique négative, dès lors que les usages exposeront de plus en plus les utilisateurs aux menaces de ces solutions, après la perception naïve de leurs bénéfices :

a) L’inexactitude

Si la science est productrice de prédiction qui ont leur autorité du fait de leur exactitude, les solutions cognitives procédant par moyennisation, elles n’ont aucune chance de produire une réponse exacte. Elles produisent des opinions, contribuent à la production d’idéologies dominantes ; sans lien avec un examen expérimental et critique de leurs énoncés. Des travaux évoquent même l’hallucinations cognitives par accumulation de données mal exploitées ou partiellement erronées, qui induisent une rédaction fausse, voire dangereuse s’il s’agit d’un mode opératoire pour action.

Nous avons déjà montré que l’excès de confiance, l’absence d’esprit critique et la dette cognitive induite par l’usage conduit à multiplier les productions inexactes et à créer des situations professionnelles et éducatives aberrantes. Cette inexactitude sera graduellement rhédibitoire.

b) Les biais

Les algorithmes sont et demeureront des constructions humaines qui fabriquent des règles à partir de critères et pour lesquels des choix sont faits par ces constructeurs invisibles de normes. Or, ceux-ci colportent les représentations sociales dominantes qui affectent ces producteurs car ils ne sont pas en dehors du monde social dans lequel ils vivent. Leur neutralité axiologique relève ici du mythe. Ainsi, les biais et stéréotypes inhérents aux solutions cognitives sont tout aussi effectifs que ceux de l’enseignant ou du professionnel, la machine ne dispensant pas de ces biais intentionnellement ou accidentellement introduits lors de la conception.

Nous avons montré que le premier des biais est celui du renoncement à interroger et son corollaire de transférer et multiplier par réplication des biais, comme dans les réseaux sociaux avec un effet de masse sur des millions de consommateurs en même temps ; soit un possible alignement inédit de l’opinion, à son insu, par un effet de désengagement et de dévalorisation sociale de l’apprentissage, soit le biais sournois de l’ignorance volontaire.

c) L’irresponsabilité

A l’instar du refus des logiciels de conduite autonome des véhicules qui posent le problème épineux de la responsabilité civile et pénale du logiciel faisant office de conducteur, dont les opérateurs ne veulent pas, car le coût en serait prohibitif potentiellement, l’irresponsabilité des productions des solutions cognitives va en précipiter l’obsolescence [38]. En effet, la connaissance est livresque, mais aussi procédurale et pratique. Si des milliers de personnes agissent sur la base d’une réponse qui entrainerait des dégâts, des blessures, voire des morts, l’éditeur de la réponse est-il prêt à assumer la responsabilité civile et pénale de son mode d’emploi par exemple ? A ce jour non. L’irresponsabilité parait en fait consubstantielle de ces entreprises qui ne sont pas prêtes à assumer les conséquences pratiques des propositions produites par leurs algorithmes, quoiqu’elles prétendent contradictoirement aboutir à des solutions pertinentes [39].

d) L’éthique négative

Les solutions cognitives utilisées pour animer les agents conversationnels posent des problèmes d’éthique en répondant naïvement à des questions du style : comment tuer mon petit frère ou comment fabriquer une bombe, voire comment se procurer des armes, etc. Cette absence de jugement ne conduit pas à une conversation par un questionnement en retour, soit une véritable interlocution par une question sur le pourquoi, les motivations, le contexte, le caractère ludique ou authentique de la question. La machine répond ! Là est justement sa très grande limite. Elle ne converse pas, n’interroge pas, ni n’évalue les raisons infinies de la question. Nous sommes très loin du dialogue confiant d’une communication entre deux âmes pour reprendre l’expression de K. Jaspers et encore plus loin de l’art du questionnement talmudique cher à E. Levinas [40].

Nous avons ici un problème ontologique, parce que la solution cognitive demeure dans le simulacre. Elle n’a pas de personnalité singulière dans un débat porteur de divergence, de disputation, de conviction et de persuasion jusqu’à la réconciliation, de l’écoute affective et intellective prenant par empathie, sympathie ou leurs opposés, une position dans une conversation humaine entre deux âmes. Devant une telle destruction de la connaissance humaine produite dans l’interlocution, émerge une contreculture humaniste que nous mettrons en évidence dans notre deuxième article.

En signe de conclusion provisoire, si ces solutions seront assez vite obsolètes, leur faillite prédictible ne supprime pas le risque socio-politique souligné par l’épistémologue P. Feyerabend :

« La tentation sera dès lors toujours plus grande de réduire l’homme à ces solutions efficacement rationnelles …/… Une société d’hommes patiemment déshumanisés afin d’en simplifier les problèmes, une existence aux gestes méthodiquement conditionnés, un pouvoir de critique et de réaction savamment inhibés ne sont pas choses absolument chimériques et nous nous demandons si le monde moderne n’offre pas comme des réalisations sporadiques de cette dégradation de l’humain. » (1979, 121). 

Restera à aborder dans notre deuxième article les autres raisons de cette obsolescence. Nous poursuivrons par une obsolescence liée aux manipulations, soit ces dérives épistémologiques intentionnelles, voyant là un rapport de domination sournoise entre les producteurs et les usagers, entre ces constructeurs des normes sociales et les consommateurs qui seront les victimes de ces technologies. Nous tenons cette hypothèse que ces solutions sont l’arme d’une massification ultime du savoir et des hommes en vertu des propos du fondateur de la cybernétique : « La domination de la machine présuppose une société aux derniers stades de l’entropie croissante, où la probabilité est négligeable et où les différences statistiques entre individus sont nulles. » (1950, 229). Cette obsolescence de la relation homme-machine qui est ici en cause nous permettra d’éclairer cette obsolescence systémique qui rendra d’autant plus pertinente une contreculture de la promotion de l’interlocution humaine.

 

 

Bibliographie

 

ALOMBERT, Anne, 2024. Schizophrénie numérique. Paris : Editions Allia

ANDERS, Günther. 2002. L’obsolescence de l’homme. Paris : Editions de l’encyclopédie des nuisances.

ARENDT, Hannah. 2024. Gouverner. Loi, pouvoir et domination. Paris : Payot

BARTHELEMY, Jean-Hugues. 2005. Penser la connaissance et la technique après Simondon. Paris : L'Harmattan

BERNE, Eric. 1971. Analyse transactionnelle et psychothérapie. Paris : Payot

BONTEMS, Vincent. 2015. Sur la classification des objets techniques selon Simondon. Paris : Artefact.

ELLUL, Jacques.1954. La technique ou l’enjeu du siècle. Paris : Editions Armand Colin

FEENBERG, Andrew. 2004. (Re) penser la technique, Paris : Editions la découverte

FEYERABEND, Paul. 1979. Contre la méthode. Paris : Editions du Seuil

GABEL, Joseph. 2009. La réification. Essai d’une psychopathologie de la pensée dialectique. Paris : Allia

GUNTHER, Gotthard. 2008. La conscience des machines, une métaphysique de la cybernétique. Paris : Editions l’Harmattan

HABERMAS, Jürgen. 1989. La technique et la science comme idéologie.  Paris : Editions Denoël

HORL, Erich. 2009. Du déplacement technologique du sens. Rue Descartes 2, n° 64, Collège international de Philosophie

HOUDE, Olivier. 2019. L’intelligence humaine n’esst pas un algorithme. Paris : Editions Odile Jacob

HOUDE, Olivier. 2020. L’inhibition au service de l’intelligence. Penser contre soi-même. Paris : PUF

JASPERS, Karl. 1966, Introduction à la philosophie. Paris : Editions Plon

JULIA, Luc. 2019. L’intelligence artificielle n’existe pas. Paris : Editions First

JULIA, Luc. 2025. IA génératives, pas créatives. Paris : Editions Cherche-midi

LAMMEL, Annamária. 2001. Les “cyborg child” : les effets des cyber technologies sur le développement humain. Champ Psychosomatique, n° 22, p. 51-69

LATOUR, Bruno. 1996. Petites leçons de sociologie des sciences. Paris : Edition la découverte

LEE, Hao-Ping et al. 2025. The impact of generative IA on Critical Thinking. CHI. Yokohama

LEROI-GOURHAN. André. 1943. L'Homme et la Matière. Paris : Albin Michel

LEROI-GOURHAN. André. 1945. Milieu et technique. Paris : Albin Michel

LEROI-GOURHAN. André. 1964. Le Geste et la parole. Technique et langage. Paris : Albin Michel

LEROI-GOURHAN. André. 1965. Le Geste et la parole. La mémoire et les rythmes. Paris : Albin Michel

LUKACS, Georg. 1960. Histoire et conscience de classe. Paris : Edition de Minuit

SIMONDON. Gilbert. 1958. Du Mode d’existence des objets techniques. Paris : Aubier

SIMONDON. Gilbert. 2014. Sur la technique. Paris : PUF

SCHLANGER. Nathalie. 2021. La technologie de Leroi-Gourhan : les enchevêtrements d’un chef de file. in Technique, Technologie

SKIRBEKK, Gunnar. 2003. Le débat sur la modernité : la rationalité – universelle et plurielle ?, Revue Noesis n° 5

STENGERS. Isabelle. 2004. Résister à Simondon ?. Multitudes. Paris. p.55-62

WIENER, Norbert. 1950. Cybernétique et société. Paris : Union Générale d‘Editions

 

 

 

 

[1] Une des dernières études de Microsoft à l’attention des entreprises est intitulée : 2025 : l’année de la naissance des entreprises leaders. On y observe un discours vendeur d’une mythologie naïve, d’un avenir radieux pour ces entreprises douées d’une IA qui les aura transfigurées. J’utilise à dessein un vocabulaire « messianique » pour caractériser le propos. Quelques extraits l’attestent à commencer par la dénomination « entreprises de leadership ». Microsoft use de la stratégie moutonnière du conformisme social et de l’imitation servile des agents économiques face à l’inexorable sens de l’histoire « 82% des dirigeants interrogés prévoient d’adoptés des solutions numériques pour améliorer l’efficacité de leurs équipes ; 53% considèrent qu’il est urgent d’augmenter la productivité ; 80% des employés et cadres déclarent avoir des difficultés à répondre aux exigences croissantes du travail … ». L’entreprise use de la stratégie du flatteur discréditant par avance les opposants médiocres du terrain : « 67% des dirigeants affirment bien comprendre le fonctionnement des agents d’IA, contre seulement 40% des employés. ». Enfin, la stratégie de l’assertion culpabilisante d’un homme juge et partie puisque dirigeants chez Microsoft : « Ce rapport démontre clairement que les entreprises doivent repenser leur façon d’exploiter l’IA. » et « L’essor des « entreprises de leadership » prouve que les dirigeants qui intègrent avec succès l’IA… sont les mieux armés pour réussir dans un environnement économique de plus en plus compétitif. ». Ces discours sont d’autant plus étonnants dans un monde économique où l’on s’attendrait plus à des démonstrations rationnelles des bénéfices liés à ces investissements : réduction des coûts observables ou revenus additionnels attestés, pour des agents économiques et des décideurs réputés rationnels en vertu de la doctrine économique de l’homo economocus ! il n’en est rien. C’est ce même Microsoft qui a pollué les salariés de millions de mails ingérables mais qui prétend apporter la solution à leur traitement automatique ou quand le capitalisme invente des solutions dont les dysfonctionnements appellent d’autres solutions des mêmes opérateurs dont on maquille allègrement les dysfonctionnements qui appelleront une nouvelle solution selon la doctrine de l’obsolescence programmée et de la dépendance accrue du client à son fournisseur : soumission là encore.

[2] Dans Obsolescence de l’homme moderne, G. Anders décrivait dès 1956 cette situation : « Sous le rapport de la force, de la vitesse et de la précision, l’homme est inférieur à ses machines et que la comparaison des performances de ses « computing machines » avec ses propres performances lui est défavorable …  l’homme en tant qu’élément d’une machinerie déjà construite ou d’un projet technique déjà arrêté … est « mal adapté », « inadéquat. » (2002, 48) Cette résignation conduit selon lui à cette désertion de l’homme qui se fuit lui-même, voulant nier sa petitesse : Il n’est pas question pour l’homme contemporain de se résigner une fois pour toute à son infériorité et à son retard en acceptant le caractère borné de son corps… Son rêve serait évidemment de devenir semblable à ses dieux : les machines… Il se lance dans certaines expériences, et plus précisément dans certaines transformations de lui-même, qu’il appelle « human engineeriing » ». (2002, 53-54)

 

[3] G. Simondon fait cette hypothèse que nous allons essayer de documenter : « Alors, naît un technicisme intempérant qui n’est qu’une idolâtrie de la machine et, à travers cette idolâtrie, par le moyen d’une identification, une aspiration technocratique au pouvoir inconditionnel. Le désir de puissance consacre la machine comme moyen de suprématie et fait d’elle le philtre moderne. L’homme qui veut dominer ses semblables suscite la machine androïde. » (1958, 10)

[4] Dans Sur la technique, il fait preuve d’une approche méréologique du rapport entre le tout et ses parties : « Concret, c’est concretum, c’est-à-dire quelque chose qui se tient et en quoi organiquement, aucune des parties ne peut être séparée des autres sans perdre son sens. » (2014, 432)  

[5] Il écrit à ce sujet : « Il existe un monde de la pluralité des techniques qui a ses structures propres, et qui devrait trouver des représentations adéquates à lui dans le contenu de la culture ; or, le terme général de réseau, communément employé pour désigner les structures d’interconnexion de l’énergie électrique, des téléphones, des voies ferrées, des routes, est beaucoup trop imprécis et ne rend pas compte des régimes particuliers de causalité et de conditionnement qui existent dans ces réseaux, et qui les rattachent fonctionnellement au monde humain et au monde naturel, comme une médiation concrète entre ces deux mondes. »   (1958, 301)

[6] Le lecteur gagnera à prendre connaissance de notre article sur la manipulation de la pensée par l’usage de la métaphore dans les Cahiers de psychologie politique, n° 45 - 2024 : La normalisation de la pensée par la suggestion métaphorique

[7] C’est la brillante conclusion de l’article de Vincent Bontemps Sur la classification des objets techniques selon Simondon où il conclut en reprenant les travaux de G. Simondon dans L’invention dans les techniques : « ces intelligences artificielles restent encore incapables d’inventer, c’est-à-dire de conditionner le présent en fonction de virtualités non seulement improbables mais indécidables projetées dans l’avenir. Elle n’est pas davantage capable d’un comportement éthique, car seul un animal est capable de se révolter, tandis qu’une machine ne peut que se détraquer. »   (2015, 196)

[8] Nous partageons la critique d’Anne Alombert dans son récent ouvrage Schizophrénie numérique : « A travers ces métaphores anthropomorphiques, d’apparence innocentes et sympathiques, s’institue en fait un langage idéologique qui empêche de poser les véritables questions dans le débat public. De telles expressions servent bien plutôt à faire accepter aux populations des innovations technologiques dont les enjeux psychiques et sociaux n’ont jamais été discutés, et qui, à bien y regarder, n’ont rien de progrès. »  (2024, 71)

[9] J’invite le lecteur à consulter : La raison totalitaire et morbide in Les Cahiers de psychologie politique, n° 33, 2018 ; La perversion du principe d’apathie in Les Cahiers de psychologie politique n° 35, 2019 ; et De l’impossible neutralité axiologique à la pluralité des pratiques, in Et si la recherche ne pouvait pas être neutre. 2018, Montréal, Editions Science et Bien Commun,

[10] Le philosophe Karl Jaspers, élève d’E. Husserl, développe dans Introduction à la philosophie les notions qui font l’origine de la philosophie : l’étonnement platonicien, l’émerveillement aristotélicien, l’expérience stoïcienne, le doute critique cartésien où la communication interpersonnelle actualise le cheminement philosophique par « besoin d’une communication authentique et de la possibilité d’un combat fraternel unissant jusqu’au tréfonds un être libre à un être libre. » (1966, 24). K. Jaspers va plus loin en décrivant la confrontation de l’homme à l’échec qui l’oblige à considérer son expérience vécue comme une question interrogeant le sens de cette existence : « les situations-limites – mort, hasard, culpabilité, impossibilité de compter sur le monde – me révèlent mon échec. Que puis-je faire devant cet échec absolu dont je ne puis loyalement nier l’évidence ? » (1966, 20). En ce sens, la solution cognitive est l’outil qui a réponse à tout et qui fait possiblement disparaître l’expérience vécue des situations-limites où l’homme affronte sa condition humaine. 

[11] « Ce que l’homme considère comme un déshonneur, ce n’est précisément pas d’être réifié, mais à l’inverse, de ne pas l’être ; c’est pourquoi l’idée de la « honte d’être une chose », que j’avais moi aussi prise en considération au début, est hors sujet. Avec cette attitude, à savoir la honte de ne pas être une chose, l’homme franchit une nouvelle étape, un deuxième degré dans l’histoire de sa réification : c’est le moment où l’homme accepte la supériorité de la chose, accepte d’être mis au pas, approuve sa propre réification ou rejette sa propre non-réification comme un défaut. » (2002, 45) Le concept de réification doit beaucoup à l’œuvre de Georges Lukas mais aussi au petit traité du psychologie de Joseph Gabel. Nous y avons consacré un article dans les Cahiers de psychologique politique, n° 33, 2018 : La raison totalitaire et morbide.

[12] Le lecteur gagnera à lire là aussi notre article : La dystopie de la pensée calculante et le projet d’une pensée automatique sans conscience, in Cahiers de psychologie politique, n° 36, 2020 où nous expliquons toute l’histoire de cette mythologie de la pensée comme pure calcul et d’une métrique possible de la psychologie humaine : la psychométrie.

[13] Il faut se souvenir des mises en scène autour de Deep Blue, vaincu puis vainqueur de Garry Kasparov en 1996 et 1997 qui se soldent par un 4 à 2 pour le maître puis par les scores suivants 3,5 contre 2,5 lors de la revanche. De même pour le jeu de Go où Alpha Go, le programme développé par Google DeepMind bat le Sud-coréen Lee Sedol, champion du monde et légende du jeu en 2016, sans oublier dans l’intervalle la solution Watson d’IBM gagnant au jeu télévisé Jeopardy en 2011. A chaque fois, le défi vise l’humiliation de l’homme dépassé par la machine.

 

[14] L. Julia décrit avec humour cette situation et les enjeux gnoséologiques où l’excès de confiance disculpe du contrôle pour évaluer la réponse en soulignant le rôle de l’enseignant sachant et des opérations déontologiques de gestion de la connaissance par le contrôle croisé de plusieurs sources que celui-ci expérimente pour réduire cet excès de confiance et inculquer l’esprit critique et scientifique.  (cf. ChatGPT est-il incollable sur Victor Hugo ?)

[15] G. Anders écrit à ce sujet en exposant les critiques des instructeurs militaires face aux erreurs des pilotes : « Ce que l’instructeur a en vue, ce n’est plus l’homme en tant qu’instrument parmi les instruments, mais l’homme en tant qu’instrument pour les instruments ; l’homme en tant qu’élément d’une machinerie déjà construite ou d’un projet technique déjà arrêté. C’est de ce point de vue qu’il le dit « faulty » - ce qui signifie mal adaptée, « inadéquat », qui n’a pas été fait sur mesure. » (2002, 48)

[16] G. Anders illustrant l’ingénierie humaine, soit la résignation à se faire machine ou complément du système machinique écrit : « Dans ces expériences, l’homme commence toujours par soumettre son corps à des conditions inhabituelles et artificielles, à des « situations physiques limites » *, des situations qui sont à peine supportables pour lui. » (2002, 54) qu’il prolonge bien du désir de se machiniser pour se sauver ou d’intégrer en se confondant aux machines, car ses limites physiques ne seront dépassables que par son hybridation machinique : « il repousse les limites innées de sa nature vers le royaume de l’hybride et de l’artificiel. » (2002, 55) * G. Anders emprunte cette notion à K. Jaspers, d’où nos autres citations de K. Jaspers qui éclairent le sens de la critique de la machinisation de la communication interpersonnelle par son intermédiation dans les solutions cognitives.

[17] Il est intéressant de noter les pertes et bénéfices mis en balance dans les recherches d’Annamaria Lammel dans son article Les “cyborg child” : les effets des cyber technologies sur le développement humain où elle indique : « Les recherches signalent pour autant des changements importants concernant les “cyborg child”, changements qui se traduisent par des pertes de performance (altération des capacités d’observation, d’attention, de sociabilité) mais par l’amélioration d’autres (vitesse, réflexe, orientation spatiale). » (2001, 64). Elle confirme les conclusions de G. Anders sur des pertes cognitives au profit de qualités plus machiniques : vitesse et réflexe en particulier.

[18] Il suffit de lire la tribune de Laurent Alexandre dans le Journal du Dimanche du 8 juillet 2025 : « Des femmes et des hommes prétendent à la magistrature suprême alors qu’ils ne comprennent rien à l’IA. Il faut le dire clairement : ces gens n’ont pas le droit moral de se présenter. », comme si la connaissance de ce seul domaine valait critère de sélection. Un peu plus loin en matière de stratégie d’humiliation pour développer la honte prométhéenne : « L’IA apprend plus vite que nous et s’améliore chaque semaine. ChatGPT gagne un point de QI tous les sept jours. » et pour parachever les assertions : « penser n’est plus un privilège humain. » L’interférence avec le politique devient manifeste. Ne faut-il pas confier le pouvoir à l’IA ?

[19] E. Berne décrit la relation Parent – Enfant avec le cas de l’enfant soumis aux règles et à l’autorité parentale, obéissant, en recherche d’approbation. En posant une question, l’adulte se met en position enfantine de dépendance à la machine répondant, qui possède les attributs du parent normatif : limite, règle, sécurité, bienveillance. Or, l’étude Microsoft indique elle aussi que la relation de confiance s’appuie sur le sentiment de sécurité lié à la fiabilité de la réponse par cette totémisation qui renforce l’autorité de la solution.

[20] Nous nous référons à l’étude Microsoft : L’intelligence artificielle en Europe, rapport annuel sur Les tendances dans le monde du travail publié le 23 avril 2025, dont l’enquête auprès de 31.000 personnes dans 31 pays et 2025 : l’année de la naissance des entreprises leaders. Nous utilisons les publications de l’OCDE dont : Risques et incidents liés à l’IA, les résultats d’un étude Confidentialité de l’IA et collecte de données sur le lieu de travail consultables sur le site de l’OCDE

[21] L. Julia décrit ces algorithmes qui n’échappent pas à une moyennisation des données, ainsi restituées sans discernement, accordant la même valeur épistémologique à des données éminemment critiquables. Sur des questions qui font l’objet de controverses scientifiques, les solutions cognitives n’exposent pas les termes de la controverse ; elles prennent positions selon l’esprit du temps pour une des positions, au risque d’être désavouées, sans aucune réserves critiques. Nous sommes le plus souvent en présence d’un rédigé « langue de bois » fidèle à ce que P. Bourdieu dénommait « l’idéologie dominante » (cf. son article avec J. Boltanski : La production de l’idéologie dominante, 1976, Actes de la Recherche en Sciences Sociales, p.3-73

[22] Nous nous référons à The impact of generative IA on Critical Thinking de Hao-Ping LEE, et al. publié en 2025 dont l’objet est je cite : « Nous avons interrogé 319 travailleurs du savoir qui utilisent les outils GenAI (p. ex., ChatGPT, Copilot) au travail au moins une fois par semaine, pour modéliser comment ils adoptent une pensée critique lorsqu’ils utilisent les outils GenAI et comment GenAI affecte leur effort perçu de réflexion critique. » Nous traduisons dans notre texte GenAI par Intelligence Artificielle générative

 

[23]  Il faut citer les travaux d’Olivier Houdé à la tête du laboratoire LaPsyDE, connu pour sa théorie de l'inhibition cognitive dans le raisonnement explorant les mécanismes du développement et de l'apprentissage, spécialiste du développement de l’enfant et auteur de L’intelligence humaine n’est pas un algorithme, préfacé par Jean-Pierre Changeux, publié aux Editions Odile Jacob en 2019

[24] Nous avons étudié les discours des organismes de formation faisant la promotion de l’usage de l’IA dans les entreprises qui utilisent tous les mêmes arguments. Celle reproduite ci-après est emblématique et le lecteur notera l’incitation à la paresse dans une argumentation contradictoire invitant à économiser du temps pour se consacrer aux tâches essentielles tout en proposant de produire des réponses à des questions portant sur ces questions essentielles dont la stratégie d’entreprise pour le dirigeant : « Appréhender la logique innovante des IA génératives ainsi que les meilleures techniques de prompt ; explorer les meilleures pratiques pour intégrer l’IA au quotidien afin de gagner un temps précieux sur les tâches rébarbatives ; … Découvrir comment demander des analyses sur les points forts ou faibles de documents, mais aussi de chiffres et également des conseils stratégiques. »   (Formatia)

[25] De nombreuses études viennent étayer le constat observable d’un esprit critique défaillant et plus encore d’un désinvestissement qui atteint les capacités cognitives. Notons la très récente étude du Media LAb du MIT  Nataliya Kosmyna et ses co-auteurs rendent compte des effets de l’utilisation de ChatGPT sur le cerveau humain (via https://arxiv.org/abs/2506.08872). Les principales conclusions sur les conséquences comportementales et neuronales sont les suivantes : 83,3 % des utilisateurs de ChatGPT ne peuvent plus citer des passages d’essais « rédigés » quelques instants auparavant, preuve d’une activité bureautique sans concentration ni attention sur les contenus traités. Les auteurs parlent d’atrophie cérébrale. Cette étude confirme les observations élémentaires dont en particulier des « différences significatives dans la connectivité cérébrale », « un engagement modéré » des utilisateurs assistés par des moteurs de recherche, « un sous-engagement » des assistés par la solution cognitive. Ceux-ci étaient assez largement amnésique de leur travail. L’étude conclut son résumé en ses termes : « Sur quatre mois, les utilisateurs de LLM ont constamment sous-performé aux niveaux : neuronal, linguistique et comportemental. Ces résultats soulèvent des inquiétudes quant aux implications éducatives à long terme de la dépendance à la LLM et soulignent la nécessité d’une enquête plus approfondie sur le rôle de l’IA dans l’apprentissage. » (Traduction de l’auteur)

[26] Le journal Le nouveau Conservateur, n°18, p.26-29, a publié un article produit par ChatGPT répondant à la demande : Les enjeux anthropologiques de l’IA. Nous nous référons à cette production, comme à nos propres consultations pour ce commentaire sur la stylistique et la qualité cognitive de ces solutions, en notant une discontinuité permanente des réponses à une même question posée à intervalle irrégulier sur quelques semaines. Ni constance, ni fiabilité, ni exactitude, voire des erreurs et des non-sens, etc.

[27] Dans : La technique et la science comme idéologie, J. Habermas décrit déjà le risque de cette objectivation technologique qui congédie le contexte et la subjectivité pour asseoir la domination universelle d’un savoir normatif : « Cette nouvelle auto-aliénation de l’homme, qui est susceptible de lui ôter sa propre identité et l’identité d’autrui…, c’est le danger que le créateur ne se perde dans son œuvre, le constructeur dans sa construction. L’homme frémit à l’idée de se transcender intégralement lui-même dans l’objectivité qu’il a lui-même produite, dans un être construit, et cependant il travaille sans cesse à faire avance ce processus d’auto-objectivation scientifique. » (1989, 161).

[28] Erich Hörl, dans son remarquable article de 2009 : Du déplacement technologique du sens, décrit ce retournement où l’homme n’est plus la source de sa pensée par cette quête de son objectivation par extériorisation dans sa reproduction en une machine qui vient déplacer le lieu de la conscience de l’homme à la machine, soit une dépossession de la pensée,: « Ce sens qui auparavant était une production originelle de la subjectivité constituante et d’une transcendance immanente à la conscience, s’est vu transformé lors du vaste tournant de l’histoire des machines en un paradigme d’extériorité originelle. » (2009, 57).

[29] Nous nous référons à : L’intelligence artificielle n’existe pas, publié en 2019 aux éditions First

[30] J’emprunte cette formule éloquente à Olivier Hamant, biologiste et chercheur à l’INRA, auteur de La troisième voie du vivant en 2025 chez Odile Jacob

[31] Une étude passionnante de study.com indique que 48% des étudiants utilisent ces solutions pour tricher, test ou questionnaire à domicile, 53% font rédiger des travaux par ChatGPT, soit sur le plan académique et juridique des pratiques qui relèvent du plagiat et de la triche. Le faible niveau d’exigence personnelle de ces populations affecte déjà la qualité de leur connaissance et leur capacité à en produire.

[32] Nous nous référons à The impact of generative IA on Critical Thinking de Hao-Ping Lee, et al. Et  à : IA et esprit critique : comment accompagner les étudiants, enseignants, éducateurs, les parents ? de Michelle Laurissergues, fondatrice et présidente d'honneur de l’An@é, co-fondatrice et responsable éditoriale d'Educavox.

[33] Les études et rapports sont nombreux dont : Guide pour l’IA générative dans l’éducation et la recherche – UNESCO – 2023 ; Risques et incidents liés à l’IA – OCDE ;   Les travaux de Mathilde Cerioli, docteure en neuroscience et fondatrice d’everyone.AI dont The Future of Child Development in the AQI Era. Cross-disciplinary Perspectives Between AI and Child Development Experts. L’étude M. Cerioli interroge l’impact négatif de ces solutions sur le développement cognitif ; Entretien avec Céline Gainet, – Sorbonne Université L’IA dans l’éducation : entre opportunités et défis qui participe au réseau Education Numérique Raisonnée ENR. Il existe beaucoup plus d’études qui alertent sur des effets négatifs et mesurables que l’inverse.

[34] Un article de Julien de Freitas dont les travaux portent sur ce que ces auteurs appellent les procédures d’adoption de l’IA (le terme d’adoption est très révélateur d’une relation affective et anthropomorphe), professeur à la Harvard Business School, publié dans la revue Harvard Business Review de juin-juillet 2025 intitulé Quand l’IA rencontre de la résistance. Les cinq principales réticences face à l’intelligence artificielle – et comment les surmonter précise ces résistances en décrivant les propriétés de l’IA, elles aussi très anthropomorphiques : opacité, insensibilité, inflexibilité, autonomie. Quelques citations permettent de comprendre qu’il s’agira bien de faire taire les résistances, ce professeur n'envisageant même pas leur légitimité. La résistance est un conservatisme, voire une réaction d’hostilité.  Je souligne quelques termes qui manifeste ce climat d’une adoption « forcée » et d’une future police de l’IA qui aboutira au désinvestissement intellectuel massif des professionnels : « Il est primordial de comprendre ces freins avant de concevoir des plans pour favoriser l’adoption de l’IA. » (2025, 59 ; « Nous allons examiner ces réticences et expliquer ce que vous pouvez faire, en tant que manager, pour les contrer. » (2025, 59) ; « laisser à l’être humain un trop grand contrôle sur un système d’IA risque de diminuer la qualité et l’efficacité dé celui-ci.’ (2025, 62). La lutte pour l’adoption aura donc des conséquences sociales et cognitives prédictibles en termes de renoncement à agir ; soit être comme Charlot, un exécutant du système machinique.

[35] L. Julia rappelle fort bien : « Pour générer une réponse, elle fait donc une sorte de moyenne en allant chercher des informations un peu partout. Si je lui repose la même question, elle va me donner une autre réponse. Elle ne me donne jamais exactement la même, parce que cette moyenne recalculée à chaque itération. » (2025, 52). La réponse inconstante sera par nature inexacte.

[36] L’enfant rebelle de l’analyse transactionnelle ne se soumet pas à la règle, il conteste, pratique la bravade, voire l’agressivité et il fait à sa façon. C’est bien toute cette désobéissance qui disparaît dans la relation à la solution cognitive qui n’offre pas même une prise à cette rébellion, puisque l’échange est asymétrique et dénué d’un dialogue véritable. La machine prend donc une place psychologique neutralisante dans la relation.

[37] L’analyse transactionnelle dit de l’adulte dans la description des états du moi fonctionnels qu’il analyse, observe, écoute et décide en connaissance de cause, pesant les facteurs de manière claire et équilibrée. A l’inverse, la machine cumule bien les attributs du parent normatif qui fixe les limites et les règles et du parent nourricier sauveur qui déresponsabilise. L’analyse du rôle de la solution est à approfondir pour étayer la valeur des interactions homme/machine. Aujourd’hui, elle corrobore le constat d’une relation Parent / Enfant qui n’échappe pas à l’observation.

[38] L. Julia évoque les conditions générales de ces solutions qui ne revendiquent pas de droit de propriété sur leur production pour deux raisons. Elles pillent internet, donc des documents dont les propriétaires n’ont pas nécessairement explicitement donné leur accord. Elles ne peuvent assumer la qualité, soit l’exactitude des productions dont la mise en œuvre ou l’utilisation ne sauraient les engager. Il suffit d’attendre les premiers échecs importants pour que la confiance cède sa place à des usages privés dénués d’engagements professionnelles ou académiques.

[39] Google AI Overviews a fait l’objet de manipulations déformant les résultats par des données d’entrainement erronées, le moteur indiquant qu’il était acceptable de faire des pizzas avec de la colle. Google, personne morale, est-il pénalement responsable des décès ou handicaps résultant de la mise en pratique de telles recommandations de leurs solutions pour une recette de cuisine ou pour des opérations plus impliquantes ? L’obsolescence sera d’autant plus rapide que la foi a été naïve et que les cas seront ridicules ou tragiques.

[40] De nombreuses études sur l’éthique des solutions cognitives démontrent l’extrême sensibilité de ce sujet, non seulement pour la relation homme-machine, mais aussi pour les connaissances construites et utilisées. On peut citer les piliers d’explicabilité, de robustesse, de transparence et de confidentialité auxquels l’IA générative ne répond pas pour le grand public, les publications de l’Observatoire mondial de l’éthique et de la gouvernance de l’IA de l’UNESCO, les travaux de Dominique Cardon, directeur du Medialab de l’IEP de Paris auteur de Culture numérique paru en 2019 aux Presses de Sciences Po, ou en matière éducative l’Observatoire International sur les impacts sociétaux de l’IA et du numérique (OBVIA) du Québec. Le corpus actuel met en évidence le danger de pronostics erronés et l’automatisation de décision, les biais algorithmiques par manque de transparence et les discriminations des choix ou des personnes. Notons que ces textes éthiques produits par les grandes institutions internationales insistent plus sur les conséquences de biais portant sur les personnes (discrimination, stéréotypes) que sur les biais cognitifs déformant les savoirs eux-mêmes à partir de choix épistémologiques contestables, inducteurs d’atteintes potentielles à la liberté de recherche, d’expression et de pensée ; soit les fondements de l’exercice de la liberté de conscience.

 

Continuer la lecture avec l'article suivant du numéro

L'Intelligence artificielle et ses dangers au contact du discours et de l’image

Ibrahima BA

L’intelligence artificielle (IA) améliore les performances des entreprises et développe des modalités d’enseignements-apprentissages dans les universités du Nord et du Sud. Malgré ses atouts importants, elle soulève des traces de vulnérabilité qui méritent d’être étudiées dans ce contexte néolibérale où le langage et l’image jouent sur les intentions et les actions des masses. L’intelligence artificielle participe de la prépondérance de la logique du marché et de la construction d’une hégémonie politique. Nous nous inspirons, dans cette perspective, des travaux de...

Lire la suite

Du même auteur

Tous les articles
N°48 / 2026

L'entropie systémique de l'IA générative grand public

Lire la suite
N°48 / 2026

Entretien avec Anne Alombert et Gaël Giraud

Lire la suite
N°47 / 2025

Editorial

Lire la suite