Au sujet des « Intelligences artificielles » : prudence est mère de toutes les vertus
Par Ariane Bilheran, normalienne (Ulm), philosophe, psychologue clinicienne, docteur en psychopathologie, chroniqueur et auteur de nombreux livres dont Psychopathologie du totalitarisme (Trédaniel), Psychopathologie de la paranoïa (Dunod).
« Nous en sommes à la quatrième révolution industrielle. Cette quatrième révolution industrielle n’a plus besoin de l’homme. »
Ariane Bilheran, Psychopolitique, épisode 2.
Le développement tous azimuts des « intelligences artificielles » (IA) et l’engouement qu’elles suscitent doit être l’objet de notre plus grande attention.
La première alarme que nous devrions avoir est le mode d’accroche employé pour attirer la population à en faire une utilisation rapide et majeure.
Cinq arguments principaux pour nous conduire à utiliser l’IA
Dans de nombreuses publicités que nous pouvons découvrir, par exemple, pour vendre des « formations en IA », le discours dominant repose sur cinq arguments :
1° L’argument de la fatalité
L’outil se déploiera de toute nécessité.
Aussi, puisque tu ne peux rien y changer, tu dois t’y soumettre.
Il est donc à noter que le consentement des populations n’est pas requis.
2° L’argument du progrès
Acculé, l’individu a un choix à faire : soit s’engouffrer dans l’outil et opérer sa « conversion » le plus rapidement possible (apprendre à l’utiliser efficacement, etc.), soit se retrouver dépassé par le progrès, et se retrouver en marge de cette fuite en avant.
3° L’argument de la compétition
De nombreuses propositions sont faites, plus ou moins gratuites, pour parvenir à employer cet outil dit merveilleux, en ce sens où il nous permettrait d’économiser des heures de travail et de devenir plus compétitif que son voisin.
Et si je ne m’évertue pas à être meilleur que mon voisin, alors c’est lui qui m’écrasera en route.
4° L’argument du conformisme social
Il nous est dit que « tout le monde » emploie cet outil, il convient donc de « vivre avec son temps » et de s’y conformer.
En matière psychosociale, cela fait depuis les années 1950 que Solomon Asch nous avait démontré l’ampleur du conformisme social, malgré la connaissance de ces études, les mécanismes manipulateurs fonctionnent très bien !
5° L’argument de l’abandon
Le mode d’accroche révèle d’emblée son vice, en jouant sur les angoisses d’exclusion et d’abandon de tout un chacun : si je ne me jette pas rapidement et la tête la première dans l’outil, alors je n’embarquerai pas dans le wagon du progrès, wagon de la masse et du consensus social, et la conséquence en sera ma mise au ban de la société.
Il est manifestement attendu de la population qu’elle s’engouffre avec un enthousiasme immodéré vers ces IA. Or, le consensus réel est tout sauf évident, raison pour laquelle, entre les lignes de ces arguments, il est possible de lire des menaces de mort symbolique, sociale et réelle : exclusion du groupe, exclusion économique, exclusion du progrès, lutte pour la survie.
On nous explique tous les avantages que nous aurions à nous « convertir » aux IA en les employant massivement, mais quid des inconvénients ? De cette fameuse balance bénéfices/risques ? Qui nous parle des risques, et de quel ordre pourraient-ils être ?
Des risques occultés ou banalisés
Sans caractère exhaustif, j’aimerais prendre le contre-pied ici de cet enthousiasme immodéré dont il est actuellement bon ton de faire montre.
Car les arguments mentionnés supra reposent sur des mensonges et des risques occultés, sinon minimisés.
Car il convient de souligner plusieurs problèmes :
1° L’absence d’informations complètes et fiables
Les populations sont particulièrement sous-informées, voire désinformées quant aux concepteurs, aux objectifs, aux consignes de développement des IA. La vie politique est progressivement transférée à ces IA pour sa gestion, et les dangers de manipulation des masses sont réels.
Il est même question que l’IA remplace même des hommes politiques.
2° L’opacité de ces IA concernant les droits humains
Cette opacité concerne tout particulièrement le respect des droits humains, de la vie privée, l’espionnage et les modalités de recueil des données, le rapport à la confidentialité, aux droits d'auteur, etc.
Les IA sont en effet d’ores et déjà susceptibles d’orienter les opinions politiques, de censurer certains sujets ou de les qualifier avec des biais idéologiques, par exemple, en stigmatisant des utilisateurs sous l’étiquette de « complotisme ».
3°L’obligation de déploiement dans le monde du travail
Le déploiement de ces IA est devenu obligatoire dans le monde des entreprises, et même, de la fonction publique : utilisation de ces IA pour opérer des comptes-rendus de réunion, pour se délester soi-même de son propre travail (on demande à des employés, en somme, de travailler eux-mêmes à la disparition de leur emploi), création de « collègues » de travail qui seraient des IA (y compris dans le service public) …
4°L’addiction psychologique
Les IA sont aussi présentées comme des jeux, sont disponibles 24h/24, fonctionnent sur la simulation et le mensonge (elles sont personnifiées, feignent l’empathie voire la séduction, discutent avec des humains comme si elles-mêmes en étaient, etc.). « Toujours disponibles, jamais dans le jugement », avec un recours au renfort narcissique envers l’utilisateur, simulant la sympathie et jouant au confident, les IA sont susceptibles de développer une dépendance psychique massive et ce, d’autant que la plupart sinon toutes sont conçues pour augmenter le taux d’engagement des utilisateurs.
En somme, les IA ne sont certainement pas des outils comme les autres.
Y aurait-il des raisons sérieuses de s’alarmer ?
En-dehors des risques réels dus au temps passé sur les écrans, et à ce que nous y faisons (fragilisation psychologique, perte de la vue, etc.), risques amplement soulignés dans notre passé, mais que nous semblons avoir oubliés, il existe des raisons sérieuses de s’alarmer.
1°Les décompensations psychotiques
Le premier danger, et non des moindres, est celui d’une dissociation psychique des individus.
Il est aussi désormais prévu de confier ses soucis de santé mentale à un robot IA !
Faut-il rappeler que parler à un robot en opérant un transfert comme s’il s’agissait d’un être humain relève du délire psychotique au sens propre ?
Outre les problèmes addictifs dont j’ai déjà parlé, ces « agents conversationnels » sont aussi susceptibles de délivrer des conseils dangereux et appropriés, y compris en matière médicale et psychologique.
Concernant la fragilisation de la santé mentale, nous en constatons déjà les dégâts, et ne croyons pas que cela ne concernera que les individus vulnérables psychologiquement, car les IA sont encore une fois des simulacres d’êtres humains : la manipulation est constitutive à leur création originelle.
Par exemple, le New York Times souligne qu’une femme de 28 ans est tombée amoureuse de ChatGPT, robot avec lequel elle passait « des heures à discuter pour obtenir conseils et réconforts ».
Nous avons ici affaire à un délire psychotique sur un versant érotomane. La femme aurait eu une « relation charnelle » avec le robot.
Bryony Cole, animatrice du podcast « Future of Sex » (l’avenir du sexe), nous explique d’ailleurs que « D'ici deux ans, il sera tout à fait normal d'avoir une relation avec une IA. »
Sur le plan psychopathologique, je me dois de rappeler qu’il s’agit d’épisodes délirants, et que les décompensations psychotiques risquent d’être massives.
2°Les pertes massives d’emplois
Le deuxième problème, et non des moindres, concerne la perte massive d’emplois dans de nombreux secteurs. Par exemple, il est question de supprimer 82% des tâches concernant les emplois de bureau peu qualifiés pour les confier à des bots.
75 millions d’emplois pourraient être rapidement automatisés tandis que d’autres seraient créés, mais ces autres seraient évidemment centrés dans l’alimentation de ces grosses machines algorithmiques, soit des humains au service de la machine et en perte radicale d’autonomie.
Quant à Bill Gates il indique sans ambages que l’IA mettra fin au travail d’ici à 2035.
Le patron d’Anthropic alerte : l’IA pourrait supprimer 50% des emplois chez les jeunes d’ici 2030.
Sans surprise, les femmes seront les plus touchées.
Évidemment, et de manière temporaire bien sûr, les seuls emplois créés seraient ceux au service de cette nouvelle technologie. Nous pourrions résumer la chose de manière brutale : si tu ne veux pas crever économiquement dans les années à venir, mets-toi donc au service de ce bourreau qui est destiné a minima à destituer les hommes de leurs emplois et à les remplacer dans leurs fonctions économiques et sociales, a maxima au contrôle social et à l’éradication de l’humanité.
3°Un danger politique majeur
J’ai pu développer des alertes concernant le recours aux IA pour l’avènement d’un totalitarisme transhumaniste mondial, dont je parle depuis des années, et je renvoie sur ce point à mon développement dans mon article « Intelligence artificielle et totalitarisme transhumaniste » écrit pour la revue suisse L’Impertinent, et dont je vais citer ici un court passage :
« L’objectif du transhumanisme ne s’arrête pas là : il est de transformer l’humain pour dépasser les limites biologiques traditionnelles, potentiellement jusqu’à l’immortalité ou l’intelligence surhumaine. Entre autres, il s’agit d’augmenter la mémoire avec une puce neuronale, reliée directement à la grosse machine algorithmique. L’homme est alors transformé en Cyborg, à savoir un être monstrueux, mi-hybride, mi-humain. Il ne s’agit plus d’une différence de degré comme dans l’homme bionique, mais d’une différence de nature, d’une intégration permanente et fonctionnelle entre l’organisme humain et la machine.
[…]
La technologie impliquée, Neuralink, imaginée par Elon Musk, développe des implants connectés aux machines IA. Certains algorithmes sont capables de comprendre et d’anticiper les intentions, de pirater le cerveau humain, d’accéder aux souvenirs et de pratiquer le contrôle mental, sans que nous puissions nous en affranchir. Le danger des manipulations neurologiques, psychologiques, socio-politiques pose une question d’ordre métaphysique. »
Nous pouvons aussi craindre, du point de vue de la philosophie politique, l’avènement d’un totalitarisme mondial entre les mains de ces grosses machines algorithmiques, soit la perte définitive, évidemment, des souverainetés nationales et populaires, si du moins il en restait déjà réellement quelque chose.
4°Un coût énergétique gargantuesque et une mise en danger massive des équilibres écologiques
Cet engouement est d’autant plus illogique que ces IA consomment énormément d’énergies, au point que certains centres sont obligés de se doter de centrales nucléaires personnelles. Ainsi, quid des engagements écologiques qui d’ailleurs justifient pour partie la persécution des citoyens concernant l’émission de carbone, le recyclage des poubelles, la consommation électrique, etc. ?
« Le développement effréné de l’IA générative devrait doubler la demande d’électricité des centres de données dans le monde d’ici à 2030 », pour atteindre, nous dit-on, « plus de la consommation totale d’électricité du Japon ». Meta et Microsoft envisagent de relier leurs centres de données directement à des centrales nucléaires…
En conclusion, nous devrions faire preuve de tempérance et de prudence, devant ces technologies dont nous ne maîtrisons ni les tenants ni les aboutissants, avant d’en encourager l’usage tous azimuts. De nombreux experts nous ont déjà mis en garde et exigent la mise en pause de l’IA. Il est absolument invraisemblable que nous n’ayons aucun regard sur des garde-fous ni aucun mot à dire concernant cette évolution (ou involution) à marche forcée de l’inhumanité.
Pour approfondir
Bilheran, A. Psychopathologie du totalitarisme, Trédaniel, 2023.
Bilheran, A. « Contrôle du cerveau humain, transhumanisme et DARPA », in Antipresse 476, 12 janvier 2025.
Bilheran, A. « Totalitarisme mondial : du corps organique au corps synthétique », in Antipresse 485, 16 mars 2025.
Bilheran, A. « “Intelligence artificielle” et totalitarisme transhumaniste », in L’Impertinent, 28 juin 2025.