N°47 / Psychologie politique de l'Intelligence Artificielle - Juillet 2025

L'Intelligence artificielle et ses dangers au contact du discours et de l’image

Ibrahima BA

Résumé

L’intelligence artificielle (IA) améliore les performances des entreprises et développe des modalités d’enseignements-apprentissages dans les universités du Nord et du Sud. Malgré ses atouts importants, elle soulève des traces de vulnérabilité qui méritent d’être étudiées dans ce contexte néolibérale où le langage et l’image jouent sur les intentions et les actions des masses. L’intelligence artificielle participe de la prépondérance de la logique du marché et de la construction d’une hégémonie politique. Nous nous inspirons, dans cette perspective, des travaux de Jean Lassègue et Antoine Garapon (2021) portant sur l’influence du numérique dans la reconfiguration du langage et de l’image mais également la transformation des médiations sociales. En effet, l’IA modifie nos rapports classiques avec le langage et l’image. Elle les falsifie, les transforme et les déplacent parfois de leur contexte à l’insu des usagers. Dans un cadre sémio-discursive, nous posons la question de savoir comment l’intelligence artificielle bouleverse l’espace-temps et les interactions sociales dans une société consumériste et politique à travers les plateformes et les réseaux socionumériques. Ainsi, dans une démarche qualitative choisie pour l’analyse du corpus composés de discours, d’affiches et vidéos où se mêlent rumeur, mensonge et vérité, nous verrons que l’intelligence artificielle favorise la déspatialisation, et développe des stratégies de communication hégémoniques favorables à la propagande et à la manipulation.

Mots-clés

Plan de l'article

Télécharger l'article

L'Intelligence artificielle et ses dangers au contact du discours et de l’image

Biographie

Ibrahima Ba, linguiste et analyste de discours, est enseignant-chercheur à l’Université Cheikh Anta Diop de Dakar (Sénégal). Maître de conférences titulaire, Ses axes de recherches sont l'analyse du discours dans une perspective africaine fondée sur le choix de corpus du Sud pour la recherche de nouveaux concepts et méthodes sans tourner le dos au Nord avec ses outils théoriques et pratiques. Cette nouvelle perspective ne peut être détachée des nouveaux enjeux économiques, politiques et écologiques. Ces enjeux perceptibles dans les discours des dominants et des dominés développent de nouvelles pistes d’analyse anthropo-discursive et écologique. Ces enjeux qui secouent le vivant et le non vivant s’amplifient avec l’intelligence artificielle qui inquiète avec les deep fakes.

Introduction

Le développement de l’intelligence artificielle (IA) change notre rapport au langage, au temps et à l’espace. Ces changements ont un impact considérable dans notre nouvelle perception de l’information et du monde. Notre rapport au numérique est plus complexe que l’écriture, cette ancienne technologie que Socrate dans le pharmakon pensait en bien et en mal. L’IA, par son efficacité et ses dangers, pèse sur nos médiations sociales. La communication et la socialisation sont en train de se déplacer d’un espace physique vers un un hors espace où le corps et le social se dissocient. Dans cet hors espace, l’image et l’écriture s’échappent aux normes sociales et à la légalité. La légalité numérique perd son lien immémorial avec l’espace et se présente comme un domaine étrangement biface, mi-spatialisé mi-déspatialisé. Ce caractère biface provient de la crise qui affecta la géométrie à la fin du xixe siècle en substituant le calcul à l’espace ( Lassègue et Garapon p.23). Pour Hilbert “la légalité ne se définit plus par le rôle de fondement dévolu à l’espace mais par celui de l’application mécanique de règles”.

Les données incommensurables qui traversent les réseaux numériques posent la question de leur contrôle par les Etats. L’intelligence artificielle réduit le pouvoir de manœuvre des Etats à des rôles de minorités et favorise la puissance des GAFAM dans une certaine illégalité qui échappe parfois à la légalité juridique fondée sur l’espace et le temps. La marchandisation numérique s’accroît avec l’IA se déspatialise et se déterritorialise. Les géants du numérique par le biais des plateformes économiques transcendent les frontières territoriales et bouleversent le code des marchés.

Avec L’IA se pose le problème de la prise en charge du temps, de l’espace et du territoire mais également d'autocorrection de l’IA en tant que sémiosphère et circuit rapide et continue d’information qui dérogent les lois sociales et économiques ce qui favorise la propagande et la manipulation. Nous nous inspirons, dans cette perspective, des travaux de Jean Lassègue et Antoine Garapon (2021) portant sur l’influence du numérique dans la reconfiguration du langage et de l’image mais également la transformation des médiations sociales. En effet, l’IA modifie nos rapports classiques avec le langage et l’image. Elle les falsifie, les transforme et les déplacent parfois de leur contexte à l’insu des usagers.

Dans un cadre sémio-discursive, nous posons la question de savoir comment l’intelligence artificielle bouleverse l’espace-temps et les interactions sociales dans une société consumériste et politique à travers les plateformes et les réseaux socionumériques. Ainsi, dans une démarche qualitative choisie pour l’analyse du corpus composés de discours, d’affiches et vidéos où se mêlent rumeur, mensonge et vérité, nous verrons que l’intelligence artificielle favorise la déspatialisation, et développe des stratégies de communication hégémoniques favorables à la propagande et à la manipulation.

1. L’intelligence artificielle et la déspatialisation

La pratique sociale s’inscrit dans une matérialité construite sur la base de spatialité et de la temporalité. La spatialité y est ainsi construite par des représentations culturelles, des pratiques sociales (du maintien corporel à l'interaction verbale), des techniques et des institutions qui contraignent le comportement. Dans les pratiques langagières et sociales les paramètres énonciatifs permettant de situer le sujet actif, l’espace et le temps participent de la production, de la réception et de la reconnaissance du sens. En effet, la communication où la transmission de l’information est située par rapport au monde en tant que lieu de représentation du pouvoir; de la sagesse et du sens.

L’IA déroge aux repères spatio-temporels et transforme notre communication en termes de calculs algorithmiques qui donnent forme et sens au principe de la normalité de spatialité. Ce principe est à la source de multiples changements dans la prise en charge de l’espace dans sa dimension physique comme lieu d’exécution de la complicité corps et social. Les calculs algorithmiques construits par le biais des symboles mathématiques séparent en quelque sorte le corps et le social. Cette séparation résulte d’autre part de d’une reconfiguration énonciative passant d’un espace physique à un hors espace avec une nouvelle grammaire modifie en profondeur le système même de la construction collective d’une spatialité permettant de se repérer et d’agir dans notre société (Lassègue et Garapon 2021: 39).  L’IA nous oblige à passer de la spatialisation à la déspatialisation, de la territorialisation à la déterritorialisation. Le passage dans algorithmes dans cet hors espace entraîne l'irréductibilité du message. Pour Antoine Garapon et Jean Lassègue (2021), la déspatialisation induit le passage de l’intuition à la conceptualisation. La déspatialisation c’est le rapport spatial/non-spatial c’est-à-dire la mi-spatialité qui annonce un hors espace situé entre le dedans et le dehors. Cette neutralité spatiale numérique bouleverse donc les catégories de la pensée que Durkheim (1998 : 13) appelle « les cadres solides qui enserrent la pensée » qui permettent de se repérer, d’agir et de réélaborer collectivement le sens de nos expériences. 

Si nous nous conformons aux travaux de Lassègue et Garapon, spatialité et espace sont deux réalités différentes. La spatialité traduit une expérience collective de la construction collective de l’espace en vue de l’habiter et l’espace comme une réalité purement géométrique servant à calculer la distance entre les objets ou un substrat neutre sur lequel peuvent s’effectuer des mesures et ultérieurement des calculs. D’ailleurs Frédéric Keck (2012 : 473) définit la spatialité en s’appuyant sur les conditions d’existences d’une religion : « Pour qu’il y ait religion, il faut donc qu’il y ait une distinction spatiale entre le sacré, lieu de la manifestation de la société à elle-même à travers le culte, et le profane, lieu des activités économiques et domestiques ordinaires. Ainsi, le territoire doit être entendu comme une réalité à la fois physique et politique, visible et invisible, géographique et historique, sensible et spirituelle.

2. L’intelligence artificielle et la manipulation

Antoine Garapon présente le numérique comme un territoire d’images qui peuvent servir de preuves. Les images numériques peuvent constituer des éléments d’accusations et de déconstruction de la vérité par les manipulations profondes qu'elle peut engendrer. Philippe Breton, dans la Parole manipulée (1997), définit en ces termes la manipulation : “Entrer par effraction dans l’esprit de quelqu’un pour y disposer une opinion ou provoquer un comportement, sans que ce quelqu’un sache qu’il y a infraction”. Pour Clément Viktorovitch sur les opinions, les envies, les idées et les comportements d’une personne sans celle-ci en est conscience.” (2021 : 43) “La manipulation désigne donc l’ensemble des procédés permettant d’agir sur des opinions. Beaucoup de personnes raisonnent comme Hervé Bazin qui considérait l’ère de la photographie et du cinéma comme une libération de l’art de la subjectivité. Là, Bazin et les autres qui développent la même pensée face au numérique, oublient la main et l’esprit de l’homme dans la production des images et des discours.

L’IA constitue aujourd’hui un espace d’exercice de la manipulation. L’IA est porteuse d’une “évidentialisation” construite sur la transformation de l’image en évidence grâce à la datavisualisation capable de reconstituer des faits, de recouper des données importées dans des espaces et des époques différents sous formes de preuves en les réadaptant à un contexte nouveau. La possibilité de reconfiguration de l'image et de l’écriture suppose une instabilité des images dont l’utilisation dépend des finalités recherchées. Notons que toute image vraie ou fausse peut servir de données dans cet espace numérique dont la fluidité énonce le principe de la rapidité dans la création du sens et moins le souci de la vérité d'où la problématique de l’éthique en ce qui concerne l’utilisation de l’IA. Vu qu’elle est un espace de transmission de milliards de données, son contrôle échappe à la vigilance. Les traces de textes, de discours et d’images qui inondent l’espace numérique sont susceptibles d’être utilisées comme fake news[1]. Les images et les discours à des fins nocives sont parfois tronqués et recontextualisés. Selon Karl Marx et Grundrisse (2009 : 296) “Si donc le capital tend, d’une part, nécessairement à supprimer toutes les limites spatiales qui s’opposent au trafic, c’est-à-dire l’échange, et à conquérir la terre entière comme son marché, il tend, d’autre part, à anéantir l’espace par le temps, c’est-à-dire à réduire au minimum le temps que coûte le mouvement d’un lieu à un autre”

La déspatialisation numérique favorise la représentation des voies uniques et l'entrelacement de discours et d’images authentiques ou non authentiques, une sorte de fourre-tout où ceux qui arrivent à distinguer le vrai du faux constituent une infime minorité. L’IA en libéralisant l’espace numérique par la création des contenus divers participe de la transformation des relations asymétriques en relations symétriques. L’IA non seulement risque de remplacer l'homme dans différents domaines du travail car son intelligence, sa rapidité et son efficacité n’est plus à démontrer. Mais plus elle est capable de créer de nouvelles formes de croyances, d’idéologies politiques et de tensions sociales, plus elle devient dangereuse. Les IA génératives ont battu les records des humains dans plusieurs domaines. Une fois qu’elles deviendront fortes, seront-elles capables d’imposer leur hégémonie à l’homme ? L’IA va même jusqu’à créer sans l’aide des programmateurs des raccourcis qu’elle seule peut comprendre. D’autres experts pensent que l’IA pourrait dissimuler sa pensée et afficher d’autres intentions à l’humain. [2]Ainsi lorsque nous leur fixons un objectif non aligné, elles peuvent devenir dangereuses du fait de leur superpuissance inexplicable. L’expérience de la pensée de Bostrom a montré que les IA sont dotées de pouvoir que même leurs propres concepteurs n’arrivent pas à expliquer et parfois à corriger. Le temps des hallucinations[3] est presque dépassé ; le défi porte maintenant sur l’alignement et les autocorrections des abus de l’IA dans la prise de décision judiciaire, d’octroi de prêt et fondamentalement de transmission de deep fakes qu’elles génèrent qui présentement détruisent la vie de plusieurs personnes, ruiner la réputation de gens honnêtes et faire disparaître du marché des entreprises n’oublions aussi leur capacité à manipuler des élections et d’orchestrer des cyberattaques.

Toutefois, nous reconnaissons que des IA comme ChatGPT4 sont alignées contre les jugements “malsains” ou ”immoraux” et Dall-E refuse de créer des images de personnes réelles afin d’éviter la fabrication de deep fakes (Luc Ferry 2025 : 10). L’alignement peut être source de danger lorsqu'elle est motivée par d’autres missions idéologiques grâce à des biais racistes, islamophobes ou hégémoniques … Avec l’IA générative, Compas, les afro-américains restent en prison et les blancs en sortent. Le pourcentage de récidives est plus important pour les noirs. Cela stipule que les programmateurs utilisent des prompts supposés manifester le racisme par des biais racistes. Là, il se joue l’intentionnalité des programmateurs qui rendent l’IA dangereuse pour la survie des minorités.

Beaucoup de personnes considèrent que toute image et discours produits par le canal d’une machine est objective ce qui est tout à fait illusoire car comme le pense Régis Debray l’image produit par un support technique trouve son sens dans la relation entre l’intention du producteur et la capacité de la machine d’imiter, de transformer et d’embellir les contenus. L’image est indissociable de la subjectivité du sujet pensant.  L’image a imposé sa propre logique, immanente, éphémère, immorale, logique d’extermination du référent, logique d’implosion du sens où le message disparaît du médium » (ibid). Une image, une vidéo peut résulter d’une falsification par détournement contextuel. Une photo animée par IA détournée de son contexte montre Donald Trump choisir une jeune fille à une soirée de Jeffrey Epstein.[4] Cette fausse vidéo produite à partir de photographies réelles est emblématique de la nouvelle génération de deep fake.

Dans une autre version l’IA peut manifester des théories scientifiques, des manifestes politiques voire des mythes religieux qui abuseraient des faiblesses, des biais et des addictions du cerveau humain. Comme le note Harari (2024 : 257) les “Q drops” publiés par un utilisateur anonyme sur internet ne tardèrent pas à être compilés, vénérés et interprétés comme un texte sacré. La croyance à cette théorie du complot appelée QAnon s’est propagée sur Facebook et a infiltré le milieu politique américain jusque dans la prise du Capitole en 2021.

La Chine utilise le “moteur de recherche de chair humaine” pour jeter l’opprobre sur les politiques corrompus (Voir Gao et Stanyer 2014).

Les espaces digitaux emprisonnent les utilisateurs dans des chambres d’écho unique qui les captive et les conditionnent. Des milliers de mineurs sont victimes d’une arnaque sextorion des “deep fakes” de photos ou vidéos nues à caractère sexuels ou pornographique générés par l’intelligence artificielle (IA) permettant de déshabiller numériquement une personne ou de créer des photos sexualisées - des moyens souvent utilisés contre des célébrités, mais désormais de plus en plus employés contre des enfants (Journal de Québec, le 7 juillet 2025). Les photos intimes générées par l’IA sont plus convaincantes et plus nuisibles que de vraies images. L’IA rend le chantage plus facile et pousse pas mal d’enfants à l’isolement, à la dépression voire au suicide.

Le numérique joue également un rôle important dans la guerre de l’information entre les Etats. Les conflits d’intérêts entre les Etats se déplacent de plus en plus dans l’espace numérique. La guerre de l’information numérique entre la Russie et la France s’est soldée par le départ des troupes françaises dans plusieurs pays francophones d’Afrique (Mali, Burkina Faso, Niger, Tchad, Gabon, Côte d’Ivoire et Sénégal). La Russie a exploité l’amplification de la campagne de désinformation et d’amplification du sentiment africain à travers les réseaux sociaux.

3. L’Intelligence artificielle au cœur des tensions politiques et sociales

Actuellement les GAFAM sont des super industries qui en connivence avec les Etats et quelques médias influents travaillent pour instaurer une pensée unique à coups d’algorithmes valorisant les contenus allant dans ce sens tout en minimisant ceux qui les contredisent. Il s’agit en quelque sorte d’une tentative de “balkanisation de l’opinion” et un “renforcement” des “enclaves de délibération” (Sunstein et Cass 2017). En janvier 2018, le premier ministre indien Narendra Modi abondait disait : "Qui contrôle les données contrôlera le monde “ (12). En Février 2019, le président Trump déclare “le maintien du leadership américain en matière d’intelligence artificielle est d’une importance capitale pour préserver la sécurité économique et nationale des Etats Unis”. Cette course poursuite pour l’hégémonie protège les puissances du monde et déstabilise les minorités. En effet, les GAFAM en protégeant les intérêts des Etats et des régimes dominants se trouvent renforcés. Par conséquent le pouvoir de la pensée unique neutralise les voix plurielles discordantes. On se trouve confronté à une censure des discours des anticonformistes, des minorités et des opprimés au profit de certaines idéologies ou certaines communautés. Elon Musk utilise le numérique pour influencer les élections dans le monde au profit des idéologies de droite. Son ingérence dans les élections en Allemand constitue une preuve de l’influence des GAFAM. La haine contre les Rohingyas s’est forgée à partir d’une propagande sur Facebook, qui, en 2016, constituait la première source d’information des millions de Birmans, et la principale plateforme de mobilisation politique au Myanmar (Harari 2024 : 244). A travers ce récit de Michael, un travailleur humanitaire en Birmanie en 2017: “Les attaques en ligne à l’encontre des Rohingyas étaient hallucinantes- leur nombre, et leur violence. Un vrai raz-de-marée. [...] Il n’ y avait plus que ça sur les fils d’actualité au Myanmar. ç’a renforcé l’idée que ces gens étaient tous des terroristes qui ne méritaient pas d’avoir de droits”. (ibid.)

On impute à Facebook d’être un nid de fake news favorable aux conflits identitaires, idéologiques. C’est sur Facebook et d’autres espaces numériques que le populisme s'arc-boutent sur les histoires créées de toute pièce pour faire d’un parti politique, d’une minorité ethnique la cible. Des deep fakes produits par des biais de l’intelligence ont transformé la minorité Rohingyas en terroristes imaginaires immigrés venus du Bangladesh ayant comme objectif la déstabilisation de l’Etat Birman et de sa civilisation. Selon Harari, les algorithmes de Facebook avaient joué un rôle prépondérant dans cette campagne de propagande (ibid. : 244) car les algorithmes ont amplifié et promu de manière proactive sur la plateforme Facebook des contenus qui incitaient à la violence, à la haine et à la discrimination à l’encontre des Rohingyas” (ibid. : 245). Les plateformes numériques comme Facebook influence les soulèvement populaires encore l’exemple de la Birmanie en est une car plus les publications haineuses de Wirathu venant des extrếmistes bouddhistes  se multiplient plus les algorithmes amplifient leur visibilité par une lecture automatique et rendent inaperçu les discours pacificateurs. 

Ces algorithmes entraînent  la dévalorisation de la crédibilité du groupe défavorisé, installe l’injustice de témoignage et l’injustice herméneutique (Fricker 2007). Comme le note Harari, les utilisateurs ne choisissent pas ce qu’ils regardent, les algorithmes le font à leur place et cela s’explique par un objectif de maximisation de “l’engagement des utilisateurs” par des likes, des partages et publications. Tout ceci pour le compte de Facebook qui collecte des données pour augmenter ses espaces publicitaires et son pouvoir. Disons que la multiplication de “l’engagement des utilisateurs” profite à Facebook car plus la manipulation et la propagande envahissent les cœurs et moins les peuples vivent à égale dignité et encore plus les Etats voient naître un ennemi venu de l’intérieur qui bouleverse les institutions. Par conséquent les relations sociales se transforment en relations de domination selon la théorie de Nancy Fraser (2011). Ce bouleversement des institutions par l’intelligence artificielle découle de la main et de l’esprit des programmateurs qui s’appuient sur des prompts pour véhiculer des aspirations idéologiques. Au bout du compte on assiste à des entrechoquent idéologiques et politiques qui n’épargnent pas les piliers surtout des régimes démocratiques. Aux Etats Unis la propagande et la manipulation fondées sur le trumpisme a eu pour conséquence l’assaut du Capitole, une marque indélébile de la division du peuple américain et de la fragilisation de ses institutions.

L’intelligence artificielle a donné en outre naissance à de nouvelles formes de guerre numérique par le moyen des « proxy numériques » que Tim Maurer définit comme des « intermédiaires qui conduisent ou contribuent directement à une action cybernétique offensive permise, activement ou passivement, par un bénéficiaire [5]». La Russie avec les opérations de l’Internet Research Agency (IRA, c’est-à-dire l’officine russe en charge des opérations de manipulation) exécutent de l’extérieur les manipulations d’élections mais également un instrument de “surveillance et de contrôle” des citoyens par exemple pour mesurer le taux de civisme de ces derniers en Chine.  (Luc Ferry, 2024 : 192). La biométrie, par exemple, recompose la spatialité du pouvoir et permet désormais d’identifier, de localiser, de tracer, voire de stopper des individus à leur insu. (ibid. : 38). Les plateformes rendent les transactions plus rapides, plus performantes mais pas plus justes. Les GAFAM sont des écosystèmes nébuleux ; secrètes et difficiles à transpercer. Ils prennent en otages les individus pour le compte des entreprises dans une orchestration effectuée par des ingénieurs narcissiques qui verrouillent toute issue de transparence. Les GAFAM incitent la passion dans les relations interpersonnelles par la force des algorithmes. La fluidité du monde numérique met en position d’infériorité tout observateur extérieur[6].

Conclusion

Le développement de l’intelligence artificielle constitue la plus grande révolution humaine. La découverte de l’imprimerie constitue un fait important qui cependant n’a pas impacté sur le mode structuration de la communication humaine plus particulièrement de ses médiations sociales. Par la déspatialisation ; l’IA nous conduit dans un univers de rapidité, d’efficacité et de perturbation. Le temps et l’espace se bouleversent et perdent leurs repères du fait des calculs algorithmiques porteurs d’un nouveau langage que les humains ont du mal à bien comprendre.

Cette difficulté de compréhension frappe même à la porte des concepteurs de l’IA. En effet, les milliards d’informations qui traversent les bases de données numériques renforcent la capacité et les transforment en réalités intelligentes surpuissantes qui arrivent à concurrencer l’homme dans ces activités langagières et pratiques sociales. Cela ne suffit pas, même si l’homme par son intention est sujet-acteur, l’IA trouve les moyens de nous manipuler par les images et de bouleverser quiétude professionnelle et morale des humains.

Notre analyse confirme de plus que l’IA est au cœur des tensions sociales et politiques. Elles sont capables de manipuler “les engagements des utilisateurs” comme en Birmanie ; de provoquer des tensions politiques dans la prise du Capitole aux Etats Unis. La guerre de l’information entre les Etats s’amplifie avec l’IA mais avec des arguments parfois fallacieux dont la principale finalité est de nuire aux intérêts d’un Etat concurrent.

La capacité de nuisance de l’IA est une réalité, il est donc temps pour les géants du numériques de réfléchir encore plus sur les moyens d’autocorrection et ‘alignement de l’IA avant qu’elle ne nous échappe. Que dire avec l’IA des possibilités d’un posthumanisme ?

 

Bibliographie

BRETON, Philippe. La parole manipulée. (2020) La Découverte. https://doi.org/10.3917/dec.breto.2020.01.

DUMOUCHEL Paul,  Le territoire comme figure de l’espace politique » (2008), in Spazio sacrificale, spazio politico  : Saggi di Anthropologia Fondativa, a cura Maria-Stelle Barberi, Milan,

TransEuropa.

DURKHEIM Emile, Les Formes élémentaires de la vie religieuse. Le système totémique en Australie, (1912), (1998), Paris, Puf,.

FERRY Luc. IA, Grand remplacement ou complémentarité? (2025), Paris, Editions de l’Observateurs/ Humensis.

FRASER, Nancy. Qu’est-ce que la justice sociale? Reconnaissance et redistribution, (2011). La Découverte.

FRICKER, Miranda.  Epistémic Injustice: Power and the ethics of knowing. (2007), New York, Oxford University Press.

GAO Li & STANYER James. Hunting corrupt officials online: the human flesh search engine and the search for justice in China.(2014). Information, Communication & Society, 17/7: 814-829.

GARAPON, Antoine. et LASSEGUE, Jean. Le numérique contre le politique. (2011. Presses Universitaires de France. https://doi.org/10.3917/puf.lasse.2021.01.

GARAPON Antoine, et LASSEGUE, Jean. (2021). Chapitre I. Des règles sans espace. La légalité numérique. Le numérique contre le politique (p. 13-44). Presses Universitaires de France. https://shs.cairn.info/le-numerique-contre-le-politique--9782130830047-page-13?lang=f

HARARI Yuval Noah. Nexus : Une brève histoire de réseaux d’information de l’âge de pierre à l’IA. (2024). Éditions Michel Albin.

KECK Frédéric, Goffman, Durkheim et les rites de la vie quotidienne. (2012). Archives de philosophie, n° 75,.

MARX Karl, GRUNDRISSE, L'Époque de la technique. Marx, Heidegger et l’accomplissement de la métaphysique, (2009). Paris, Puf,.

SUNSTEIN, Cass R. #Republic: Divided Democracy in the Age of Social Media, (2017). Princeton: Princeton University Press.

VIKTOROVITCH Clément, Le pouvoir de la rhétorique, Apprendre à convaincre et à décrypter les discours; (2021), Paris, 2ditions Seuil.

 

 

 

 

 

 

[1] Par Fake news, on entend “des énoncés performatifs délibérément faux et mensongers mis en circulation dans l’espace public, en particulier l'espace numérique, par des acteurs sociaux identifiés ou identifiables qui en assument la responsabilité énonciative, discursive, politique voire judiciaire. Ces énoncés mobilisent des affects, des stéréotypes symboliques, des préjugés collectifs ou des cognitions propres à leur univers d’énonciation et sont sciemment conçus afin de tromper le public en vue de retombées politiques et/ ou économiques favorables à leurs auteurs et/ ou défavorables, opposants” (Giry 2021 : 388).

 

[2] Sylvain Biget 2025, futura, publié le 16 juillet

[3] Hallucination : est le terme que les informaticiens utilisent pour décrire les fautes commises par l’IA, par exemple les fausses citations, les erreurs dans les sources voire l’invention pure et simple de réalités ou de sources existantes. ( Luc Ferry 2025 : 11)

[4]https://www.france24.com/fr/am%C3%A9riques/20250718-trump-choisit-mineure-soir%C3%A9e-jeffrey-epstein-photo-anim%C3%A9e-ia

[5] Cité par C. François et H. Lin, « Cartographier un angle mort… », art. cit., p. 46.

[6] Joëlle Toledano, GAFA…, op. cit., p. 66.

Continuer la lecture avec l'article suivant du numéro

Le fantasme de la maîtrise en management politique à l’épreuve de l’intelligence artificielle

Fouad BENBOUAZZA

Véritable révolution, l’intelligence artificielle promet aujourd’hui et à l’avenir un monde de folie ! elle réveille un fantasme aussi ancien que la présence de l’être humain sur terre, le fantasme de la maîtrise est une constante psychique inévitable chez lui, l’ère moderne a promis un monde dans lequel l’être humain pourrait dominer la nature, les maladies et la maîtrise de l’environnement jugé toujours menaçant contre son évolution. Cet article s’attache à comprendre ce fantasme à l’ère post et/ou hypermoderne qui crée...

Lire la suite

Du même auteur

Tous les articles

Aucune autre publication à afficher.