N°39 / Propagandes et Manipulations politiques Juillet 2021

De la propagande d’Etat aux fake-news des réseaux : Quand le faux nous influence !

Nicolas Gueguen, Sébastien Meineri

Résumé

User de la propagande comme arme d’influence des masses et de l’opinion est une pratique aussi ancienne que ne le sont les sociétés humaines structurées. Si les moyens utilisés pour diffuser une information propagandiste ont évolué au cours du temps, notamment en raison du développement des médias, l’objectif a toujours été le même : faire croire à quelque-chose de manifestement faux pour le profit d’un Etat, d’un groupe, d’un individu ou d’une idéologie. L’article a pour objectif, sous l’angle de l’approche des travaux de la psychologie sociale, de présenter et d’analyser les mécanismes psychologiques que l’on peut activer pour faire adhérer et diffuser de l’information fausse. Dans une première partie, nous verrons ainsi qu’il existe, en nous, des mécanismes cognitifs qui nous conduisent à croire ou à adhérer partiellement ou totalement à de fausses informations et à faire de nous des vecteurs de transmission de ces fausses informations. Une seconde partie s’intéressera aux différences de caractéristiques sociales et/ou de personnalités associées à l’adhésion plus ou moins grande aux fausses informations et à leur transfert. En effet, aujourd’hui, sur les réseaux sociaux, l’heure des propagandistes est au ciblage, et il n’y a rien de plus aisé que de repérer des groupes ou de simples individus aux caractéristiques particulières qui seront plus susceptibles de croire à ces fausses informations, à les rechercher et à les diffuser.

Mots-clés

Plan de l'article

Télécharger l'article

DOSSIER : PROPAGANDES ET MANIPULATIONS

De la propagande d’Etat aux fake-news des réseaux : Quand le faux nous influence !

Sébastien Meineri et Nicolas Guéguen, Université de Bretagne-Sud, Laboratoire LP3C

Sébastien Meineri est Maitre de conférences en Psychologie Sociale à l’Université Bretagne-Sud et responsable de l’axe Influence et Comportement du Laboratoire LP3C. Basées sur une méthodologie de type expérimentale, ses recherches s’intéressent principalement au changement d’attitude et de comportement dans les domaines de l’environnement, de la santé et de l’organisation. Elles visent à cerner les mécanismes psychologiques sous-jacents à l’effet de paradigmes d’influence en vue d’en améliorer l’effet et d’en concevoir de nouveaux. Ses publications récentes :

Meineri, S., Dangeard, I. et Dupré, M. (2017). Efficacité d’un feedback hebdomadaire sur la réduction du poids des ordures ménagères résiduelles. Pratiques psychologiques.

Meineri, S., Dupré, M., Guéguen, N.; Vallée, B. (2017) Experimental clues in favor of a generalized norm of reciprocity. Polish Psychological Bulletin. 48, 375-379.

Eyssartier, C., Meineri, S. Guéguen, N. (2017). Motorcyclists' intention to exceed the speed limit on a 90 km/h road: effect of the type of motorcycles. Transportation Research Part F. 45, 183-193

Nicolas Guéguen est Professeur des Universités en Sciences du Comportement à l'Université Bretagne-Sud à Vannes. Il est le directeur adjoint de l'Institut de Management en charge des masters et directeur du laboratoire LP3C-UBS. Ses travaux de recherche portent principalement sur les facteurs d’influence et de persuasion dans le cadre du changement comportemental des individus appliqués aux comportements de prévention en matière de santé et de consommation. Ses publications récentes :

Guéguen N. (2021). L’art de l’influence et de la manipulation au quotidien. Paris, Dunod

Guéguen N. (2018). Manipuler et séduire. Petit traité de psychologie comportementale. Paris, Belin.

Parant A., Pascual A., Jugle M., Kerroume M., Felonneau M.-L. & Guéguen, N. (2017). Raising students awareness to climate change: an illustration with binding communication. Environment and Behavior. 49(3), 339-353.

 

La propagande dont l’origine latine vient du verbe propagare signifie « ce qui doit être propagé » est une pratique ancienne dans l’histoire humaine. Cependant, elle se développe résolument avec l’avènement des médias de masse et trouve son apogée, aujourd’hui, à l’heure des réseaux Internet. Toutefois, l’objectif reste le même : propager des choses fausses, à grande échelle et rapidement, en vue de manipuler l’opinion des individus et leurs comportements jusque, parfois, des niveaux extrêmes. Durant la seconde guerre mondiale, le régime Nazi a fait de la propagande de masse une véritable arme de guerre à part entière avec toutes les conséquences que nous connaissons à présent.

Cependant, la propagande, qui était surtout utilisée par le pouvoir politique ou des grandes structures organisationnelles, sociales ou religieuses - bien entendu, cet usage à toujours cours de nos jours- se retrouve à être utilisée, aujourd’hui, grâce aux réseaux sociaux et à l’internet, par des groupes ou même de simples individus. Il y a toujours des idéologies de régime mais, récemment, sont arrivés les idéologues-individuels ou de groupes restreint qui tentent de faire croire un certain nombre de choses et faire changer nos opinions, et donc nos comportements, en diffusant des fausses informations (les fameuses fake-news).

Si les premières formes de propagande utilisaient la diffusion de fausses rumeurs, puis tous les médias populaires et, notamment, la presse et la radio, jusqu’à l’arrivée, aujourd’hui, des réseaux numériques, l’objectif a toujours été le même : faire croire à quelque-chose de manifestement faux pour le profit d’un groupe, d’un individu ou d’une idéologie. Cependant pour que la propagande puisse exercer son pouvoir d’influence, notamment à l’heure où toute information peut être vérifiée et contredite, c’est aussi parce que de nombreux facteurs cognitifs interviennent dans le traitement de l’information et que ces facteurs peuvent nous conduire à faire des erreurs d’analyse et de jugement de l’information ou à croire à quelque-chose qu’une vérification élémentaire permettrait de repérer comme étant fausse.

 

 

Facteurs cognitifs et traitement de l’information 

L’héritage des rumeurs

Les recherches scientifiques sur le thème de la propagande, la désinformation, les rumeurs ou encore les fausses informations en nette augmentation depuis l’emploi du terme par Donald Trump durant l’élection présidentielle américaine de 2016 et l’entrée de l’ère de la post-vérité, s’inscrivent dans la suite des recherches engagées dès le début du siècle dernier par Stern (1902) sur la fiabilité de la mémoire lors de la transmission orale d’un message, et la réplication de ce paradigme par Allport et Postman (1947) quelques années plus tard, à des fins plus spécifiques d’étude de la diffusion des rumeurs. Convaincus du pouvoir des rumeurs en temps de guerre, ces auteurs souhaitaient mettre à jour les mécanismes psychologiques mobilisés dans sa diffusion. Dans leurs expérimentations, ils proposaient à des participants de regarder une photographie, puis de la décrire de mémoire à un autre participant, devant à son tour transmettre cette description à un autre participant, et ainsi de suite jusqu’à former une chaine de 7 à 8 individus. Le récit du dernier participant était alors comparé au contenu initial de la photographie. A titre d’exemple, l’une des photographies représentaient une rame de métro emplie de voyageurs, avec au premier plan, un homme blanc en tenue d’ouvrier tenant dans sa main un rasoir et interpellant un homme noir en costume. Sans surprise, le récit final se révélait systématiquement plus pauvre que la photographie, évinçant dès le quatrième relais, tous les éléments de contexte au profit des seuls personnages de premier plan. En outre, son contenu avait également tendance à évoluer, jusqu’ à inverser les rôles des protagonistes. Conformément aux stéréotypes répandus à l’époque de ces recherches : c’est l’homme noir qui se retrouvait alors en position d’agresser l’homme blanc.

L’appauvrissement du contenu observé à mesure des relais serait lié à nos capacités limitées de mémorisation. Quant à la transformation du contenu, favorisée par la réduction du message initial, elle s’expliquerait par une autre caractéristique de notre mémoire : sa tendance à ne retenir que les éléments d’information congruents avec nos attitudes préalables, quitte ici à les modifier. En effet, l’information n’est pas stockée comme telle en mémoire, mais interprétée dans une mise en relation avec nos connaissances et croyances préalables. Le biais de confirmation, nous conduit ainsi à accepter plus facilement des informations, ou à juger plus qualitatifs des arguments qui vont dans le sens de nos croyances préalables, il conduit par ailleurs à rejeter les informations, à les juger moins logiques, ou encore à scruter méticuleusement les arguments contraires à nos croyances afin d’y trouver des failles (Britt, 2019). De nombreuses recherches récentes se sont intéressées à l’effet partisan que produit ce biais en considérant la réceptivité d’individus aux fausses informations en fonction de leur affiliation politique. Farago et ses collaborateurs (2019) ont réalisé une expérimentation en Hongrie consistant à exposer les participants à des titres de fausses informations en lien ou non avec la politique, et en faveur ou en défaveur du gouvernement de Viktor Orbán [le premier ministre de Hongrie] en place. Par exemple, un titre pro-gouvernemental était : « Le Collège des cardinaux du Vatican a décerné à Viktor Orbán le titre honorifique d’œcuménique pour ses actions visant à sauver l'Europe chrétienne » ; un titre anti-gouvernemental était « Viktor Orbán a été hospitalisé pour un traitement médical en raison de l'augmentation de sa maladie psychiatrique », le titre apolitique était : « Selon un guérisseur mexicain, les gens peuvent rajeunir leurs cellules et donc rajeunir eux-mêmes » Les mesures effectuées concernaient l’affiliation politique des participants, la véracité perçue de l’information, et l’indépendance perçue de la source d’information (écrit par un politique ou un journaliste indépendant). Les résultats révèlent que les participants évaluent les fausses informations politiques à la lumière de leur affiliation. Les pros-gouvernement jugent la source de la fausse information pro-gouvernementale plus indépendante, et l’information plus véridique que les antis-gouvernement. L’inverse est observé pour les antis-gouvernement face aux fausses informations anti-gouvernementales. La véracité des fausses informations apolitiques faisait, pour sa part, l’objet d’une évaluation indépendante de l’affiliation politique, et seulement sur base de l’évaluation de la source. 

L’effet internet

Selon Broner (2019), les rumeurs transmises par le seul bouche-à-oreilles, ne pouvaient survivre qu’au prix d’un dépouillement maximal, leur retirant toute argumentation et autres éléments susceptibles d’étayer leur crédibilité ; et leur conférant de ce fait un caractère folklorique, au pouvoir relativement limité. Or, les blogs, forums et réseaux sociaux que l’avènement d’Internet a permis, fournissent désormais un support, permettant aux fausses informations de s’affranchir des contraintes de la transmission orale : leur contenu peut désormais être stabilisé, et enrichi par un phénomène de mutualisation des arguments. Comptabilisant les arguments en faveur des théories du complot ayant émergés à la suite des attentats de Charlie Hebdo le 7 janvier 2015, Broner (2019) recensait 27 arguments le jour même et 151 à la fin du mois, proposés par différents contributeurs, bloggeurs conspirationnistes pour certains, simples membres de réseaux sociaux pour d’autres, scrutant les photos, vidéos et autres témoignages à la recherche de tout élément susceptible de constituer une nouvelle preuve. De surcroit, ces nouveaux médias permettent une diffusion plus massive de l’information, par des individus à part entière, mais également par des algorithmes programmés à des fins de propagation. Ainsi, Varol et ses collaborateurs (2017) estimaient le nombre de faux comptes Twitter entre 9 et 15%.

Libérées de leur caractère folklorique, les rumeurs, fausses informations et autres théories conspirationnistes auxquelles nous sommes quotidiennement exposés, mettent à mal notre capacité de discernement, réduisent la valeur que nous accordons à la vérité, et nous conduit à prendre des décisions erronées, quand bien même la fausse information a fait l’objet d’une correction (Lewandowski et al. 2017 ; Nyilasy, 2019). Le 4 décembre 2016, un homme armé d’un fusil d’assaut faisait feux dans une pizzeria de Washington afin de libérer des enfants détenus en sous-sol, victimes d’un réseau pédophile, prétendument orchestré par Hillary Clinton (Britt, 2019). Plus ordinaire, au Royaume Uni, une augmentation des maladies infantiles dites vaccinables est observé (Larson et al. 2011 ; Poland et Spier, 2010), alors même que le lien entre vaccination et autisme notamment a été démenti (DeStefano et Thompson, 2004).

            Le champ de recherche sur les rumeurs s’est ainsi progressivement transformé en champ de recherche sur la réception de la désinformation et de ses possibilités de correction, pointant les chercheurs en marketing, en sciences de la communication et de la persuasion comme les plus à même d’apporter un éclairage (Nyilasy, 2019). En effet, les mécanismes en jeu dans l’adhésion et le relais d’une fausse information sont similaires à ceux mobilisés dans la promotion d’un produit, d’un service ou encore d’un comportement de prévention en santé. Les facteurs à l’œuvre dans une communication persuasive sont relatifs à la source du message, au message lui-même, aux récepteurs, ou encore au média de diffusion. Et pour espérer produire un effet sur les attitudes et comportements des individus, Laswell (1948) préconisait d’accorder une attention particulière à chacun d’eux.       

L’influence de la crédibilité

Selon Willson et Sherell (1983), la source d’une communication persuasive expliquerait 9% des variations de son effet. Celle-ci se devrait d’être crédible, physiquement attrayante, célèbre et appréciée, ou encore similaire au récepteur (Girandola, 2003 ; Brinol et Petty, 2007). Dans une recherche sur l’évaluation de la durée de sommeil, Bockner et Insko (1966) présentaient un message persuasif à leurs participants préconisant différentes durées de sommeil, des plus ordinaires (7h-8h) aux plus improbables (1h-2h), avant de leur demander leur opinion sur le sujet. Selon la condition, le message était signé par une source hautement crédible : John Eccles, prix Nobel de physiologie ou par Harry Olsen, directeur d’un centre Y.M.C.A. (mouvement de jeunesse chrétien), source nettement moins crédible. Les résultats révèlent que la crédibilité de la source produit surtout un effet lorsque la durée de sommeil préconisée est particulièrement faible et va à l’encontre des opinions préalables. Dans ce cas, les individus confrontés à un message signé d’une source hautement crédible évaluent la durée optimale de sommeil à un niveau significativement plus faible que ceux confrontés à une source faiblement crédible.

Les fausses informations émanent fréquemment de sources présentées comme expertes. Van der Linden et al. (2017), s’intéressant à la perception du réchauffement climatique présentaient à leurs participants et, selon la condition, un message sous forme de diagramme indiquant un consensus scientifique de 97% des chercheurs sur le caractère réel du réchauffement climatique d’origine anthropique ; une pétition issue d’une réelle campagne de désinformation (« The Oregon Global Warning Petition Projet ») rassemblant prétendument 31 000 signatures de personnalités scientifiques américaines dénonçant l’absence de preuves scientifiques quant aux effets catastrophiques des émissions de CO2 dans un futur prévisible ; ou encore les deux messages consécutivement. Les résultats, en termes d’évaluation personnelle du consensus scientifique en faveur du réchauffement climatique d’origine anthropique avant et après exposition révèlent, dans le cas d’une exposition à l’un ou l’autre des deux messages, une augmentation ou une diminution du consensus perçu, congruente au message reçu. Dans la condition d’exposition aux deux messages consécutifs, les participants se retrouvent privés d’opinion, et ne modifient pas leur perception du consensus. A minima, les fausses informations, une fois démenties annulent l’effet des informations véridiques, et favorisent le statut quo.

Les recherches sur la crédibilité révèlent également qu’une source peu crédible n’est pas totalement dépourvue d’effet. Des mesures réalisées par Hovland et Weiss (1951) notamment 4 semaines après l’exposition initiale à des faux titres de journaux, révèlent ainsi un niveau comparable d’adhésion au message que celui-ci soit signé par une source hautement ou faiblement crédible. Si les individus exposés à une source hautement crédible voient leur niveau d’adhésion se stabiliser ou décroître avec le temps, ceux exposés à une source faiblement crédible l’augmenteraient. Cet effet dit « d’assoupissement » s’expliquerait selon les auteurs par l’oubli de la source du message, au profit de son seul contenu.

Contre intuitif, cet effet serait surtout observé dans le cas où la source (ici faiblement crédible) est présentée après lecture du message, que les arguments contenus dans le message sont perçus comme pertinents (Kumbale et Albarracin, 2004). Une présentation de la source avant exposition ou une mention d’avertissement (Pratkanis, Greenwald, Leippe, et Baumgardner 1988 ; Kumbale et Albarracin, 2004) tendrait à limiter voire à annuler cet effet. Également en lien avec le biais de confirmation présenté plus haut, cet effet tiendrait à la manière dont les informations sont stockées en mémoire. A l’inverse d’un système informatique qui remplacerait l’élément erroné par un nouveau, notre mémoire conserve l’information erronée en y associant simplement une mention d’erreur, dont la portée est manifestement limitée (Britt, 2019). Les recherches sur la correction a posteriori des fausses informations ne révèlent que peu voire aucun effet (Lewandowski, Ecker, et Cook, 2017). La présentation d’une mention et/ou d’un avertissement en amont de l’exposition, et permettant un encodage préalable en mémoire constituerait alors une voie prometteuse. L’expérimentation de Van der Linden et al. (2017) sur le réchauffement climatique présentée plus haut comptait en outre deux conditions complémentaires, dites d’inoculation (Mc Guire, 1964 ; Knowles et Linn, 2013). De la même façon qu’un vaccin prépare le système immunitaire à se défendre contre un virus, l’inoculation préparerait les individus à résister à une attaque persuasive. Dans ces conditions complémentaires, les participants étaient exposés à deux types d’inoculations, préalablement à l’exposition à la fausse information : l’une dite générale indiquant : « Certains groupes dont la motivation est politique utilisent des tactiques trompeuses pour essayer de convaincre le public qu'il existe de nombreux désaccords entre scientifiques » ; l’autre, dite plus spécifique, indiquant en outre que certains des signataires de la pétition « Oregon Global Warning Projet » étaient frauduleux, tel que Charles Darwin et les Spice Girls, ou encore que moins de 1 % des signataires avaient une formation en sciences atmosphériques / climatiques. Les résultats révèlent alors que la perception du consensus scientifique en faveur du réchauffement climatique d’origine anthropique augmente, de manière d’autant plus prononcée que l’inoculation utilisée est spécifique, néanmoins sans atteindre le niveau observé lors de l’exposition à l’information véridique seule.

            En complément de la source, la crédibilité d’un message peut également être évaluée à partir de son contenu (la pertinence des arguments) ou encore du média qui l’édite (Metzger et al., 2003). Si les informations collectées sur Internet de manière générale sont considérées comme tout aussi crédibles, voire davantage que celles issues de la radio ou encore de la télévision (Kim et Johnson, 2009), l’apparence du site web présentant l’information semble jouer. La présence de bannières publicitaires peu réputées, la complexité de l’arrière-plan, une faible attractivité et un faible dynamisme du site (couleur, graphique, typographie, structure des pages) laissant penser à de l’amateurisme, réduiraient la crédibilité perçue du contenu d'une page Internet, tandis que la présence d’éléments relatifs à la vie réelle, telle qu’une photographie de l'auteur, une adresse postale de l’institution éditrice ou encore les signes d’une approbation par des tiers conduit à juger le site et son contenu, digne de confiance et la source de l’information plus compétente (Fogg et al.,2001). Les études menées sur la vérification de la crédibilité des informations collectées sur Internet révèlent cependant qu’elle est peu répandue, et que les stratégies de contrôle déployées par les individus sont celles qui nécessitent le moins de temps et d'effort (Metzger et al., 2003)

Le fond et la forme du message

La pertinence des arguments déployés dans un message persuasif, qui intuitivement devrait constituer le facteur déterminant de l’effet d’une communication, ne s’observe in fine que chez les individus les plus impliqués, disposant de temps, de bonnes ressources cognitives et d’un niveau de motivation élevé à traiter le message (Brinol et Petty, 2007). D’autres éléments sont considérés, dont l’effet sur l’attitude des individus se révèle globalement plus marqué tels que : la présence de photographies, de témoignages, ou encore de données statistiques (Reynolds & Reynolds, 2002). Ces éléments périphériques au message, en omettant le fait qu’ils puissent être purement fabriqués, seraient considérés comme des preuves, créant un effet d’illusion de vérité. Leur influence se retrouvent ainsi dans l’évaluation de la véracité de fausses informations. Smelter et Calvillo (2020) exposaient leurs participants à des titres d’articles de presse parmi lesquels, certains étaient véridiques tandis que d’autres étaient faux. Ceux-ci étaient selon la condition accompagnés ou non d’une photographie. A titre d’exemple, l’un des articles titrait : « La NASA a photographié un iceberg rectangulaire » ; un autre : Monster Energy vend du jambon caféïné ». Les résultats indiquent que les participants perçoivent l’information comme d’autant plus véridique qu’elle est accompagnée d’une photographie, et ce quel que soit sa véracité objective. La présence d’images faciliterait la mémorisation de l’information, celle-ci serait alors plus accessible.

L’utilisation d’images truquées, quasi-systématique dans la diffusion de fausses informations est d’autant plus dommageable que celles-ci génèrent de faux souvenirs chez les personnes y étant exposées. Murphy et ses collaborateurs (2019) ont profité du référendum sur l’avortement se tenant en Irlande en 2018 pour mener leur étude. Les participants, recrutés sur les réseaux sociaux dans le cadre d’une enquête se voyaient présenter 6 récits journalistiques, chacun accompagné d’une image, sur des événements s’étant produits dans les jours précédents le référendum. Si quatre des récits relataient des événements réels, les deux autres étaient purement fictifs. Les participants devaient indiquer s’ils croyaient que l’évènement s’était produit et s’ils s’en souvenaient. Les auteurs observent que la moitié des individus se souviennent d’au moins un des deux événements fictifs présentés, et plus d’un tiers d’entre eux est en mesure de rapporter un détail spécifique, prétendument vu ou entendu dans les médias. A la fin de l’expérimentation, les participants étaient alertés sur la présence d’événements fictifs parmi ceux présentés, et devaient tenter de les retrouver. Les événements fictifs ont alors été deux fois plus cités que les évènements réels. Toutefois, 15% des participants se trouvaient incapables de sélectionner un événement, et environ autant ont jugé fictifs des événements pourtant réels. Enfin, un tiers seulement des participants disant se souvenir de l’un des événements fictifs lors des premières mesures, est parvenu à le retrouver.

L’effet d’une exposition répétée

Une particularité des fausses informations est qu’elles sont davantage répétées que les vraies. De fait, nous sommes susceptibles d’y être exposés à plusieurs reprises, notamment lorsque celles-ci deviennent virales (Effron et Raj, 2019). Vosoughi, Roy et Aral (2018) indiquaient qu’une fausse information avait 70% de chances de plus d’être retweetée qu’une information véridique. Aussi, si les cascades de diffusion des informations véridiques les plus relayées touchent autour de 1000 personnes, celles des fausses informations touchent entre 1000 et 100 000 personnes. Enfin, si les vraies informations connaissent généralement un seul pic de diffusion avant de décroitre, les fausses informations en présentent plusieurs, du fait qu’elles sont souvent remaniées et réintroduites à dessin, par des propagateurs (Shin, 2018). Les recherches sur la communication persuasive se sont intéressées très tôt à l’effet de l’exposition répétée. Zajonc (1969) et ses collaborateurs exposaient des individus à plusieurs reprises à différents stimuli, tels que des photographies inconnues, des suites de lettres sans signification ou encore des idéogrammes chinois, et mesurait l’évaluation positive ou négative qu’en faisaient les individus. L’effet, dit de simple exposition, révèle une relation positive entre l’évaluation favorable d’un stimuli, quel qu’il soit, et le nombre d’expositions à celui-ci. D’où la diffusion multiple de spots publicitaires dans les médias. Concernant les informations, leur exposition multiple conduirait à augmenter leur crédibilité perçue, et dans une forme de cercle vicieux, leur chance d’être rediffusées. Pennycook et al. (2018) présentaient à leurs participants des titres d’articles et leur demandaient d’en évaluer la véracité. Selon la condition, les informations étaient probables ou totalement improbables, connues (issues du réseau social Facebook et largement diffusées) ou nouvelles ; et enfin présentées à une ou à deux reprises. Les résultats révèlent que si la répétition n’augmente pas la véracité perçue des informations totalement improbables, elle agit sur les informations probables même lorsque celles-ci sont fausses, ou encore qu’une alerte indiquant leur caractère contesté, est ajouté. Ici encore, c’est l’effet d’« illusion de vérité » qui serait observé. La trace mnésique laissée par les expositions antérieures faciliterait le traitement de l’information lors de nouvelles expositions. Cette aisance cognitive serait interprétée par l’individu comme un signe de confiance.

De manière plus générale, l’exposition exclusive à de fausses informations augmenterait la véracité qu’on leur accorde, en comparaison à une exposition mixant des informations tant fausses que véridiques (Balmas, 2014).

Des êtres sociaux

Sur les réseaux sociaux, les informations nous parviennent généralement d’individus relativement proches ou en tous les cas, perçus comme relativement similaires (partageant à minima des idées), plus que d’institutions distantes et officielles. Par ailleurs, ils sont souvent accompagnés de commentaires. D’une part, recevoir de l’information d’une personne perçue comme proche ou similaire limiterait la perception d’une tentative de manipulation et la réactance (réaction de résistance) qui en résulterait (Brehm, 1966). D’autre part, le comportement d’autrui n’est pas sans effet sur nos façons de penser et/ou de nous comporter. Asch (1956) observait que des individus comparant des lignes de longueurs nettement distinctes à 1 mètre de distance, produisaient jusqu’à 30 % d’erreurs en présence de compères formulant avant eux des réponses erronées, et près de 0% en situation d’isolement. Colliander (2019), plus récemment exposaient ses participants à des captures d’écran du réseau social Facebook présentant un article relatif à une fausse information, accompagné d’une image illustrative et suivi d’un fil de quatre commentaires. Les commentaires variaient selon la condition. Dans la première condition, ils étaient favorables à l’article : « Je le savais ! », « C’est incroyable ! ». Dans la seconde condition, ils dénonçaient la fausse information : « Fausse histoire ! », « C’est une fausse information ! ». Enfin, dans la troisième condition, ils dénonçaient la fausse information en incriminant son auteur : « C'est irresponsable de ta part de répandre ces trucs faux ! » et « Honte à toi d'avoir répandu ce mensonge ! ». Les scores d’attitude à l’égard du message et l’intention de le rediffuser apparaissent comme conformes aux commentaires : significativement plus élevés dans le cas où ces derniers soutiennent le message. En outre, si les individus sont globalement plus nombreux à envisager de laisser un commentaire critique à la suite, ils le sont moins dans la condition où les commentaires d’autrui sont en faveur du message.

Afin de lutter contre la diffusion de fausses informations, les réseaux sociaux ajoutent des messages d’avertissement à l’attention des lecteurs. Dans une seconde étude, Colliander s’est également intéressé à leur efficacité. Quatre conditions étaient ici comparées, une condition exempte de commentaire et d’avertissement ; une condition présentant des commentaires favorables ; une condition présentant des commentaires critiques ; et enfin une condition présentant des commentaires favorables et un bandeau d’avertissement au bas de l’image accompagnant le titre de l’article, tel que : « contesté par Associated Press ». Les résultats obtenus confirment ceux de la première étude, et ne révèlent aucun effet de l’avertissement. Les individus présentent des scores d’attitude à l’égard du message et des scores d’intention de le rediffuser, comparables à ceux de la condition d’absence de commentaires et d’avertissement, ou encore à ceux de la condition de commentaires favorables.

Les recherches relatives au conformisme (Asch 1956) ou encore la norme descriptive (Cialdini, Reno et Kallgreen, 1990) révèlent que le comportement d’autrui nous sert souvent de référence, et induirait une réponse comportementale quasi-automatique. Effon et Raj (2019) observaient que les individus étaient plus susceptibles de rediffuser une information déjà rencontrée plutôt qu’une nouvelle, et également qu’une information répétée leur semblait moins non éthique à rediffuser, que ceux-ci y adhérent ou non.

« Fainéants » cognitifs

Les biais à l’œuvre dans les effets observés des facteurs caractérisant une communication, persuasive ou non sont directement liés à la façon dont nous encodons l’information en mémoire mais également dont nous la traitons. Dans le cadre des rumeurs, théories conspirationnistes et fausses informations, un déficit de pensée analytique est souvent mis en avant pour expliquer l’adhésion des individus (Pennycook et Rand, 2019). Plusieurs auteurs distinguent en effet deux types de pensée, et de fait deux types de traitement d’une information : Intuitive - Analytique (De neys, 2012) ; Périphérique - Centrale (Petty et Caccioppo 1986) ; Heuristique – Systématique (Chaiken, 1987) ; ou encore Système 1 – Système 2 (Kahneman, 2011). La première se caractérise par son automaticité, sa rapidité, sa faible consommation de ressources cognitives mais également par sa propension à fournir des réponses erronées, nous pourrions la résumer par l’intuition. La seconde est plus lente, délibérée et consommatrice de ressources cognitives, mais les réponses qu’elle fournit sont, pour leur part, plus justes, ou du moins plus fondées. Nous pourrions la résumer par la réflexion. Le Test de réflexion cognitive de Frederick (2005) permet d’évaluer la tendance des individus à utiliser l’un ou l’autre de ces systèmes de pensées, en proposant des énoncés de problèmes tel que celui-ci : une batte [de baseball] et une balle coûte ensemble 1,10$. La batte coûte 1$ de plus que la balle. Combien coûte la balle ? A la lecture de l’énoncé, notre système 1 s’active automatiquement, et nous propose une réponse à faible coût cognitif : 10 cents. Notre système 2 pour sa part, relit l‘énoncé et calcule, prend du temps et nécessite un effort de notre part pour maintenir son attention. La réponse qu’il produira sera cependant plus juste. Car si la balle coûtait 10 cents comme le propose le système 1, la balle et la batte coûteraient ensemble 1,20$, et non 1,10$. La balle coûte en effet 5 cents. Pennycook et Rand (2019) observent une corrélation entre le score au test de réflexion cognitive et la capacité à détecter de fausses informations. Aussi, les individus présentant un faible score au test (et donc une tendance à la pensée intuitive) ont tendance à juger profondes des formules sans signification telle que : « Nous sommes au milieu d'une floraison d'interconnexions à hautes fréquence qui nous ouvrira l’accès à la soupe quantique ». Malheureusement, nos ressources cognitives étant limitées et notre temps de plus en plus contraint, notre système de pensée intuitif se trouvent plus souvent à l’œuvre que notre système de pensée analytique. À ce propos, Gabielkov et ses collaborateurs (2016) observaient que 59 % des articles que les gens partagent sur Twitter n’étaient pas lus par ces derniers, leur partage étant seulement basé sur le titre accrocheur.

Comme on peut le voir, les mécanismes de traitement de l’information ne sont pas exempts d’erreurs, de biais et d’une faible mobilisation attentionnelle. Tous ces dysfonctionnements cognitifs se sont accentués avec l’arrivée d’Internet et des réseaux sociaux. Le volume d’informations à traiter et la vitesse à laquelle ces informations surviennent sont sans commune mesure avec ce que l’humain devait traiter autrefois. Certes, la machine cognitive humaine est élaborée et rapide, mais, de tels flux à traiter sans risques de dysfonctionnements sont peu probables aujourd’hui. A cela s’ajoutent des effets plus sociaux qui viennent contrôler ce traitement et ce que nous ferons ensuite de cette information, notamment dans sa diffusion. A côté de ces facteurs cognitifs et sociaux, la recherche en psychologie sociale a également identifié le poids des facteurs de personnalité qui différencient les individus en termes de visions qu’ils ont du monde et de ceux qui produisent et diffusent l’information.

Adhésion aux fausses informations et variables de personnalité

De nombreuses recherches ont montré que les facteurs de personnalité d’un individu affectent la façon dont il traite l’information, la retient en mémoire et la restitue aux autres. Que l’information soit vraie ou fausse ne change rien à ces mécanismes d’analyse : dans les deux cas, la variable de personnalité (l’individu est extroverti/ ou introverti, il/elle à un besoin de contrôle élevé, il/elle à une personnalité autoritaire ou d’allégeance…) vient influencer sur ce traitement. La personnalité, en psychologie, n’est pas seulement le résultat de différences de traits de personnalité qui nous caractérisent mais provient aussi de variables physiques ou naturelles qui différencient les individue comme l’âge ou le genre. L’ensemble de ces facteurs ont été étudiés par la psychologie sociale et montrent que, selon ces caractéristiques, l’adhésion à ce qui est faux variera. Aussi, pour les propagandistes, identifier ces caractéristiques pourra servir à cibler des groupes aux caractéristiques sensiblement identiques ou à repérer des individus dont on sait qu’ils seront partiellement perméables à la fausse information et à sa propagation.

Conservatisme et autoritarisme

On sait que des schémas de pensée plus conservateurs, traditionnalistes et plus attachés aux structures sociales hiérarchisés favorisent l’adhésion aux fausses informations. Linda M. Yelland et William F. Stone (1996) ont étudié le poids des convictions envers des schémas d’autorité sur le jugement d’informations historiques vraies ou volontairement faussées. Des étudiants devaient remplir, dans un premier temps, ce que l’on appelle une échelle dite d’autoritarisme mesurant à quel point ils adhéraient à des schémas de contrôle des individus composant une société. Par exemple, ils estimaient à quel niveau ils se plaçaient lorsqu’on leur disait « Ce pays devrait certainement mieux fonctionner si certains groupes de fauteurs de troubles voulaient la fermer et accepter la place naturelle de leur groupe dans la société » ou encore « Les femmes devraient promettre d’obéir à leur époux lorsqu’elles se marient » Chaque répondant se positionnait, pour chaque item, à l’aide d’une échelle graduée caractérisant son niveau d’adhésion au propos qui était écrit. Cela permettait d’aboutir à un score global dit d’autoritarisme qualifiant ceux favorables aux modèles traditionnalistes, conservateurs, avec un fort contrôle de l’Etat sur la vie des individus (fort autoritarisme) à ceux plus favorables aux modèles progressistes et réformateurs laissant plus de liberté individuelle (faible autoritarisme). Puis, ces individus devaient prendre connaissance d’un texte portant sur l’holocauste juif perpétré par les nazis durant la seconde guerre mondiale. Selon le cas, ce texte présentait des informations factuelles, vraies, incontestables sur le plan historique, ou des informations négationnistes contestant l’existence de cet holocauste. Enfin, un troisième groupe de lecteurs, qui servait de groupe contrôle, lisait un document portant sur un thème n’ayant rien à voir avec l’holocauste. Puis, après la lecture du document, tous les individus devaient répondre à un questionnaire destiné à mesurer leur niveau de certitude personnelle à l’égard de l’holocauste. Les résultats montreront que les individus initialement considérés comme ayant un faible niveau d’autoritarisme ont largement adhéré au fait que l’holocauste avait bien eu lieu et ce quel que soit le document qu’ils avaient pu lire avant de répondre, y compris ceux qui avaient eu un document contestant l’existence de l’holocauste. Ainsi, de manière générale, auprès de ces personnes à faible niveau d’autoritarisme, ce qu’elles ont lu n’a eu aucun effet sur leurs convictions concernant la réalité de l’holocauste. Leurs opinions étaient établies et même un texte les contestant n’a pas fait varier celles-ci. Cependant, auprès des personnes considérées comme à haut niveau d’autoritarisme, il n’en a pas été de même. La lecture du texte contestant la réalité de l’holocauste, les a conduits à estimer que la réalité de celui-ci était plus contestable alors que le fait d’avoir été exposé à un texte neutre ou à des informations objectives sur la réalité de l’holocauste n’a pas fait varier leur opinion. En d’autres mots, seule la fausse information a eu un impact négatif sur les personnes à fort autoritarisme. Pour une personne à fort besoin d’autoritarisme, si on conteste l’holocauste, c’est qu’il y a une part de vrai car cette personne a une personnalité qui l’a conduit à penser que ce qui est dit est vrai et qu’elle ne doit pas le contester. Il est donc clair qu’auprès d’individus ayant des pensées traditionnalistes et plus conservatrices et moins favorables à l’individualisme, le poids de fausses informations même historiquement contredites, aurait plus de probabilités d’exercer un effet et de s’implanter. Une seconde étude de ces auteurs confirmera ces résultats. Cependant, ces derniers montreront également l’effet d’une autre variable de personnalité qui, en apparence peut paraître contre-intuitive à propos de ce que l’on peut penser des individus exprimant des hauts niveaux de méfiance vis-à-vis de nos structures et de nos institutions. Ce facteur de personnalité, appelé le score de confiance envers l’intégrité des structures sociales et des personnes, utilisait différents items destinés à mesurer de lien de confiance à l’égard des opinions suivantes : « la plupart des personnes élues tiennent leurs promesses », « le système judiciaire est égalitaire », « l’hypocrise s’accroit dans nos sociétés ». On observera que ceux qui avaient un niveau de confiance élevés envers les institutions et les individus changeaient d’opinion vis-à-vis de l’holocauste selon le texte lu. Si le texte contestait l’holocauste, ils jugeaient, par la suite, sa réalité historique plus contestable tandis que, si le texte était objectif, cela augmentait leur niveau d’adhésion à la réalité historique de l’holocauste. Par contre, auprès de ceux qui avaient un faible niveau de confiance envers les institutions et les individus, cela n’a pas affecté leur jugement. Comme il ne font pas confiance à tout ce qui est extérieur à eux (et un argument provenant d’un texte d’autrui leur est extérieur) cela n’affecte pas leurs opinions. Ces personnes conservent des opinion intangibles puisqu’aucune confiance n’est accordée à l’information extérieure. Paradoxalement, ce type d’individus semble moins aisé à influencer avec de la fausse information. Cela contredit l’idée qu’une personne suspicieuse serait sensible à de la fausse information : vraisemblablement cette suspicion catégorique les rend imperméables à tout type de message. Hélas, ces mêmes individus ne changent pas non plus d’opinions personnelles lorsque, pourtant, ils sont exposés à des informations fiables, factuelles et objectives.

Le besoin de structure

Un autre facteur de personnalité identifié par la recherche pour son lien avec le traitement d’informations erronées et/ou volontairement fausses est le besoin de structure. Une personne avec un haut besoin de structure se caractérise par la recherche d’explications simples destinées à éviter l’angoisse que peut générer l’analyse d’informations complexes ou l’adoption de stratégies de résolution de problèmes complexes. Ces individus veulent pouvoir aboutir à une décision ou se faire une opinion rapidement en évitant l’analyse longue et la prise en compte d’informations en trop grand nombre. Jordan R. Axt et ses collègues (2020) ont soumis l’échelle de besoin de structure de Thompson et al. (2001) afin d’identifier le niveau de besoin de structure des individus de leur étude (exemple d’item pour la mesure du besoin de structure : « Je prends plaisir à avoir un mode de vie clair et structuré »). Ces personnes devaient ensuite prendre connaissance de portraits d’hommes politiques fait par des journalistes comportant des informations manifestement fausses. Puis, elles devaient estimer à quel point cela était imputable à une erreur commise par le rédacteur de l’article ou à une volonté intentionnelle de donner une fausse information. À la fin les personnes complétaient un questionnaire destiné à mesurer des variables démographiques. Les résultats montreront une corrélation positive entre le niveau de besoin de structure des individus et l’intention délibérée de fournir des fausses informations par le journaliste : ceux qui avaient un besoin de structure élevé attribuaient plus de responsabilités personnelles au journaliste, tandis que ceux ayant un besoin de structure moins élevé, attribuaient plus la fausse information à une erreur commise (exemple un défaut de vérification d’une source). Cette première recherche sera répliquée plusieurs fois avec plus de 2800 personnes interrogées et montrera, de manière consistante, qu’un haut besoin de structure conduit à estimer qu’une information fausse provient d’une volonté délibérée de mentir. Ces résultats posent le problème de la façon dont les individus traitent l’information mais surtout comment on a fait en sorte que les individus apprennent à les traiter. En effet, en formant dès le plus jeune âge, à l’école, l’enfant à analyser les informations complexes, à relativiser ses certitudes, à argumenter et contre-argumenter, à avoir une approche contradictoire de ce qui est dit, les personnes auraient moins tendance à fuir la complexité informationnelle et à plus rechercher la confirmation ou l’infirmation de l’information, émanant d’autrui, qu’ils reçoivent. En fonctionnant ainsi, ils seraient plus susceptibles de repérer ce qui est faux et surtout à moins admettre qu’il y a une volonté délibérée de transmettre de la fausse information ce qui a pour conséquence, ensuite, de les conduire à adopter des convictions complotistes et à douter de l’ensemble du système de diffusion des informations et de la véracité de ce qui est dit. Or, analyser la complexité, débattre, contredire, argumenter… cela s’apprend, dans le cadre familial, mais également éducatif. L’école, en adoptant ces pratiques vis-à-vis de l’information transmise aux jeunes, pourrait ensuite les rendre moins suspicieux vis-à-vis de l’information transmise par les médias et cela pourrait permettre, résolument, de réduire les opinions de type complotistes dont on sait qu’elles sont très présentes chez les adolescents.

Conspirationnisme et fake-news

Le conspirationnisme, encore appelé théorie du complot, se réfère à la position de certains individus qui pensent que ce qui survient dans la vie sociale est provoqué non pas par le jeu naturel des régulations politiques et sociales, mais par un groupe très restreint d’individus, notamment au sommet des structures de pouvoir, et qui tentent d’imposer leur vision de la société et le contrôle social à leur avantage ou pour une conformation à leurs idéologies. Cette théorie du complot n’est pas nouvelle dans l’histoire humaine mais l’arrivée d’internet a clairement accentué l’émergence d’individus adoptant cette vision conspirationniste du monde social (Goertzel, 1994). Or, on sait également que cette vision peut être associée à certains traits de personnalité notamment une perception d’un monde hostile et à ce que l’on appelle le trait schizotypique qui caractérise l’inconfort à l’égard des relations interpersonnelles. On pense donc que selon certains traits et selon certaines idéologies, des individus adhéraient à la théorie du complot et que cela devrait tout naturellement les conduire à accorder plus de véracité aux fake-news. Afin d’étudier ce lien, Angela Anthony et Richard Moulding (2019) ont sollicité des hommes et des femmes identifiés comme ayant voté pour Trump ou Clinton lors de l’élection présidentielle américaine de 2016. Ces personnes ont complété un ensemble d’échelles destinées à mesurer leur vision du monde (« En général, la vie n’est qu’une loterie », « Généralement les gens sont gentils et altruistes »), la dangerosité du monde en général (« À tout moment le chaos et l’anarchie pourrait surgir autour de nous. Tous les indicateurs le montrent »), leur niveau d’adhésion aux théories conspirationnistes (« Certaines technologies sont issues de l’emprunt de technologies extraterrestres que l’on nous cache », « Le gouvernement emploient des personnes chargées d’en éliminer d’autres »). On leur soumettait ensuite un certain nombre de fake-news ou d’informations vraies soit existantes soit inventées pour la circonstance à propos de Donald Trump ou Hilary Clinton et les personnes devaient estimer à quel point chaque proposition était vraie ou fausse. Les mises en corrélation entre ce score d’adhésion à ces fausses informations et les mesures précédentes ont été effectuées. On observera un lien fort entre la perception de la dangerosité du monde et l’adhésion aux fake-news avec des niveaux de peur élevés associés à plus de certitudes sur la véracité de fausses informations. Le même lien sera observé entre l’adhésion à la théorie du complot et la croyance dans la véracité des fausses informations. Les personnes ayant une vision conspirationniste du monde sont plus enclines à estimer que des fausses informations sont vraies. Bien entendu, les résultats montreront que cette tendance s’accentuait lorsque la fausse information portait sur le candidat de l’élection qui n’était pas celui pour lequel la personne avait voté. Ainsi, un électeur de Clinton dira que toute fausse information à propos de Trump était vraie tandis qu’il repérera facilement la fausseté d’une information portant sur Clinton. L’effet inverse était obtenu auprès des personnes ayant voté pour Trump. Si le lien entre conspirationnisme et adhésion à des informations erronées apparait logique, cela ne suppose pas que rien ne peut être fait. En effet, comme le conspirationnisme est très lié à des traits de personnalité comme la perception de l’hostilité du monde et à une perception schizotypique de son environnement, on pourrait, en réduisant ce type de perception, réduire le niveau de conspirationnisme des personnes et donc l’adhésion aux fausses informations. En effet en favorisant, et cela dès le plus jeune âge, la coopération interindividuelle, le partage de tâches, l’entraide entre individus… cela réduirait cette vision d’un environnement hostile et de la tendance schizotypique qui, rappelons-le, caractérise l’inconfort d’un individu à l’égard des relations interpersonnelles. En gagnant du confort dans ces relations interpersonnelles par la familiarisation, la coopération, et l’entraide, on réduirait ce type de trait perceptif et par conséquent l’adhésion au conspirationnisme et aux fausses informations et à la recherche de celles-ci.

Sentiment de persécution et adhésion au faux

Une autre caractéristique de personnalité fortement liée avec l’acceptation de fausses-informations est ce que les anglo-saxons appellent la « delusionality » et que l’on pourrait traduire en français comme le délire de persécution. Elle caractérise les individus se sentant persécutés. Or, on sait que ces individus sont plus susceptibles d’accepter ce qui parait illusoire et faux et, lorsqu’ils sont exposés à de l’information émanant des médias conventionnels, ils chercheront moins à l’analyser et sont moins ouverts à la réflexion. Dans une recherche menée auprès de 900 personnes, Michael V. Bronstein et ses collègues (2018) ont soumis des titres d’articles qui étaient vrais ou totalement faux (Exemple de faux : Une photo du vice-président américain Mike Spence déclarant qu’une thérapie de conversion de l’homosexualité avait sauvé son mariage). Les personnes devaient dirent à quel point elles estimaient que l’information était fiable. Une mesure du niveau de perte d’illusion était également effectuée à la suite de cette première tâche de jugement des titres de presse à l’aide du Delusion Inventory de Peters et al. (2004) (exemple d’Item « Avez-vous déjà éprouvé le sentiment qu’il y avait une conspiration contre vous »). L’étude du lien entre la croyance dans le faux et le score de persécution montrera un lien positif élevé : ceux qui avaient un sentiment de persécution élevé étaient également ceux qui attribuaient le plus de validité à des fausses informations tandis que ceux qui avaient un faible niveau de persécution ressenti étaient nettement plus circonspects à l’égard de la validité des fake-news. Dans les études de ces auteurs, le fondamentalisme religieux des individus était également mesuré et on observera que ce dernier était positivement relié avec le score de persécution et la croyance en la véracité des fake-news. Le schéma de pensée des personnes ayant des sentiments de persécutions et des dogmatiques religieux ne conduirait pas à une analyse poussée de l’information et de ce qui se dit dans un propos et, ces individus ne seraient pas ouverts à l’analyse contradictoire et au débat argumentaire et donc remettraient difficilement en question des fausses informations alors que d’autres individus, n’ayant pas ces schémas de structure et ce fondamentalisme, sont clairement en situation de percevoir ce qui est faux de ce qui est vrai. De fait, dans des groupes communautaires ayant des sentiments de persécutions ou de contrôle, ces informations fausses trouveraient un relais pour la diffusion. Pour les manipulateurs de l’information, le repérage de ces groupes fortement communautaires, et on sait que les communautés fortes ont toujours le sentiment accru que ceux qui sont extérieurs au groupe tentent de les manipuler, permettrait très largement l’adhésion et la diffusion d’informations falsifiées.

Personnalité et acuité à détecter les fausses informations

Si, comme nous venons de le voir, certains traits de personnalité sont associés à l’adhésion à de fausses informations, certaines recherches ont également montré que l’aptitude à diagnostiquer des fausses informations est aussi dépendante des facteurs de personnalité des individus. Colleen Wolverton et David Stevens (2019) ont effectué une étude auprès d’étudiants en information et communication, pourtant sensibilisés à l’objectivité informationnelle et à la vérification des sources d’information. Dans un premier temps, ces personnes devaient compléter un test de personnalité du big-five, très utilisé en psychologie, et modélisant la personnalité autour de 5 composantes centrales : l’ouverture à l’expérience ( curiosité, créativité, analyse), le caractère consciencieux (organisation, discipline, travail), l’extraversion (socialité, assurance, positivité), le caractère agréable (tolérance, douceur, indulgence, altruisme, empathie) et enfin le caractère névrotique (anxiété, sentiment de vulnérabilité, orientation dépressive). On sait que ces 5 dimensions sont prédictives d’un certain nombre de comportements comme le mode de vie des individus (Paunonen, 2003), la consommation télévisuelle (Perse, 1992) ou l’usage d’internet (Tuten. & Bosnjak, 2001). Dans la recherche de Wolverton et Stevens (2019), les personnes insérées dans leur étude complétaient, dans un premier temps, ce test du big-five afin de déterminer les traits dominants de ces personnes. Puis, ces mêmes individus devaient ensuite prendre connaissance de différents énoncés, qui, selon le cas, étaient vrais ou faux, et ils devaient essayer d’estimer à quel point ils adhéraient à ce qui était dit. Pourtant ces énoncés étaient courts et très factuels : « La CIA admet qu’elle est derrière certaines fake news (Vrai)», « Le virus du HIV a été détecté dans des bananes vendues par Walmart après qu’un garçon de 10 ait contracté le virus (Faux)». Les résultats montreront que l’aptitude à détecter les fausses informations variaient selon les traits de personnalité. Ainsi, une tendance à l’extraversion conduit à obtenir 88% de diagnostics corrects des fausses informations contre 65% pour les introvertis. Ces derniers, au contraire des extravertis, sont, on le sait, moins ouverts au contexte social et plus indépendant de leur environnement quotidien ce qui ne favoriserait pas la multiplication des canaux d’information et le débat contradictoire. Les personnes démontrant un esprit critique et analytique s’avèrent plus performantes à diagnostiquer ces fausses informations (77%) que celles plus rigoristes (63%). Ces dernières, plus centrées sur leurs certitudes personnelles, seraient moins susceptibles de chercher à contredire une information ou à en vérifier la pertinence ce qui aurait pour conséquence d’affecter leur esprit d’analyse de l’information notamment lorsque ce qui est énoncé est pourtant d’une absurdité manifeste. Les personnes manifestant une ouverture d’esprit détectent les fausses informations dans 90% des cas contre 66% chez les personnes plus traditionnelles. Or, les personnes moins ouvertes à la nouveauté ont des centres d’intérêts plus restreints et préfèrent des choses très conventionnelles ce qui ne favorise pas la détection d’informations fausses notamment lorsque celles-ci sont nouvelles. Le caractère chaleureux et sympathique favorise également une bonne détection du faux (86%) qu’un caractère centré sur soi (70%). Les personnes centrées sur elles-mêmes auraient un plus haut niveau de scepticisme à l’égard d’autrui : scepticisme affectant la capacité à repérer ce qui est manifestement faux ou exagéré dans une information. Enfin, on observera qu’une tendance à la désorganisation et à la prudence est associée à de moins bonnes performances à la détection du faux (67%) que des caractéristiques de personnalité opposées (88%). Manquer de rigueur et s’avérer trop prudent ne conduirait pas à pouvoir et vouloir de la contradiction et de d’analyse d’où de moins bonnes performances.

On voit donc que selon certaines caractéristiques de personnalité, l’aptitude à discerner le vrai du faux pour des informations basiques et factuelles est grandement affectée. On comprend aussi pourquoi les enseignants peuvent avoir des difficultés à amorcer le débat contradictoire et pourvoir contester des fausses informations avérées auprès de certains élèves. Il y a certes des positions idéologiques pour certaines informations qui conduisent les individus à contester l’argument contradictoire mais, pour des informations très factuelles, on voit que certaines caractéristiques de personnalité peuvent affecter le discernement de ce qui est vrai ou faux. Par conséquent, pour les psychologues, travailler précocement auprès des enfants sur des problématiques de confiance en soi, d’ouverture d’esprit, adopter une culture de l’analyse et du contradictoire, favoriser le travail en groupe pourrait constituer des formes d’approches de la relation entre l’individu et l’information ce qui aurait pour conséquence, par la suite, à accroitre les aptitudes à discerner le vrai du faux dans l’information.

Personnalité et diffusion de fausses informations

Outre l’adhésion et la capacité à détecter le vrai du faux, la recherche en psychologie a également montré que les facteurs de personnalité influencent la propension d’un individu à disséminer ces fausses informations dans les médias sociaux. Tom Buchanan a réalisé une série de recherches impliquant plus de 2600 répondants. Ces personnes devaient, dans un premier temps, compléter un questionnaire permettant de mesurer des données démographiques (âge, sexe, CSP). Puis le test de personnalité du Big-Five, dont nous avons parlé précédemment, était complété par ces personnes. Une mesure de leurs aptitudes digitales était également effectuée permettant d’évaluer leur aisance à utiliser les applications médias numériques et à évaluer et critiquer l’information issue de ces médias. Une mesure de leur niveau de conservatisme/progressisme en matière politique était également effectué. Enfin, des fausses informations médias étaient portées à leur connaissance et les personnes devaient estimer à quel point elles seraient susceptibles de les diffuser. Dans cette recherche, 4 études ont été réalisées où on mesurait sensiblement la même chose mais la plateforme de diffusion proposée variait. On évaluait en effet la diffusion d’information soit sous Facebook, ou sur les réseaux Twitter, ou Instagram. Les résultats montreront peu d’effet des variables de personnalité sauf l’extraversion pour une diffusion via Facebook certainement en raison du caractère plus relationnel de ce média (Ryan & Xenos, 2011). En revanche, les résultats montreront que des positions conservatrices étaient liées avec plus de probabilités de relayer de la fausse information sur différents supports de diffusion. Aucun effet de l’aisance digitale n’a été mis en évidence, pas plus que l’usage plus ou moins important du média social, ce qui semble montrer que l’utilisation et la maitrise technique de ces réseaux sociaux semble indépendante de la probabilité de diffuser du faux. Cependant, on observera une influence importante des variables démographiques comme l’influence du genre avec des hommes plus susceptibles de relayer du faux et cela sur de multiples réseaux sociaux. Le niveau d’éducation était également lié à cette dissémination du faux avec plus de probabilités pour les personnes de faible niveau éducatif. Enfin, plus on était âgé, et moins on avait de probabilités de diffuser du faux. Le portait type du diffuseur pouvant, au terme de ces différentes investigations, être défini comme un homme plutôt jeune, de faible niveau éducatif et plutôt conservateur. On peut penser que des dispositifs de prévention du repérage et de la diffusion de fausses informations pourrait, pour accroitre son efficacité, cibler plus ce type de personnes puisque ces dernières ont plus de probabilités d’être des acteurs de dissémination du faux sur les réseaux.

Conclusion : Du rôle de l’éducation dans le traitement plus objectif de l’information des réseaux

On a pu observer que la consommation d’informations erronées ou provenant de sites présentant ce type d’information, mais, également l’influence de ce type d’informations sur la perception et la capacité à repérer le faux du vrai, et, enfin, la probabilité de relayer ces fausses informations, dépend de facteurs à la fois cognitifs, liés à la façon dont on traite l’information et à certains biais de traitement de l’information mais, également, à certaines caractéristiques de personnalité des individus. On a également pu voir que certaines caractéristiques démographiques comme l’âge ou le niveau d’éducation avaient une influence sur ce traitement de l’information. Or, les biais cognitifs et les traits de personnalité ne sont pas des structures invariantes installées définitivement chez un individu. On sait que l’on peut apprendre à corriger les biais et à éviter certains écueils cognitifs dans le traitement de l’information. On sait également que les traits de personnalité ne sont pas immuables chez un individu puisqu’ils dépendent de nombreux facteurs comme l’apprentissage social, la vie en communauté, l’expérience relationnelle. Or, dans des dispositifs éducatifs adaptés, on peut clairement renforcer tel trait chez un individu notamment en favorisant la coopération sociale qui entraine la confrontation de points de vue différents et le jugement contradictoire. En formant les enfants, les adolescents et les jeunes lycéens ou étudiants à cette approche, il est vraisemblable qu’un individu devenu adulte et autonome aurait les mêmes mécanismes de recherche de la discussion, de la confrontation de points de vue et de la contradiction sur les réseaux sociaux ce qui aboutirait certainement à mieux diagnostiquer la fausse information et à éviter de la relayer. De la même manière, en étant sensibilisé par l’apprentissage à ces bais cognitifs du traitement de l’information et en étant formé par le système éducatif à reconnaitre ces biais et à les éviter et/ou réduire leur impact sur nos traitements et nos jugements, les individus seraient moins sensibles à leur impact lors de la réception de cette information. Enfin, en identifiant les facteurs démographiques dont on sait qu’ils peuvent influencer notre aptitude à repérer ce qui est faux et à le relayer, on pourrait cibler davantage les individus qu’il conviendrait de sensibiliser à ces risques d’erreurs. Ne pas savoir distinguer ce qui est faux sur le Web n’est pas une fatalité et en sensibilisant dans le système éducatif, très précocement et de manière durable, les jeunes à mieux traiter l’information et à l’analyser, il est vraisemblable que l’on parviendrait à diminuer la survenue de ces fausses informations et les risques de rumeurs et de perceptions de complots qui peuvent être activés par ces dernières.

 

 

 

Bibliographie

Allport, G. W. ; Postman. L. (1947). The Psychology of Rumor, New York, Henry Holt,

Anthony A, Moulding R. (2019). Breaking the news : Belief in fake news and conspiracist beliefs. Australian Journal of Psychology. 71, 154–162. doi: 10.1111/ajpy.12233

Asch, S.E.(1956). Studies on independance and conformity : Aminority of one against an unaminous majority, Psychological monographs, 70, 1956, p. 416.

Axt, J. R., Landau, M. J., & Kay, A. C. (2020). The psychological appeal of fake-news attributions. Psychological Science, 31(7), 848–857. doi : 10.1177/0956797620922785

Balmas, M. (2014). When Fake News Becomes Real. Communication Research, 41(3), 430–454. doi:10.1177/0093650212453600 

Bochner, S., & Insko, C. A. (1966). Communicator discrepancy, source credibility, and opinion change. Journal of Personality and Social Psychology, 4(6), 614–621. doi: 10.1037/h0021192

Brehm, J. W. (1966). A theory of psychological reactance. Oxford, England, Academic Press.

Britt, M. A., Rouet, J.-F., Blaum, D., & Millis, K. (2019). A Reasoned Approach to Dealing With Fake News. Policy Insights from the Behavioral and Brain Sciences, 6(1), 94–101. doi:10.1177/2372732218814855 

Bronner, G. (2019). 4. Internet peut favoriser la crédulité. Dans : Nicolas Gauvrit éd., Des têtes bien faites: Défense de l'esprit critique (pp. 63-76). Paris cedex 14, France: Presses Universitaires de France. doi :10.3917/puf.gauvr.2019.01.0063

Bronstein, M. V., Pennycook, G., Bear, A., Rand, D. G., & Cannon, T. D. (2019). Belief in fake news is associated with delusionality, dogmatism, religious fundamentalism, and reduced analytic thinking. Journal of Applied Research in Memory and Cognition, 8(1), 108–117. doi : 10.1016/j.jarmac.2018.09.005

Buchanan T (2020) Why do people spread false information online? The effects of message and viewer characteristics on selfreported likelihood of sharing social media disinformation. PLoS ONE 15(10): e0239666. doi: 10.1371/journal.pone.0239666.

Chaiken S., « The Heuristic Model of Persuasion », dans M. P. Zanna, J. Olson et C. P. Herman (éds), Social Influence: The Ontario Symposium, Hillsdale, Erlbaum 1987, t. 5, pp. 3-39.

Cialdini, R. B., Reno, R. R., & Kallgren, C. A. (1990). A focus theory of normative conduct: Recycling the concept of norms to reduce littering in public places. Journal of Personality and Social Psychology, 58(6), 1015–1026. doi: 10.1037/0022-3514.58.6.1015

 

Colliander, J. (2019). “This is fake news”: Investigating the role of conformity to other users’ views when commenting on and spreading disinformation in social media. Computers in Human Behavior. doi: 10.1016/j.chb.2019.03.032 

De Neys, W. (2012). Bias and conflict: A case for logical intuitions. Perspectives on Psychological Science, 7, 28–38. doi :10.1177/1745691611429354

DeStefano, F., & Thompson, W. W. (2004). MMR vaccine and autism: An update of the scientific evidence. Expert Review of Vaccines, 3, 19–22. doi: 10.1586/14760584.3.1.19

Effron, D. A., & Raj, M. (2019). Misinformation and Morality: Encountering Fake-News Headlines Makes Them Seem Less Unethical to Publish and Share. Psychological Science, 095679761988789. doi:10.1177/0956797619887896 

Faragó, L., Kende, A., & Krekó, P. (2020). We only believe in news that we doctored ourselves: The connection between partisanship and political fake news. Social Psychology, 51(2), 77–90. doi :10.1027/1864-9335/a000391 (Supplemental)

Fogg, B. J., Marshall, J., Laraki, O., Osipovich, A., Varma, C., Fang, N., et al. (2001b). What makes Web sites credible? A report on a large quantitative study. CHI 2001, ACM Conference on Human Factors in Computing Systems, CHI Letters, 3(1), 61–68.

Frederick, S. (2005). Cognitive reflection and decision mak- ing. Journal of Economic Perspectives, 19, 25–42. doi : 10.1257/089533005775196732

Gabielkov, M., Ramachandran, A., Chaintreau, A., & Legout, A. (2016). Social clicks: What and who gets read on Twitter? ACM SIGMETRICS Performance Evaluation Review, 44, 179–192. doi: 10.1145/2896377.2901462

Girandola, F. (2003). Psychologie de la persuasion et de l’engagement. Presses Universitaires de Franche-Comté.

Goertzel, T. (1994). Belief in conspiracy theories. Political Psychology, 15(4), 731–742

Hovland, C and W Weiss (1951), "The Influence of Source Credibility on Communication Effectiveness," Public Opinion Quarterly, 15, 635-650

Kahneman, D., & Clarinard, R. (2012). Système 1 / Système 2 : Les deux vitesses de la pensée (Essais) (French Edition)(FLAMMARION éd.). FLAMMARION.

Kim, D., & Johnson, T. (2009).  A shift in media credibility: Comparing Internet and traditional news sources in South KoreaInternational Communication Gazette,  71283– 302.

Knowles, E.S. and Linn, J.A. (Eds.). 2013. Resistance and persuasion. New York: Routledge.

Kumkale, G. Tarcan; Albarracín, Dolores (2004). The Sleeper Effect in Persuasion: A Meta-Analytic Review.. Psychological Bulletin, 130(1), 143–172. doi:10.1037/0033-2909.130.1.143 

Larson, H. J., Cooper, L. Z., Eskola, J., Katz, S. L., & Ratzan, S. C. (2011). Addressing the vaccine confidence gap. The Lancet, 378, 526–535.

Lasswell, H. D. (1948). Power and Personality. New York, NY, USA: W. W. Norton & Company,

Lewandowsky, S., Ecker, U. K. H., & Cook, J. (2017). Beyond Misinformation: Understanding and Coping with the “Post-Truth” Era. Journal of Applied Research in Memory and Cognition, 6(4), 353–369. doi:10.1016/j.jarmac.2017.07.008 

McGuire, W. J. (1964). Inducing resistance to persuasion: Some contemporary approaches. In L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 1, pp. 191–229). New York: Academic Press.

Metzger, Miriam J.; Flanagin, Andrew J.; Eyal, Keren; Lemus, Daisy R.; Mccann, Robert M. (2003). Credibility for the 21st Century: Integrating Perspectives on Source, Message, and Media Credibility in the Contemporary Media Environment. Annals of the International Communication Association, 27(1), 293–335. doi:10.1080/23808985.2003.11679029 

Murphy, G., Loftus, E. F., Grady, R. H., Levine, L. J., & Greene, C. M. (2019). False Memories for Fake News During Ireland’s Abortion Referendum. Psychological Science, 095679761986488. doi: 10.1177/0956797619864887 

Nyilasy, G. (2019). Fake news: When the dark side of persuasion takes over. International Journal of Advertising, 38(2), 336–342. doi: 10.1080/02650487.2019.1586210 

Paunonen, S. V. (2003). Big Five factors of personality and replicated predictions of behavior. Journal of Personality and Social Psychology, 84(2): 411-424.

Pennycook, G., & Rand, D. G. (2019). Who falls for fake news? The roles of bullshit receptivity, overclaiming, familiarity, and analytic thinking. Journal of Personality. doi: 10.1111/jopy.12476 

Pennycook, G., Cannon, T. D., & Rand, D. G. (2018). Prior Exposure Increases Perceived Accuracy of Fake News. SSRN Electronic Journal . doi: 10.2139/ssrn.2958246 

Perse, E. M. (1992). Predicting attention to local television news: Need for cognition and motives for viewing. Communication Reports, 5(1): 40-49.

Peters, E., Joseph, S., Day, S., & Garety, P. (2004). Measuring delusional ideation: The 21-item Peters et al. Delusions Inventory (PDI).Schizophrenia Bulletin, 30(4), 1005.

Petty, Richard E. (1986). Advances in Experimental Social Psychology. Volume 1.  The Elaboration Likelihood Model of Persuasion. pp123–205. doi:10.1016/s0065-2601(08)60214-2 

Petty, Richard E.; Briñol, Pablo (2007). Mécanismes psychologiques de la persuasion. Diogène, 217(1), 58–. doi:10.3917/dio.217.0058 

Poland, G. A., & Spier, R. (2010). Fear, misinformation, and innu- merates: How the Wakefield paper, the press, and advocacy groups damaged the public health. Vaccine, 28, 2361–2362.

Pratkanis, Anthony R.; Greenwald, Anthony G.; Leippe, Michael R.; Baumgardner, Michael H. (1988). In search of reliable persuasion effects: III. The sleeper effect is dead: Long live the sleeper effect.. Journal of Personality and Social Psychology, 54(2), 203–218. doi:10.1037/0022-3514.54.2.203 

Reynolds, R. A., & Reynolds, J. L. (2002). Evidence. In J. E. Dillard & M. Pfau (Eds.), The persuasion handbook: Developments in theory and practice (pp. 513–542). Thousand Oaks, CA: Sage.

Ryan, T., & Xenos, S. (2011). Who uses Facebook? An investigation into the relationship between the Big Five, shyness, narcissism, loneliness, and Facebook usage. Computers in Human Behavior, 27, 1658-1664. doi: 10.1016/j.chb.2011.02.004

Shin, J., Jian, L., Driscoll, K., & Bar, F. (2018). The diffusion of misinformation on social media: Temporal pattern, message, and source. Computers in Human Behavior, 83, 278–287. doi:10.1016/j.chb.2018.02.008 

Smelter, T. J., & Calvillo, D. P. (2020). Pictures and repeated exposure increase perceived accuracy of news headlines. Applied Cognitive Psychology. doi: 10.1002/acp.3684

Stern, W. 1902. Zur psychologie der aussage. Berlin, Germany: J. Guttentag.

Thompson, M. M., Naccarato, M. E., Parker, K. C. H., & Moskowitz, G. (2001). The Personal Need for Structure (PNS) and Personal Fear of Invalidity (PFI) scales: Historical perspectives, present applications and future directions. In G. Moskowitz (Ed.), Cognitive social psychology: The Princeton symposium on the legacy and future of social cognition (pp. 19-39). Mahwah, NJ: Erlbaum.

Tuten, T. L. & Bosnjak, M. (2001). Understanding differences in web usage: The role of need for cognition and the five factor model of personality. Social Behavior and Personality, 29(4): 391-398.

Van der Linden, Sander; Leiserowitz, Anthony; Rosenthal, Seth; Maibach, Edward (2017). Inoculating the Public against Misinformation about Climate Change. Global Challenges, 1(2), 1600008–. doi:10.1002/gch2.201600008 

Varol, O., Ferrara, E., Davis, C.A., Menczer, F. and Flammini, A. (2017). Online human-bot interactions: Detection, estimation, and characterization. https://arxiv.org/pdf/1703.03107.pdf.

Vosoughi, Soroush; Roy, Deb; Aral, Sinan (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. doi:10.1126/science.aap9559 

Wolverton C. & Stevens D. (2019). The impact of personality in recognizing disinformation. Online Information Review, 44(1), 181-191. doi : 1 0.1108/OIR-04-2019-0115.

Yelland, L. M., & Stone, W. F. (1996). Belief in the Holocaust: Effects of personality and propaganda. Political Psychology, 17(3), 551–562. doi : 10.2307/3791968

Zajonc, Robert B.; Heingartner, Alexander; Herman, Edward M. (1969). Social enhancement and impairment of performance in the cockroach. Journal of Personality and Social Psychology, 13(2), 83–92. doi:10.1037/h0028063 

Continuer la lecture avec l'article suivant du numéro

How to use the Reflexive Control Theory in order to Identify Online Propaganda in the context of Covid-19 Infodemic

Viorel Tutui

In this article I will begin by addressing the very difficult problem of defining and identifying propaganda in the new context of public communication dominated by the Social Media. This task is notoriously challenging because propaganda became a pejorative word which refers to an activity that remains at least partially concealed and hard to distinguish from other types of persuasive communication and became imbedded in the self-legitimating narratives that define the social identity of human communities. However, the development of...

Lire la suite

Du même auteur

Tous les articles
N°38 / 2021

Activer la peur peut-il nous rendre plus influençables et changer nos opinions et nos comportements ?

Lire la suite