Au quotidien n°149 : la prison dorée de nos désirs…

Publié le 15 Fév 2021
Au quotidien n°149 : la prison dorée de nos désirs… L'Homme Nouveau

Pas besoin de complot, mais plus certainement de moyens techniques pour enfermer un grand nombre de personnes dans la prison dorée de leurs désirs jamais assouvis. Un très intéressant article du Figaro (15 février 2021) prend l’exemple de la chaîne Youtube.

Les algorithmes de recommandations des géants du web se chargent avec brio de nous exposer à des contenus choisis pour que nous en consommions toujours plus : près des trois quarts des contenus visionnés sur YouTube sont des vidéos suggérées ! Parmi leurs outils, les « dark pattern », que l’on peut traduire par « chemins obscurs » (le plus littéralement) ou « interface truquée » (au Québec). Il s’agit d’armes machiavéliquement conçues pour exploiter les failles de notre cognition…

«  Sur YouTube, le premier dark pattern utilisé, c’est le fil infini de vidéos, explique Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II. Il faut une action de l’utilisateur pour entraver le processus que met en place l’algorithme, sinon les vidéos défilent sans s’arrêter. » Absorbé par le flux d’images, l’utilisateur va être réticent à le stopper. D’autant que se met en place un phénomène nommé « escompte hyperbolique »  : « Notre perception du temps et des récompenses futures est altérée et on est toujours à la recherche d’un contenu meilleur que le précédent. »

(…)

Et les vidéos les plus populaires sont rarement des analyses critiques et détaillées, mais plutôt des contenus très émotionnels, fourmillant d’affirmations peu étayées. « Progressivement, l’algorithme me faisait dériver dans une bulle de plus en plus radicale », raconte la chercheuse. « Ces vidéos nous mettent dans un état qu’on pourrait rapprocher de ce qu’on nomme en psychologie cognitive le “flow”, un état de conscience modifié et intense où toute notre attention et notre concentration sont en pilote automatique sur une tâche précise. On ressent un fort sentiment de contrôle, une absence de préoccupation du soi et de distraction, une altération de la perception du temps. C’est une expérience que l’on qualifie d’autotélique, c’est-à-dire quelle est très gratifiante. Cela explique assez bien notre impuissance face à ce tunnel attentionnel. »

Pour autant, « si l’algorithme a une part de responsabilité, l’agent au départ de la recherche n’est autre que nous-même. Et cela fait intervenir un biais cognitif bien connu : le biais de confirmation », qui nous fait préférer les informations correspondant à ce que l’on croit déjà. Or ce biais possède une composante éminemment sociale et interindividuelle. « Les hypothèses sur lesquelles on cherche des informations sont rarement des hypothèses auxquelles on adhère tout seul, explique Olivier Klein, professeur en psychologie sociale à l’université de Bruxelles. Il s’installe alors facilement un cercle vicieux où toute une série de personnes cherchent à confirmer la même hypothèse en cliquant sur les mêmes articles ou vidéos. In fine, ce sont ces derniers qui deviendront populaires et qui seront recommandés par les algorithmes. »

Or « plus on est exposé régulièrement à une information quelconque, plus on va avoir tendance à la considérer comme vraie et positive. C’est en partie sur ce biais que repose le modèle publicitaire », met en garde Séverine Erhel. Ajoutez-y l’illusion de contrôle : « L’humain déteste l’incertitude et tente toujours de la réduire. Face à la maladie par exemple, il va être très difficile de ne pas croire quelqu’un promettant qu’on peut tout gérer grâce à son mode de vie. L’illusion de contrôle est très puissante en cela qu’elle est gratifiante pour l’individu. Il se sent maître de son existence. »

Ce contenu pourrait vous intéresser

À la uneInternationalSociété

Intelligence artificielle (3/5) : Des enjeux géopolitiques et économiques de taille

DOSSIER « L’intelligence artificielle : entre innovation et responsabilité » | L'intelligence artificielle est devenue un enjeu majeur dans la compétition technologique mondiale, suscitant des investissements colossaux et des stratégies géopolitiques ambitieuses. Entre course à la puissance, dépendance aux capitaux privés et régulation incertaine, l'équilibre entre innovation et souveraineté reste à trouver.

+

Intelligence artificielle enjeux géopolitiques et économiques
À la uneÉgliseSociété

Le combat pour la vie sauvera l’humanité

Parole du Pape | S’adressant aux membres du mouvement pro-vie italien venus à Rome en pèlerinage le 8 mars dernier, le pape François a une fois encore insisté sur l’importance de la protection et de l’accueil de la vie, qui peut sembler à rebours de la société actuelle, plus portée sur la rentabilité.

+

pape François pro vie
À la uneSociétéDoctrine socialePhilosophie

Intelligence artificielle (1/5) : Antiqua et Nova, nouvelle technologie et vieille sagesse

DOSSIER « L’intelligence artificielle : entre innovation et responsabilité » | L’importance grandissante ces dernières années de l’intelligence artificielle a poussé le Dicastère pour la Doctrine de la Foi à se pencher sur le sujet et à publier en janvier dernier une note, conjointement avec le Dicastère pour la Culture et l’Éducation. Une mise au point bienvenue, des distinctions utiles, des rappels indispensables, et un critère ultime, le bien commun.

+

intelligence artificielle antique et nova
À la uneSociété

Premier forum VIVA ! : deux jours pour défendre la vie et la famille !

ENTRETIEN | Le premier Forum VIVA ! , organisé les 22 et 23 mars au parc de Vincennes à Paris, rassemble une cinquantaine d'associations engagées pour la famille et la vie – dont Mère de Miséricorde, la Fondation Jérôme Lejeune, la Marche pour la Vie, Alliance Vita et l’ECLJ. Florence Gros, présidente de l’Office chrétien des personnes handicapées (OCH), explique l’origine de cet événement inédit, sa mission et ses objectifs principaux.

+

forum VIVA !