Pas besoin de complot, mais plus certainement de moyens techniques pour enfermer un grand nombre de personnes dans la prison dorée de leurs désirs jamais assouvis. Un très intéressant article du Figaro (15 février 2021) prend l’exemple de la chaîne Youtube.
Les algorithmes de recommandations des géants du web se chargent avec brio de nous exposer à des contenus choisis pour que nous en consommions toujours plus : près des trois quarts des contenus visionnés sur YouTube sont des vidéos suggérées ! Parmi leurs outils, les « dark pattern », que l’on peut traduire par « chemins obscurs » (le plus littéralement) ou « interface truquée » (au Québec). Il s’agit d’armes machiavéliquement conçues pour exploiter les failles de notre cognition…
« Sur YouTube, le premier dark pattern utilisé, c’est le fil infini de vidéos, explique Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II. Il faut une action de l’utilisateur pour entraver le processus que met en place l’algorithme, sinon les vidéos défilent sans s’arrêter. » Absorbé par le flux d’images, l’utilisateur va être réticent à le stopper. D’autant que se met en place un phénomène nommé « escompte hyperbolique » : « Notre perception du temps et des récompenses futures est altérée et on est toujours à la recherche d’un contenu meilleur que le précédent. »
(…)
Et les vidéos les plus populaires sont rarement des analyses critiques et détaillées, mais plutôt des contenus très émotionnels, fourmillant d’affirmations peu étayées. « Progressivement, l’algorithme me faisait dériver dans une bulle de plus en plus radicale », raconte la chercheuse. « Ces vidéos nous mettent dans un état qu’on pourrait rapprocher de ce qu’on nomme en psychologie cognitive le “flow”, un état de conscience modifié et intense où toute notre attention et notre concentration sont en pilote automatique sur une tâche précise. On ressent un fort sentiment de contrôle, une absence de préoccupation du soi et de distraction, une altération de la perception du temps. C’est une expérience que l’on qualifie d’autotélique, c’est-à-dire quelle est très gratifiante. Cela explique assez bien notre impuissance face à ce tunnel attentionnel. »
Pour autant, « si l’algorithme a une part de responsabilité, l’agent au départ de la recherche n’est autre que nous-même. Et cela fait intervenir un biais cognitif bien connu : le biais de confirmation », qui nous fait préférer les informations correspondant à ce que l’on croit déjà. Or ce biais possède une composante éminemment sociale et interindividuelle. « Les hypothèses sur lesquelles on cherche des informations sont rarement des hypothèses auxquelles on adhère tout seul, explique Olivier Klein, professeur en psychologie sociale à l’université de Bruxelles. Il s’installe alors facilement un cercle vicieux où toute une série de personnes cherchent à confirmer la même hypothèse en cliquant sur les mêmes articles ou vidéos. In fine, ce sont ces derniers qui deviendront populaires et qui seront recommandés par les algorithmes. »
Or « plus on est exposé régulièrement à une information quelconque, plus on va avoir tendance à la considérer comme vraie et positive. C’est en partie sur ce biais que repose le modèle publicitaire », met en garde Séverine Erhel. Ajoutez-y l’illusion de contrôle : « L’humain déteste l’incertitude et tente toujours de la réduire. Face à la maladie par exemple, il va être très difficile de ne pas croire quelqu’un promettant qu’on peut tout gérer grâce à son mode de vie. L’illusion de contrôle est très puissante en cela qu’elle est gratifiante pour l’individu. Il se sent maître de son existence. »