Interview Sismique, La bataille des flux : comment l’information structure nos esprits, et nos sociétés ? Comprendre l’infrastructure invisible de nos démocraties. Algorithmes, flux d’information et transformation du débat public

Il y a quelque chose d'un peu vertigineux à réaliser que la question qui m'obsède depuis dix ans, « comment l'information circule, qui la contrôle, quelles conséquences a-t-elle sur nos démocraties », est enfin en train de devenir une préoccupation grand public. Pas parce que nous avons enfin compris que tout n'était qu'information et conditionnement mais parce qu'on commence à ressentir que quelque chose cloche, charnellement. C'est dans ce contexte que Julien, du podcast Sismique, m'a invité à dérouler le fil. Deux heures de conversation que vous pouvez écouter (lien externe) ou bien regarder au dessus. En voilà l'essentiel ci-dessous à l'écrit si vous préférez la lecture.

Comment j'en suis arrivé là : des télés connectées australiennes au système nerveux de la démocratie

Je suis ingénieur de formation. J'ai travaillé en Australie au début des années 2010, au moment où les télés se connectaient à Internet (oh magie et nostalgie). Des clients me demandaient si on pouvait faire, avec ces télés connectées, ce que les set-up box australiennes faisaient déjà : augmenter la fréquence des publicités à mesure qu'on approchait de la fin d'un film. L'idée, c'était de capter l'attention alors que nous étions vraiment captifs (quand tu as passé 1h20 à regarder un navet, c'est que tu veux vraiment savoir qui a tué José le poissonnier).

En 2012, j'ai décidé que ce n'était pas ça que je voulais faire de ma vie (#noShit). Le changement climatique venait d'entrer dans mon radar et je flirtais nettement avec le doomisme. Je suis rentré en France et j'ai cofondé une coopérative de conseil RSE. En essayant de sensibiliser aux questions climatiques et à la transition énergétique, je me suis frotté de près à la difficulté de sortir des chambres d'écho informationnelles. Depuis, j'essaie de comprendre, de raconter et de contrer ce que les algorithmes de recommandation font à nos sociétés.

Pourquoi ce sujet spécifiquement ? Parce que je suis de plus en plus convaincu que ces systèmes constituent le système nerveux informationnel de nos démocraties. Et que ce système nerveux est en train de convulser dangereusement.

De l'ORTF au flux individuel : la grande bascule

Pour comprendre ce qui se passe, regardons la trajectoire historique.

Il y a eu l'ORTF : une chaîne, un flux, tout le monde regardait la même chose. Puis les six chaînes, le câble aux États-Unis, la multiplication des offres. Des audiences de plus en plus segmentées et des "masses" de moins en moins grandes. Désormais, on a atteint le paroxysme : chaque personne a son propre flux, sa propre chaîne, sa propre vision du monde, quasi unique.

Ce n'est pas anodin. Concrètement, cela signifie que lorsque vous allez sur YouTube, TikTok, Instagram ou X, le flux auquel vous vous exposez est organisé par des intelligences artificielles de recommandation qui ont composé votre diète informationnelle. Ces systèmes se sont progressivement affranchis de ce que vous aviez décidé de suivre.

Parce que les plateformes ont découvert quelque chose de simple et brutal : moins elles écoutent nos choix réfléchis et plus elles devinent nos pulsions, plus nous passons du temps sur la plateforme.

Perso, je m'abonne à des chaînes de physique quantique et d'histoire médiévale et j'aimerai tellement regarder les grands classiques. Mais, ce qui me fait craquer à 23h, c'est des inconnus qui font de l'escalade sans cordes ou qui sautent dans le vide depuis le haut d'un gratte-ciel en skateboard. L'algorithme sait avant moi que ce contenu va m'être irrésistible et c'est cela qui confère aux plateformes un pouvoir stratosphérique.

Ce changement, incarné à merveille par le feed « for you » (instinctif, serait-on tenté d'ajouter) de Tiktok, est fondamental car il illustre à merveille les deux ruptures que ces systèmes de recommandation automatisés ont amené.

La première, c'est l'individualisation des flux. TF1 devait quand même créer une grille qui plaisait à (ou bien a minima « ne dégoûtait pas à jamais ») des millions de personnes simultanément. Ça imposait la construction et le maintien d'un socle informationnel commun à toute l'audience. L'ultra-individualisation des flux l'a fait volé en éclats.

La deuxième, c'est la capacité de ces systèmes à hacker nos barrières cognitives. Ils nous connaissent mieux que nous-mêmes. Pas dans le sens d'une connaissance profonde et bienveillante mais dans le sens où ils ont compris qu'il valait mieux s'adresser à la partie férue de cascade en skateboard plutôt qu'à celle qui désire profondément comprendre le rôle du sel au Moyen Âge.

Individuel vs collectif : le malentendu de fond

Quelque chose m'irrite dans beaucoup de discussions sur ce sujet : on finit toujours par en revenir à la responsabilité individuelle.

« Tu n'as qu'à faire attention à ce que tu regardes. Tu n'as qu'à activer ton esprit critique. Tu n'as qu'à passer moins de temps sur ton téléphone. »

Le problème, c'est que c'est à la fois vrai et totalement hors sujet.

Vrai, parce qu'individuellement, on peut effectivement faire des choix informationnels les plus éclairés possibles (et on y a diablement intérêt si on veut garder une once de sérénité). Faux, parce que penser que c'est là que se situe le levier principal pour améliorer la situation globale, c'est comme prétendre que la solution pérenne à des pollutions systémiques dans le réservoir d'eau alimentant une ville, ce serait que tous les habitants achètent des gourdes filtrantes.

La question sur laquelle on doit se pencher, c'est la question structurelle. Comment l'information circule-t-elle dans une société ? Qui contrôle cette circulation ? Quelles en sont les conséquences sur notre capacité collective à nous coordonner, à délibérer, à agir ensemble ? Parce que c'est ça, au fond, la fonction de l'information dans une démocratie. Il ne s'agit pas simplement d'informer des individus mais de créer les conditions d'une action collective cohérente.

Regardons d'où vient l'information qui remplit le réservoir informationnel dans lequel on s'abreuve depuis notre débarquement en ce monde.

Il y a notre entourage, qui depuis notre tendre enfance a sélectionné un bout de l'univers pour nous. Il y a l'Éducation nationale et ce n'est pas anodin que tous les citoyens français aillent sur les bancs de l'école pour qu'on leur enseigne un tronc commun. On peut s'étriper sur ce qu'il y a dans les programmes, mais personne ne remet vraiment en cause le fait qu'il y a un programme. Parce qu'intuitivement, on comprend que ce tronc commun informationnel est ce qui nous permet de fonctionner ensemble. Il y a ensuite l'audiovisuel public contrôlé démocratiquement et qui répond à une mission de service public puis l'audiovisuel privé qu'on régule quand même énormément.

Et enfin, il y a les réseaux sociaux, qui sont venus se greffer à tout ça relativement récemment et qui structurent et même phagocytent tout l'espace médiatique aujourd'hui, et auxquels aucune régulation sérieuse ne s'applique. Et leur modèle économique se porte d'autant mieux qu'ils produisent des marées noires informationnelles dans réservoir dans lequel les citoyens s'abreuvent de l'information nécessaire au débat démocratique. On met 160 milliards d'euros par an dans l'Éducation nationale. On a construit pendant des décennies des systèmes de régulation des médias et pour les réseaux sociaux maîtrisés par des puissances étrangères de moins en moins alliées, on investit combien dans leur régulation ?

Avant bonne idée

Rien (ou presque), on a laissé des plateformes privées, optimisées pour le profit à court terme et des intérêts géopolitiques de plus en plus divergents, devenir le principal vecteur d'information de l'ensemble des sociétés démocratiques européennes.

Mmmmmh bonne idée...

L'algorithme, la bêtise des foules, et la machine à polariser

Il y a un chiffre que je radote quelque peu car il permet de mesurer l'ampleur du phénomène : l'humanité regarde deux milliards d'heures de vidéos YouTube par jour. Sur ces deux milliards d'heures, au moins 70 % (un milliard et demi d'heures) sont décidées par l'algorithme de recommandation de YouTube. Et encore, c'était avant que TikTok casse le game en annihilant le peu d'agentivité qu'il nous restait avec le feed « for you » qui est garanti « recommandé par une IA à 100 % ». Un milliard et demi d'heures, c'est l'équivalent du temps d'enseignement de 50 000 professeurs pendant toute leur carrière. Chaque jour, YouTube décide, de manière totalement autoritaire, de ce que ses 50 000 professeurs vont enseigner lors de l'entièreté de leur carrière.

Or ces décisions ne sont pas neutres. Les plateformes ont certes longtemps été apolitiques au sens non partisan du terme. Elles ne possédaient pas d'agenda idéologique. Elles n'essayaient pas de faire gagner la gauche ou la droite. Mais elles ont toujours été profondément politiques dans un autre sens : elles voulaient zéro régulation, zéro responsabilité, zéro contrainte. Et, dans cette course à l'engagement, elles ont structurellement favorisé ce qui divise, indigne, polarise. Il s'agit d'un choix éminemment politique.

On entend souvent qu'il n'y a aucun choix politique là-dedans car les IA de recommandation ne seraient que les reflets des utilisateurs, mais dire cela revient à omettre la moitié de la réalité. Le soir, quand je vais me coucher, j'ai une vision incroyable de ce que j'accomplirai le lendemain. Lever aux aurores (rythme du soleil tout ça tout ça), 10km de course, graines et tisane, 3h de deep work, film mythique de Kurosawa le soir. C'est la version de moi-même qui pense à long terme, qui a une volonté, des principes, une vocation. Puis le lendemain matin… c'est une autre version qui prend les rênes et s'enquille deux cafés et engouffre les sucreries du frigo avant d'avoir les paupières vraiment décollées. C'est uniquement à cette deuxième version que les algorithmes ont appris à parler. La version impulsive. La version qui réagit, qui s'indigne, qui clique. Le résultat, c'est que ces IA de recommandation reflètent la bêtise des foules plutôt que sa sagesse. Ça, à grande échelle, ça polarise et ça détricote notre capacité à vivre ensemble. Ce phénomène s'est ensuite complexifié sur deux niveaux supplémentaires.

Les deux étages de la fusée : ingérences et intérêts politiques

Il y a donc l'IA de recommandation, qui polarise de manière mécanique, sans intention particulière si ce n'est la maximisation de l'engagement. Puis il y a deux couches au-dessus.

La première, ce sont les ingérences étrangères. Un exemple récent que je trouve très illustrant : les élections en Roumanie en 2024. L'algorithme de TikTok fonctionne notamment en analysant sémantiquement les commentaires sous une vidéo pour suggérer la prochaine. Des opérateurs, pro-russes en l'occurrence, ont créé massivement des profils inauthentiques qui ont laissé des commentaires favorables à un candidat pro-Kremlin sous toutes les vidéos politiques roumaines.

Résultat : l'algorithme, voyant ces commentaires partout, a commencé à recommander du contenu favorable à ce candidat à l'ensemble des utilisateurs roumains. Si vous regardez la courbe des sondages à ce moment-là, quelque chose de phénoménal semble s'être passé. 

Autre exemple, moins récent mais très parlant. Des chercheurs ont étudié la bataille Black Lives Matter sur Twitter. Deux camps très divisés. Ils publient leur étude. Trois semaines après, Twitter publie une liste de comptes manipulés par l'Internet Research Agency de Saint-Pétersbourg. Les chercheurs reconnaissent tous les noms : c'étaient les comptes qui avaient été les plus actifs dans la bataille qu'ils venaient d'étudier. Ce que ces comptes poussaient, c'étaient les positions les plus extrêmes des deux camps.

L'objectif n'était pas de faire gagner un côté. C'était de fragmenter, de radicaliser, d'empêcher qu'un commun se forme. La conclusion de l'étude est assez vertigineuse : les chercheurs eux-mêmes avouent qu'ils avaient demandé à Twitter de vérifier en priorité les comptes qui représentaient leurs propres opinions. En effet ils ne pouvaient pas croire que ces contenus étaient inauthentiques tellement ils les trouvaient alignés avec la manière dont ils voyaient le monde. Ils ne pouvaient s'empêcher de se faire piéger par l'opération qu'ils étaient pourtant en train d'étudier.

Ce que font ces ingérences, c'est orienter le spot de l'attention collective vers ce qui génère de la tétanie et de l'incapacité à agir ensemble. On laisse à des puissances étrangères de plus en plus autocratiques le soin de pointer la lampe torche attentionnelle de nos démocraties là où elle nous affaiblit le plus.

La deuxième couche, c'est l'éditorialisation directe par les propriétaires de plateformes. Ce n'était pas le cas pendant longtemps. Maintenant, si. Elon Musk et X en sont l'exemple le plus flagrant. Quelqu'un qui contrôle un système de recommandation utilisé par des centaines de millions de personnes, et qui a des positions politiques très claires, peut influer sur ce que voit le monde sans que personne ne l'ait élu pour ça. Remercions le ciel que nos milliardaires n'aient pas encore percuté et continuent à « simplement » racheter des journaux, des maisons d'édition et des chaînes de télé…

Propagande 2.0 : plus besoin de retoucher les photos

Tout ça nous force à réviser notre représentation de la propagande. Pour nous, la propagande, ce sont des personnages politiques qui disparaissent subitement des photos officielles lorsqu'ils tombent en disgrâce.

À l'esprit nous viennent des affiches, des discours officiels caricaturalement biaisés, des mensonges grossiers. C'est vrai, ça a existé. Mais c'est une vision dépassée. La propagande évolue. Harari, dans Nexus, dit quelque chose de frappant : si Staline avait eu des plateformes numériques à son service, peut-être l'URSS ne se serait-elle jamais effondrée. Ce n'est pas qu'une punchline, c'est une hypothèse sérieuse. Prenez le cas de la Chine avec TikTok, le Parti communiste chinois n'a pas besoin de dire aux influenceurs politiques chinois ce qu'il faut dire. Il lui suffit, par sa maîtrise du système de recommandation, d'amplifier les récits qui lui conviennent et qui sont déjà produits par des créateurs souvent convaincus de leur « liberté » de parole. Personne ne reçoit d'ordre. Le système fait le tri tout seul, selon des paramètres qui servent le pouvoir en place. C'est ça, la propagande moderne et ça ne concerne pas la Chine et les plateformes numériques, ça date d'avant comme le rappelait très bien Chomsky. Pas la fabrication, mais la sélection et l'amplification. Et c'est beaucoup plus efficace, parce que beaucoup moins visible. 

Mais dans le cas d'un régime autoritaire qui a le contrôle d'une IA de recommandation qui est entraînée avec les goûts et les couleurs les plus intimes de toute sa population, la capacité de contrôle prend une autre ampleur encore. Il peut nudger (orienter) sa population dans les directions qui conviennent au pouvoir et qui sont cohérentes avec leur intérêt à long terme. À l'inverse, une démocratie qui laisse son espace informationnel se fragmenter à l'infini finit par ne plus être capable de se coordonner sur rien. Lors du dernier Super Bowl, Trump a organisé un show alternatif pour son électorat MAGA. Pendant ce temps, une autre partie de l'Amérique se raccrochait aux branches  d'un show progressiste pour oublier la droitisation des USA. Les uns regardent leur flux, les autres le leur. Les MAGA ne voient du show progressiste que la caricature des moments les plus clivants, et inversement. Ce n'est plus un débat public. Ce sont deux bulles qui s'ignorent, se caricaturent mutuellement et finissent par s'affronter de plus en plus violemment. 

Ce qu'on peut faire : briques, adjacents possibles et pression politique

On arrive à la question que les gens posent toujours, et qui est légitime : OK, et alors ? Qu'est-ce qu'on fait ?

La réponse honnête, c'est qu'il n'y a pas de grand plan. Personne ne tient le volant de ce système. Et c'est vertigineux.

La seule manière que j'ai trouvée pour ne pas me retrouver paralysé face à cet abysse, c'est de penser en termes d'adjacents possibles. Imaginez que l'humanité soit en train de jouer une partie d'échecs contre la mauvaise fortune afin d'éviter autant que possible la souffrance et l'extinction. Ni vous ni moi, ni personne d'ailleurs, ne choisissons le prochain coup. Mais, on peut rendre des cases, qui ne l'étaient pas auparavant, accessibles. Ça, on peut le faire individuellement (ou tout du moins à l'échelle d'une organisation de taille humaine) et toute personne qui a déjà joué aux échecs sait que transformer un pion en Reine, ça n'est pas rien.

Concrètement, ça ressemble à quoi ?

  1. Prendre la parole et ne pas appartenir à un clan. Dire qu'on pense que des conservateurs peuvent avoir de bonnes idées et que des progressistes peuvent se planter. Ne pas succomber à la logique de la tribu. Ça semble petit. Ça ne l'est pas, on crée un adjacent où il est possible de ne pas tomber dans les logiques claniques délétères.
  2. S'investir dans des briques alternatives, c'est-à-dire participer à rendre accessibles de nouveaux adjacents. Je m'investis dans l'association Tournesol (lien externe) et sa plateforme qui essaie de construire un système de recommandation démocratique. Le principe : au lieu de laisser YouTube décider ce que l'algorithme va amplifier selon des critères mercantiles et idéologiques, ou de laisser l'État décider à la place des citoyens #ORTF, on demande à ces derniers de voter (comme pour un président) sur quelles vidéos devraient massivement être recommandées. On tente de construire des systèmes se fondant sur la partie de nous-même qui vote en son âme et conscience, pas sur celle qui swipe compulsivement. Il y a aussi Pol.is (lien externe), une plateforme de délibération utilisée notamment à Taïwan pour réguler l'arrivée d'Uber et plus globalement pour renforcer la démocratie. Ça a fonctionné, Taïwan est selon le V-Dem institute l'un des rares pays où la démocratie se renforce. Il y a également Agora.citizen (lien externe), un équivalent français plus récent de pol.is. Ces outils existent. Ils fonctionnent et sont souvent utilisés à petite échelle. Ils attendent que les conditions soient réunies pour se diffuser plus largement. Taïwan, justement, est un exemple de ce que pourrait donner un numérique vraiment démocratique à grande échelle. Pour les élections, le gouvernement a demandé à tous les votants qui le souhaitaient de filmer et de diffuser en live leur passage dans le bureau de vote. Résultat : une bibliothèque de streams citoyens de tous les bureaux de vote du pays, rendant toute fraude pratiquement impossible à dissimuler. La technologie au service de la confiance institutionnelle, plutôt que contre elle.
  3. Pousser les entreprises. Les démocraties sont lentes et nous devons avoir à l'esprit qu'il s'agit là autant d'un défaut que d'une qualité. Les entreprises le sont moins, parce qu'elles comportent une boucle de rétroaction plus directe avec la réalité. Si elles ne performent pas, elles disparaissent. Et les gens en entreprise sont aussi des citoyens. Si des pratiques de délibération plus intelligentes et plus efficaces collectivement se diffusent dans le monde professionnel, elles finiront par irriguer le politique.
  4. Mettre la pression au monde politique. Parce qu'au final, c'est là que tout se joue. La régulation intelligente est indispensable. Les systèmes comme Tournesol ou Polis génèrent de la friction, donc moins d'engagement, donc moins de revenus pour les plateformes. Par conséquent ils ne se diffuseront jamais massivement sans contrainte réglementaire. Il faut autant encourager les alternatives qu'interdire certains mécanismes addictifs utilisés par les plateformes actuelles. Je sais ce que vous allez dire : les politiques ne feront jamais ça. Vous n'avez pas tout à fait tort. Mais, il y a deux ans, l'idée d'interdire les réseaux sociaux aux mineurs semblait inimaginable. Pourtant l'Australie l'a fait. La France a commencé et l'Espagne suit. Les choses bougent quand la pression est suffisante, et lorsque les citoyens, notamment ceux qui ont du pouvoir, ont du « skin in the game », c'est-à-dire subissent directement les conséquences de ces systèmes.

Deux livres pour continuer à penser

Je recommande The Secret of Our Success de Joseph Henrich. Un livre qui montre que la force de l'espèce humaine, c'est sa capacité à coopérer, à agir de concert et à transmettre une culture collective qui accumule au travers des millénaires toujours plus de connaissances. La puissance de notre espèce ne se fonde pas sur le génie d'individus isolés, mais sur celui de collectifs capables de se coordonner entre individus, et entre générations. C'est une lecture aussi qui relativise l'importance du talent individuel autant qu'elle rassure sur ce dont nous sommes collectivement capables.

Et Ultra Society de Peter Turchin. L'idée centrale : si l'espèce humaine est aussi sociale et culturelle, c'est parce qu'elle s'est fait massivement la guerre. Et dans la guerre, ce sont les groupes capables de se coordonner qui survivent. Ce n'est pas une note de pessimisme. C'est une note d'espérance : dans les conditions très dures qui viennent, on devra faire émerger des capacités de coordination qu'on ne soupçonnait pas. À condition de se battre pour sortir par le haut de la tempête qui vient car

Un ciel aussi sombre ne s'éclaircit pas sans tempête.

  • Co-auteur "La dictature des Algorithmes" | Conférencier | Co-fondateur Lyfe Catalyst | Membre de l'association Tournesol | Fondateur de la chaîne ApresLaBiere | Numérique | Journaliste | Vulgarisateur