Climat, information, démocratie Comment réparer notre écosystème numérique ? (ft. Rodolphe Meyer)

Que faire face aux impacts environnementaux les plus graves du numérique ?

Que faire face aux impacts environnementaux les plus graves du numérique ?

Je ne parle pas ici de nos doses de streaming quotidien ou de la fabrication des terminaux, mais d’impacts indirects, Qui me préoccupent encore plus.

Ce “permis de détruire”, accordé à quelques milliardaires qui structurent nos écosystèmes informationnels sans aucun contre-pouvoir, a des conséquences environnementales majeures, trop souvent négligées.

J’ai eu la chance de détailler ces enjeux dans une vidéo avec la chaîne “Le Réveilleur”.

Dans cette vidéo on s’est intéressés à tous les impacts climatiques du numériques, les impacts directs bien entendu mais aussi les impacts environnementaux indirects qu’on occulte selon moi trop souvent…

Rodolphe : Si j’ai bien retenu ta sélection d’impacts indirects, il y a :

Jean-Lou : Exactement ! Si vous ne l’avez pas encore vu, je vous encourage vivement à aller la voir, le lien est évidemment en description !

Rodolphe : Reste la question à laquelle on n’a pas répondu dans ma vidéo : que pourrait-on faire pour limiter ces impacts indirects ?

Jean-Lou : Et bien c’est exactement ce dont on va parler dans cette vidéo.

Métaphore du barrage

Qu’il s’agisse d’incitation à la surconsommation, d’informations fausses ou trompeuses, de mauvaise hiérarchisation ou de détérioration de la démocratie, nous sommes à chaque fois confrontés à une dure réalité : notre écosystème informationnel est merd***, voilà ça y est c’est dit….

Autrement dit : les citoyens nagent dans de l’information de m*** - de très mauvaise qualité et cela aggrave des problèmes sociétaux qu’il est pourtant urgent de résoudre.

Et c’est peut-être ça la première chose que nous devons faire : réaliser et admettre l’ampleur du problème. Si l’information était de l’eau, nous serions tous et toutes en train de nous abreuver dans un réservoir où les pollutions fécales seraient de plus en plus fréquentes et massives.

D’où viennent ces pollutions ? Si on file la métaphore, en amont du réservoir “ecosystème informationnel du citoyen”, il y a un barrage au sein duquel coexistent différents mécanismes pour filtrer les flux informationnels.

Depuis notre plus tendre enfance, l’information que nous consommons nous parvient filtrée. Soit par notre entourage, soit par l’éducation nationale, soit par les médias dit “classiques”, soit par … les médias dit “sociaux”. Dans le cas de médias classiques, de l’audiovisuel public ou de les systèmes d’éducation, énormément d’énergie et d’argent est investie par toutes les démocraties libérales afin que l’information diffusée aux citoyens, ne soit pas de trop mauvaise qualité. Pour avoir un ordre d’idée, la France débourse chaque année la coquette somme de 160 milliards d’euro pour contrôler l’écosystème informationnel dans lequel évolue les petits citoyens.

Que ce soit sous forme de régulation, d’aide à la création audiovisuelle ou de programme scolaire, de nombreux mécanismes sont en tous les cas mis en place pour que l’information émanant des médias classiques et de l’école ne soit pas trop polluée.

Et la régulation du flux des réseaux sociaux dans tout ça ? Parce qu’étant donné que l’humanité passe littéralement des milliards d’heures quotidiennement à regarder des vidéos dessus, ça doit être des budgets colossaux, à l’image de la quantité d’information que ca représente non ?

Et bien pour la France, c’est une toute partie du budget de l’Arcom : l’autorité de régulation de la communication audiovisuelle ET numérique. L’arcom a comme son nom l’indique des prérogatives vertigineuses pour un budget qui l’est beaucoup moins : 46 millions d’euros… Une petite partie de 46 millions d’euros face à la puissance d’amplification informationnelle des big tech, comment dire….

Face à ces pollutions, on évoque souvent l’esprit critique mais cette approche est très très insuffisante¹. Enseigner l’esprit critique c’est un peu comme tenter de donner des gourdes filtrantes et des pastilles de purification aux personnes qui veulent ou peuvent attendre 30 minutes avant de boire alors qu’ils sont en train de mourir de soif. Le “débunkage” qui consisterait quant à lui à dépolluer le lac après les contaminations les plus massives semble plus pragmatique et il s’avère essentiel comme on le verra plus tard. Mais est-ce vraiment une stratégie efficace dans l’écosystème actuel ?

Quelque chose dont on ne parle quasiment jamais par contre, c’est d’agir directement sur les IA de recommandation qui filtrent le contenu en amont. Nous pourrions les concevoir pour qu’elles mettent en sourdine les contenus faux et trompeurs tout en amplifiant les contenus de qualité. Ce serait équivalent à mettre de nouveaux filtres spécifiquement conçus pour les plateformes numériques dans le barrage en amont du réservoir où nous nous abreuvons. Plus précisément, entre les contreforts où s’écoule l’information des médias sociaux.

Chacune des stratégies visant à ce qu’on consomme au final de l’eau potable a son intérêt mais vous aurez peut-être saisi grâce à mon choix de métaphore absolument pas neutre que je pense que beaucoup beaucoup beaucoup trop d’énergie est passée dans l’approche “individualiste” du problème, celle où on distribue des gourdes filtrantes sur les routes de France. Et ce choix non stratégique s’explique assez facilement : qu’il s’agisse de pollution informationnelle (ou écologique d’ailleurs), il est beaucoup plus aisé, notamment pour les politiques et les industries, d’en appeler à la responsabilité individuelle du consommateur plutôt que de remettre en question les mécanismes structurels à l’origine de ces pollutions.

C’est pour cela qu’on se retrouve avec des politiques qui vont plutôt culpabiliser le consommateur, que dis je le consom’acteur. Il devrait lui-même vérifier toutes les sources de tous les articles ET calculer l’empreinte carbone de tous ses voyages. Pour être un vrai acteur de la transition écologique, vous devriez décider de vous-mêmes de payer un billet de train moins carboné pour le double du prix du même trajet en avion. Et tout ça pendant que le kérosène continue à être subventionné².

La quantité d’énergie collective à investir est bien plus importante dans l’option où on demande à tout le monde de faire des efforts de leur côté mais elle demande moins de courage et de sacrifices de la part des gens qui ont beaucoup de pouvoir…

Ce sont les mêmes mécanismes qui motivent la manière privilégiée avec laquelle on lutte contre la pollution informationnelle. Encore une pollution où ce sera au consommacteur de faire en sorte de trier le vrai du faux dans toutes les feeds auxquels il est exposé plutôt que de demander aux plateformes d’assumer une once de responsabilité quant aux contenus qu’elles choisissent de massivement amplifier sans se préoccuper, évidemment, des conséquences sociétales… Classique….

Mais avant de prendre les 4 impacts indirects qu’on a vu avec Rodolphe et voir comment on pourrait modifier la structure de notre écosystème informationnel pour qu’on ne se retrouve pas avec de l’information frelatée dans nos fils d’actualité, on va être égoïste et court termiste 30 secondes.

Rodolphe : Notons qu’il existe une solution plus efficace que de tout vérifier soi-même, ce qui pour des raisons de motivation, de temps et de compétence est impossible. On peut identifier des tiers de confiance et se fier aux informations qu’ils fournissent. On peut accorder notre confiance au système éducatif, à certains médias, à des institutions scientifiques, à des individus ou à n’importe quelle source d’informations. Évidemment rien n’empêche de vérifier certaines informations et de faire évoluer, au fil du temps, cette confiance qu’on accorde à des tiers mais une fois qu’on a trouvé des tiers crédibles, on gagne un temps considérable en s’informant sans tout vérifier. Vous pouvez arrêter d’être manipulé par des algorithmes de recommandation qui ne poursuivent pas vos intérêts. Par exemple, en vous abonnant à des newsletters écrites par de vraies personnes qui savent de quoi elles parlent. Si je me place dans l’allégorie de Jean-Lou, ça revient à faire confiance aux filtres d’un canal et à venir remplir sa gourde ici plutôt qu’au milieu du réservoir là où tout s’est mélangé.

Jean-Lou : Mais tu ne fais que déplacer le problème puisque rien ne garantit que ces canaux sont, effectivement, de bonne qualité. Quelqu’un peut accorder sa confiance à un individu ou a une organisation qui lui raconte absolument n’importe quoi.

Rodolphe : C’est vrai qu’il faut bien choisir à qui on accorde sa confiance. Disons qu’il s’agit d’exercer son esprit critique à la sélection de tiers de confiance plutôt qu’à chaque information. Par exemple, sur les questions climatiques, j’accorde une grande confiance aux rapports du GIEC mais également à CarbonBrief, un excellent média qui n’a, malheureusement, pas d’équivalent en langue française. Et pour ceux que ça intéresse, j’ai déjà expliqué, par exemple, ce qui fait la force des rapports du GIEC.

Jean-Lou : Parfait, merci Rodolphe, grâce à tes techniques, on va pouvoir s’hydrater tout en économisant un peu d’énergie, ce qui est essentiel si on veut pouvoir s’attaquer à la structure de nos écosystèmes informationnels. Or s’attaquer à la structure est vital car même si on arrive à soi-même rester à l’abri de la pollution informationnelle, notre bien être est dépendant de la santé politique, économique, environnementale de nos sociétés. Or celle-ci risque de continuer à se détériorer si une grande partie de la population se retrouve avec de l’information frelatée dans ses fils d’actualités.

Du coup, que peut-on faire structurellement ? Autrement dit, que faire au niveau du barrage pour éviter que le réservoir dans lequel tous les citoyens s’hydratent soit plein de … bon vous avez saisi je crois…

La première chose, c’est de :

1️⃣ Limiter les effets environnementaux dévastateurs de la publicité ciblée

Pour limiter les envies d’achat compulsif et leur coût carbone associé, nous pourrions nous baser sur la législation déjà existante et l’appliquer. Autrement dit, il faudrait arrêter de considérer le monde en ligne comme un far west numérique où l’état de droit ne s’applique pas vraiment.

A) Remettre un peu d’état de droit / Principe de non conformité

Par exemple, il est déjà inscrit dans la loi qu’on ne peut pas faire ce qu’on veut dès qu’il s’agit de bombarder les enfants de publicité. Il est interdit par exemple de diffuser des publicités de pari sportif et de poker aux alentours des émissions destinées aux enfants. Sur France télévision il est également interdit de mettre de la publicité autour des programmes dont l’âge du public est de moins de 12 ans. Sur le web, de telles réglementations sont soit inexistantes soit totalement inappliquées, ce qui d’un point de vue pratico pratique revient strictement au même³. Et c’est pareil aux Etats-Unis :

De manière générale, les autorités échouent à faire appliquer les lois qui encadrent la publicité aux espaces numériques même si elles le devraient au nom de l’état de droit. Le Web est un far west numérique où, de facto, la réglementation semble se volatiliser et ne pas s’appliquer, en tous les cas pas de manière effective.

Au contraire, nous devrions avoir une approche bien plus stricte de la régulation de tout le secteur. A la manière d’un nouvel avion ou bien d’un nouveau médicament, nous pourrions partir du principe que chaque nouveau produit, qu’il s’agisse d’un nouvel algorithme de recommandation ou d’une nouvelle technique de ciblage publicitaire, est par défaut non conforme à la mise sur le marché. C’est à airbus de prouver que son nouvel avion ne va pas s’écraser trop fréquemment. On pourrait s’inspirer de ce mécanisme et demander aux big tech d’amener des éléments prouvant que les conséquences anticipables de leurs nouvelles technologies n’ont pas des conséquences dramatiques sur la société. Enfin déjà, s’ils prouvent que c’est moins pire que la version précédente, on est bien.

B) Faire des lois “Evin du numérique”

Mais nous devrions également suivre les recommandations du rapport ministériel “Contribution et régulation de la publicité pour une consommation plus durable” et réguler en fonction du type de produit concerné.

Par exemple, on pourrait estimer que la publicité de produits à forte empreinte carbone devrait être surtaxée afin de financer la transition énergétique. Vous voulez afficher une publicité pour un aller retour à Lisbonne pour 50 euros sur le feed de quelqu’un qui vient de faire la recherche “how to get summer abs 2025” ? Pas de souci, par contre 75% du coût d’achat de cette publicité sera taxé et pourra servir, à tout hasard, au financement du développement et de l’entretien du réseau ferroviaire français.

Et on pourrait faire ça pour les publicités en lignes de secteurs dont on estime que l’empreinte carbone est extrêmement élevée au regard de l’amélioration de la qualité de vie qu’ils apportent, une liste non exhaustive :

Mais, sachant à quel point le marché de la publicité en ligne est aujourd’hui opaque, Lê, dans sa vidéo “Taxons la pub” proposait d’aller plus loin en présumant que toutes les publicités étaient néfastes pour l’environnement et donc de toutes les taxer par défaut. Il pourrait simplement y avoir une exception pour celles qui prouveraient qu’elles auraient des conséquences bénéfiques pour l’environnement. Par exemple, une publicité dont l’objectif serait de convaincre le potentiel acquéreur d’un gros scooter thermique de plutôt acheter un vélo électrique, pourrait se voir exemptée de taxe.

On pourrait également légiférer non pas en fonction de la thématique de la publicité mais de la technique marketing utilisée. Ainsi, on pourrait encadrer certaines des techniques publicitaires les plus intrusives du web comme le micro ciblage ou encore mieux le reciblage publicitaire. Ca, c’est quand un site que vous avez consulté continuera à vous suivre lors de votre surf, enregistrera votre innocente requête “nettoyage tâche tapis” sur un moteur de recherche quelconque pour tenter ensuite de vous refourguer une shampouineuse dans un encart qu’il aura acheté⁶ ⁷.

C) Considérer l’effet rebond du numérique

Les mécanismes par lesquels la publicité génère un changement de comportement sont loin d’être triviaux. L’un d’eux c’est de modifier et de façonner nos imaginaires⁸. La diffusion et l’adoption massive de toutes ces technologies est basée sur un imaginaire technosolutionniste qui considère uniquement et systématiquement seulement les conséquences positives du numérique à base de :

sous entendu : “pour toute poste fermée, un data center”.

Bien sûr que les nouvelles technologies ont des conséquences positives, encore heureux, mais il faut réfléchir aux effets rebonds magistraux qui, si rien n’est fait, ont toutes les chances d’advenir. C’est sans doute mieux d’acheter un câble en ligne lorsque vous en avez besoin que d’aller à la Fnac en voiture. Mais est ce qu’il est toujours pertinent d’avoir ce raisonnement quand tout le monde se met à acheter des gadgets quotidiennement parce que c’est quand même plus simple de cliquer puis de recevoir le colis 2 jours plus tard que de se déplacer jusqu’au magasin ? 
Pour ça je recommande les articles de Gauthier Roussilhe qui vulgarise très bien toutes les manières dont la numérisation impacte l’environnement¹⁰ ainsi que ce rapport de l’Ademe¹¹ qui traite de tous les impacts numériques sans négliger les impacts indirects en s’intéressant notamment à tous les types d’effet rebond causée par l’adoption d’un nouvel usage numérique.

Mais pour augmenter les probabilités que ce genre de législation soit poussée, il faudrait qu’il y ait un minimum de pression populaire et pour ça, il faudrait que nous soyons mieux informés et plus conscients des enjeux climatiques.

C’est pour cela qu’après avoir limité les effets environnementaux de la publicité ciblée, il nous faut :

2️⃣ Limiter la désinformation climatique sur les RS

Principe de présomption de non recommandabilité

Par défaut, tout contenu uploadé sur une plateforme est “recommandable”. Peu importe s’il s’agit de bébé kangourou, de propagande d’état ou bien d’une compétition internationale de pétanque, c’est du point de vue de l’IA de recommandation potentiellement recommandable et ce sans aucune vérification humaine bien entendu.

Ce principe ne nous paraît même pas choquant et c’est précisément ça qui est choquant. On laisse à des systèmes totalement opaques et sans aucune supervision le soin de décider si tel ou tel contenu va être servi à des centaines de millions d’êtres humains¹².

Quand Michel accoudé au bar après 20 ballons de pinard s’exclame que

Personne ne lui tend un porte voix planétaire en lui disant

Et si quelqu’un le faisait, on lui en tiendrait rigueur :

Et bien les plateformes considèrent qu’à partir du moment où un système détecte qu’un contenu génère de l’engagement, il est normal de pouvoir le recommander sans se préoccuper du pourquoi du comment de cet engagement. Les Big tech considèrent que c’est Ok de donner des micros planétaires à tous les Michel à partir du moment où leur punchlines sont percutantes…

Or contrairement à ce que nous avons été habitués à penser, ce fonctionnement ne va pas de soi… du tout. On pourrait très bien imaginer un système sensiblement différent : pourquoi ne pas établir qu’à partir d’un certain seuil de viralité, on applique une procédure de vérification où la plateforme valide que la viralité de ce contenu est acceptable et sans conséquences extrêmement négatives ? Cela revient à donner un petit micro à tout le monde, y compris à Michel. Sauf que cette fois, avant de lui donner accès à un broadcast planétaire, on fait 2,3 vérifications.

Pour ça, on pourrait se baser sur une métrique que tous les créateurs de contenu connaissent : le “nombre d’impression”, c’est-à-dire, le nombre de fois où l’IA de recommandation choisit d’afficher un contenu, la miniature d’une vidéo par exemple, sur sa plateforme. On pourrait envisager que jusqu’à 100 000 impressions d’une miniature par l’IA de recommandation de Youtube, on laisse faire en ne demandant pas à Youtube d’analyser plus précisément ce que son IA a pourtant déjà recommandé 100 000 fois. Par contre, dès lors qu’on atteindrait ce seuil, on imposerait à Youtube d’avoir un processus de validation où, truc de fou, un humain regarderait le contenu. Lors de cet examen, la plateforme pourrait veiller à ce que le contenu n’ait pas des conséquences négatives évidentes dont Youtube ne voudrait pas porter la responsabilité.

On ne peut pas traiter Youtube comme un média classique où le contenu de chaque programme, chaque article, chaque une, relève d’un choix humain conscient correspondant à une ligne éditoriale. Il y a bien trop de contenus sur Youtube pour que ce soit humainement possible. Mais on doit par contre imposer aux plateformes d’être plus responsables des contenus qu’elles choisissent d’amplifier à des échelles stratosphériques. Il est difficile de réaliser ce que signifie de recommander des contenus à des centaines de millions de personnes. On a du mal à appréhender le pouvoir quasi divin¹³ que cela représente et il est inconscient de laisser faire les big tech, tous les jours et sans leur demander d’endosser la moindre responsabilité.

A eux de définir un règlement, un cadre dans lequel ils s’autoriseront à piocher les contenus qu’ils choisiront d’amplifier massivement, une sorte de “champ éditorial” d’amplification. La société pourra ensuite leur demander des comptes sur les conséquences dramatiques de l’amplification de certains contenus s’il s’avèrent qu’elles étaient anticipables de manière relativement évidente. Plutôt qu’une ligne éditoriale, il s’agit ici de demander aux plateformes de délimiter un champ éditorial d’amplification. Hors ce champ éditorial, il pourrait y avoir, par exemple, la désinformation climatique. Nous pourrions alors réclamer des comptes aux plateformes dès lors qu’elles auront “choisi” d’amplifier de la désinformation climatique au-delà de ce seuil de viralité…

Rodolphe : Ça parait très bien tout ça mais, concrètement, ça ressemblerait à quoi ?

Jean-Lou : Mettons qu’une vidéo vient d’atteindre le seuil de viralité, avant de continuer sa carrière de vidéo virale, elle doit traverser un processus visant à déterminer si elle est dans le “champ éditorial d’amplification” de Youtube. A l’issu de cette examination, on pourrait avoir 4 grands types de décision :

Toute la question sera bien entendu de savoir à partir de quel nombre d’impression, on enclenche le processus. Il est même probable qu’un nombre d’impression fixe soit un indicateur trop simple. Peut-être devrait-on tenir compte d’autres paramètres comme le rythme d’impression ou le nombre d’abonnés de la personne qui a uploadé ce contenu ?

Peut-être mais la logique reste identique : la responsabilité de la plateforme est engagée lorsque l’amplification perdure au-delà d’un certain niveau. Celle-ci ne pourra plus se réfugier derrière le sacro saint argument : “Nous, Youtube, ne sommes pas responsables, tout est la faute de l’IA de recommandation et on ne sait pas précisément ce qu’elle fait”. IA de recommandation qu’ils ont eux-mêmes développé… du coup je ne comprends même pas comment cette ligne de défense peut être considérée…

Bref…

De la même manière qu’un média a une responsabilité éditoriale des articles ou des documentaires qu’il choisit de diffuser, nous devons imposer aux plateformes une responsabilité éditoriale sur les contenus que son IA de recommandation choisit d’amplifier massivement.

Mais ça, ça marche uniquement avec du contenu viral qui sort de ce champ éditorial d’amplification, quand il est évident qu’un contenu en passe de devenir viral ne devrait pas pouvoir l’être. Ça ne répond pas à la question, immensément difficile de : au sein de ce champ éditorial immense où l’amplification est possible, comment choisir ce qui va être amplifié et ce qui ne va pas l’être sans faire uniquement confiance à la viralité “organique” ? Parce que oui, il nous faut

3️⃣ Amplifier les informations politiquement pertinentes

En effet, on est en droit de se demander, dans un univers où l’information a une importance aussi vitale que dans le nôtre si consommer une attention humaine limitée pour n’importe quel type de contenu, aussi innocent soit-il, est opportun ?

Dans le traitement de l’information que vous faites au quotidien par exemple, le jour où vous traversez sans faire attention, vous êtes bien content que des mécanismes cognitifs suspendent vos précieuses réflexions sur la couleur de votre prochain canapé et orientent toute votre attention sur les coups de klaxons du bus sous lequel vous vous apprêtez à vous jeter.

Ca ne veut pas dire que votre réflexion sur la couleur de votre prochain canapé n’était pas légitime, ni même qu’elle aurait de mauvaises conséquences dans l’absolu. Cela signifie simplement que dans un univers où il n’est pas possible de traiter toute l’information instantanément, au moment précis où vous vous apprêtez à vous jeter sous le bus obnubilé par votre décoration, toutes les informations ne se valent pas. Toutes les informations n’ont pas le même impact sur notre capacité à agir, à changer le monde et à survivre.

Il en va de même pour l’information dans une société qui ne manque pas de bus sous lesquels se jeter : changement climatique, contrainte énergétique, limites planétaires, tensions géopolitiques et j’en passe, hélas. Notre société a cruellement besoin de mécanismes qui priorisent l’information de manière stratégique. Or aujourd’hui, cette fonction de filtrage, de priorisation et d’amplification de l’information à laquelle nous allons collectivement donner de l’attention est remplie par les IA de recommandation des big tech. Et quand on voit comment elles gèrent l’information environnementale, elles ne donnent pas la sensation d’être totalement au point.

En France à l’été 2021, au moment de la sortie du 6ème rapport du GIEC, était-il si essentiel de parler en long, en large et en travers de l’arrivée de Messi au PSG, tout ça pour gagner 4 ans plus tard une fois toutes les stars reparties… ?

Cette année là, la vidéo la plus vue de Mr Beast, le plus gros youtubeur de la planète, fut : “I spent 50 hours buried alive”¹⁴

Choix particulièrement mordant pour une civilisation globale qui est en train de s’enterrer vivante. Nous traversons les yeux bandés une 8 voies remplies de bus et nous nous concentrons de plus en plus fort sur la couleur du papier peint.

Non, pour éviter les collisions il nous faut complètement repenser notre manière de sélectionner l’information qui sera ensuite massivement diffusée.

Mais la question est extrêmement complexe : si les choix d’amplification ne sont pas uniquement basés sur l’engagement, en fonction de quels critères devons-nous choisir de recommander du contenu ?

La question est très très difficile mais je suis convaincu de quelques principes :

Principe 1: status quo indéfendable.

Le status quo est indéfendable, il nous faut trouver et développer des IA de recommandation alternatives. On ne peut pas se contenter de la structure informationnelle actuelle.

Principe 2: pluralité algorithmique

Il faut chercher et proposer des IA et des systèmes de recommandation différents. C’est bien sûr tout le projet de Tournesol, d’essayer de voir comment nous pourrions évaluer et recommander les contenus différemment. Non pas en fonction de ce que Musk pense qu’il faudrait que l’humanité regarde, ni en fonction de ce que la Parti Communiste Chinois ou bien la future ex-ORTF pense qu’il faudrait qu’on regarde mais en fonction de ce que chacun de nous voudrait recommander. C’est notre projet, un parmi pas tant d’autres et c’est d’ailleurs peut être déjà ça la première étape : réclamer davantage de projets algorithmiques différents, davantage de “pluralité algorithmique” en somme, afin de mieux comprendre les avantages, les désavantages et les conséquences des différents systèmes.

Principe 3: création de commun.

Il faut dans le même temps faire attention à ne pas faire de la pluralité algorithmique “une fin en soi”. La pluralité algorithmique nous donnera simplement la possibilité d’avoir le choix entre plusieurs algorithmes. C’est d’ailleurs en ce sens que je trouve l’initiative de blue sky intéressante car c’est une de ses promesses : faire en sorte qu’on puisse avoir accès à des IA de recommandation différentes. Si vous voulez l’affichage purement chronologique vous pouvez, si vous voulez uniquement les posts mais sans les fils de commentaires vous pourriez et si vous voulez uniquement les posts qui déclenche les plus vifs débats parce que 15 ans de shit storm en intraveinseuse sur Twitter vous ont transformé en junkie du clash, vous pourriez aussi… Seulement pour faire démocratie, il faudra aller au-delà de la pluralité algorithmique, il faudra créer un socle commun, une réalité partagée, une envie, des valeurs communes, appelez ça comme vous voulez mais vous ne faites pas démocratie avec des gens avec qui vous ne partagez rien. Par conséquent, il faudra que les plateformes numériques et nous-mêmes donc, nous dépassions notre envie d’individualisation des flux. Autrement dit nous devons renoncer à des flux qui nous correspondent totalement pour embrasser des flux qui nous font davantage correspondre aux autres. Il faut qu’une partie des recommandations nous aide à partager des valeurs, des constats et des envies au nom desquels on dépassera nos différences. Il faut que les recommandations créent du commun. C’est au nom du commun qu’on parvient à se faire violence et à dépasser nos différences. Sans commun on se contente d’écraser les différences dans la violence.

En parlant de commun, le but de cette chaîne, c’est justement de parler de comment on pourrait transformer nos éco systèmes informationnels pour bâtir un socle commun permettant à nos systèmes démocratiques de perdurer. Comme c’est pas vraiment le sujet le plus viral du game, pour que je puisse continuer à résister aux sirènes des RS et du clash tout en continuant à faire un travail que j’espère sérieux et divertissant le ventre pas trop vide, j’ai besoin de financement donc si vous voulez que ça continue de plus belle, le lien tipeee est en description ou bien encore mieux faites moi intervenir en conférence sur ces sujets.

Et si vous êtes en galère, croyez-moi, je comprends, vous pouvez simplement diffuser la vidéo en la partageant manuellement ou bien en nourrissant l’algorithme. Je vous ferai pas l’affront de vous dire comment, je sais que vous savez faire. En tous les cas merci vraiment à celles et ceux qui font l’effort de me soutenir.

En tous les cas, ce qui est incroyable c’est que tout ce dont on vient de parler, qu’il s’agisse de limiter l’amplification de la désinformation ou au contraire d’amplifier certains contenus vitaux, ressemble beaucoup à ce que la plateforme Youtube proposait elle-même de faire en 201⁹¹⁵ dans sa stratégie des 4R :

1. Remove : Retirer le contenu qui enfreint notre politique le plus rapidement possible

2. Raise : Faire entendre des voix qui font autorité lorsque les gens recherchent des nouvelles et des informations de dernière minute

3. Reward : Récompenser les créateurs et les artistes de confiance et éligibles

4. Reduce : Réduire la diffusion des contenus qui frôlent la limite de notre règlement..¹⁶

Mais les promesses n’engagent que ceux qui les reçoivent et c’est donc à nous de mettre la pression et d’imposer leurs responsabilité aux plateformes. Mais en attendant qu’on y parvienne, est-ce qu’on pourrait pas quand même lutter contre la désinformation, par exemple avec des contenus de debunk ?

Rodolphe : Plusieurs fois sur la chaîne, je me suis livré à l’exercice d’analyse critique de discours climato-sceptiques, on pourrait parler de debunk. Dans l’écosystème informationnel, cet exercice est utile parce qu’il peut permettre de convaincre des personnes exposées à la désinformation initiale mais sensible à un argumentaire logique et sourcé.
Mais, c’est également un exercice qui a un impact limité. D’abord, parce qu’il est beaucoup plus facile et rapide de produire de la désinformation que de produire une analyse critique de qualité. Ensuite parce que ce format atteint souvent beaucoup moins de personnes que la désinformation initiale. Répondre à la désinformation peut limiter les dommages mais c’est une guerre qu’on ne peut pas vraiment gagner et qui demande beaucoup d’efforts.

Jean-Lou : Et comme nous n’avons pas des millions de main, il nous faut être stratégique et nous attaquer spécifiquement aux contenus et aux discours qu’on observe être massivement amplifiés par les IA de recommandation. Aujourd’hui, ça représente un travail herculéen mais si on modifie les règles du jeu ça change tout !

Rodolphe : Les idées que tu as présenté pourraient limiter la viralité de la désinformation et donc réduire l’exposition de nos concitoyens. Dans un cadre où les désinformations virales seraient moins nombreuses, ça a plus de sens d’y répondre directement, surtout si un algorithme peut distribuer cette réponse à ceux qui ont été exposés à la désinformation initiale. Par contre, cette démarche continuera à n’avoir de sens que pour ceux qui partagent les mêmes bases logiques et une appréciation similaire de ce qui fait la crédibilité d’une information.

Jean-Lou : D’où l’importance de créer du commun justement. Et pour ça il faut réguler contre les logiques actuelles et s’il y a une chose qui est évidente lorsqu’on s’attaque à la régulation d’une grande industrie comme la tech, c’est qu’il s’agit toujours de rapports de force.

Sans volonté politique, ceux-ci tournent à l’avantage des plateformes et au détriment de nos sociétés. Les grands principes, s’ils ne sont pas imposés, maintenus et assurés par la force publique, ne signifient absolument rien.

En l’état actuel des rapports de force, les big tech et leurs IA de recommandation nous précipitent sous le bus en amplifiant les contenus de piètre qualité sur des sujets dont notre existence ne dépend pas vraiment. Nous devons par conséquent dépasser les stratégies vitales mais défensives qu’on vient d’évoquer consistant à débunker à posteriori. On doit commencer à agir en amont, dans les mécanismes qu’il y a au sein du barrage, pour que les IA de recommandation amplifient du contenu qui maximise nos chances et notre capacité d’agir.

Sans ce type d’intervention, il est très peu probable que nous parvenions à lutter contre le dernier impact environnemental que l’écosystème informationnel actuel a et qu’il nous faut absolument limiter !

4️⃣ Limiter la dégradation des démocraties et de notre capacité à agir ?

Convaincre nos politiques

Nous devons lutter et nous battre pour faire en sorte que les pouvoirs publics comprennent que leur propre survie dépend de la régulation des éco systèmes informationnels.

Certains politiques en ont conscience, notamment ceux qui ont écrit à meta pour témoigner qu’un changement algorithmique les incitait à prendre des positions plus clivantes pour garder la même visibilité¹⁷. Hélas, les politiques qui sont conscients de ce danger et qui ne jouent pas le jeu des algorithmes sont défavorisés par l’écosystème informationnel. Et c’est difficile d’être élu quand personne ne vous connaît.

La classe politique dans sa globalité doit réaliser que si rien n’est fait, ils devront continuer la surenchère de la division et du clivage pour obtenir le minimum d’attention dont ils dépendent… Et cela jusqu’à ce que notre mort démocratique à tous s’ensuive.

Il faut qu’il devienne évident pour tous les politiques que si nous voulons que nos institutions démocratiques survivent, les big tech doivent impérativement être tenues responsables. On ne peut pas les laisser continuer à être des “Careless people”¹⁸….

Remettre l’industrie à sa juste place

Plus généralement, nous devons arrêter de penser que l’industrie et l’innovation sont des buts en soi. Si on veut développer les moyens de transport décarbonés, ça n’est pas parce que ça serait mieux en soi mais parce que ça permettrait d’atténuer le changement climatique et que ça rendrait notre société globalement meilleure.

De la même manière, on ne doit pas laisser faire les big tech au nom de l’innovation ou bien parce que ça pourrait nous permettre de faire des choses qu’on ne savait pas faire avant. C’est seulement lorsqu’on estime que ça rendrait la société globalement meilleure qu’on doit permettre et encourager l’innovation. Ça n’est pas à la société et à la politique de s’adapter à l’économie, aux grandes organisations et à leurs innovations mais l’inverse.

Développer, financer et diffuser des réseaux prosociaux

Alors vous allez sûrement me demander : quelles innovations faudrait-il favoriser ? Personnellement, je pense que l’une des directions que nous devrions massivement investir, c’est de lutter pour des développements technologiques qui renforcent nos pratiques et nos valeurs démocratiques. C’est précisément ce que propose l’ancienne ministre du numérique de Taïwan Audrey Tang avec sa notion de réseau pro social¹⁹.

Rodolphe : Un système démocratique n’est pas une garantie de justice ou de prise en compte adéquate des enjeux environnementaux. Mais il crée les conditions pour que chacun puisse faire entendre sa voix, défendre ses droits et exiger des comptes. Ces capacités sont essentielles pour préserver des piliers de notre qualité de vie, comme les libertés fondamentales, l’accès aux soins et à l’éducation, ou encore le droit à un environnement sain.

Face aux défis écologiques, les démocraties offrent des outils uniques : débats publics, presse libre, mobilisations collectives, recherche indépendante, contre pouvoir contre les puissants. Ces outils permettent de confronter les intérêts particuliers aux besoins collectifs de long terme.

Les imperfections, voire les dysfonctionnements de nos systèmes démocratiques, ne doivent pas faire oublier que les alternatives ont de grandes chances d’être bien pires pour la majorité d’entre nous. Revivifier nos démocraties, recréer de la confiance et regagner de la capacité d’action collective sont sans doute des étapes indispensables pour affronter efficacement les crises environnementales à venir.

Jean-Lou : Ce dont notre société a besoin, ça n’est pas d’autoritarisme mais de plus de démocratie. Et pour ça le numérique peut nous être d’une grande aide, à condition qu’il soit pensé en ce sens, autour de 4 piliers du numérique démocratique notamment. 4 principes qui devraient être l’alpha et l’omega de toute plateforme voulant renforcer la démocratie plutôt que d’en être le parasite. Ces 4 piliers, j’en parlerai dans une vidéo spécifique qui sortira dans 15 jours et que je m’empresserai de rajouter ici.

Du coup peut-être à tout de suite et sinon à bientôt, sur des plateformes plus démocratiques j’espère !

Et sur ce, on vous souhaite,

Paix et santé,

Et tant que vous êtes là ;), voici 5 manières de suivre et de soutenir le projet d’ApresLaBiere :

1) Soutenir ApresLaBiere sur Tipeee (lien externe) (occasionnellement parce que cet article était génial ou régulièrement pour l’ “ensemble de l’oeuvre”)

2) Vous abonner à la “gazette” sans oublier d’ajouter jeanlou(at)apreslabiere.fr à vos emails favoris :

3) Applaudir (en cliquant longtemps sur les petites mains) et commenter ici, directement sur ApresLaBiere.fr :)

4) Liker et suivre ApresLaBiere sur facebook (lien externe), twitter (lien externe) ou instagram (lien externe)

5) Penser à faire appel à Homo Conscientus (moi :)) (lien externe) pour des conférences, des formations ou des ateliers sur le sujet dans votre organisation ou école.

SOURCES / LIENS / POUR ALLER PLUS LOIN :

¹ Conférence “PENDANT LA BIERE #28, La pensée critique, fausse bonne idée ? (lien externe)” et “[Live] Une certaine vision de l’esprit critique — Commentaires conférence G. Bronner ‪@ApresLaBiere (lien externe)‬”

² Article LeMonde.fr “Prendre le train en France coûte 2,6 fois plus cher que l’avion (lien externe)

³ Dossier législatif “Enfants face à la publicité télévisuelle (lien externe)” / Papier addictions-france.fr “Promotion de l’alcool, les réseaux sociaux, un nouveau far west (lien externe)” /

Rapport “Contribution et régulation de la publicité pour une consommation plus durable (lien externe)

Vidéo Science4All “La technologie que tous les écolos oublient (ft. @ChezAnatole) (lien externe)

⁶ Article Wikipedia “Recyclage publicitaire (lien externe)

⁷ Article “The Most Hated Online Advertising Techniques (lien externe)” et article Wired “Why Don’t We Just Ban Targeted Advertising? (lien externe)

Vidéo Blast “PUBLICITÉ : EST-CE QUE ÇA MARCHE VRAIMENT ? — CORPORATE EP5 (lien externe)

Rapport de l’IEA “Energy and AI (lien externe)

¹⁰ Articles de Gauthier Roussilhe “Les émissions évitées de la numérisation (lien externe)” et “Les effets environnementaux indirects de la numérisation (lien externe)

¹¹ Rapport ADEME “Evaluation environnementale des effets directs et indirects du numérique pour des cas d’usage (lien externe)

¹² Article The Guardian “Social media algorithms ‘amplifying misogynistic content (lien externe)” et rapport “SAFER SCROLLING How algorithms popularise and gamify online hate and misogyny for young people (lien externe)” (university of Kent)

¹³ Vidéo de Science4All “5 IA surpuissantes (lien externe)

¹⁴ La vidéo la plus vue de Mr Beast pour 2021 “I Spent 50 Hours Buried Alive (lien externe)” (soyons honnêtes, je ne l’ai pas vue…, peut-être est-elle incroyable ?)

¹⁵ Article de Youtube “The Four Rs of Responsibility, Part 1: Removing harmful content (lien externe)

¹⁶ Version originale “1. Remove content that violates our policy as quickly as possible 2. Raise up authoritative voices when people are looking for breaking news and information 3. Reward trusted, eligible creators and artists 4. Reduce the spread of content that brushes right up against our policy line”

¹⁷ Interview 60 Minutes “Facebook Whistleblower Frances Haugen: The 60 Minutes Interview (lien externe)” et article du Wall Street Journal “Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead. (lien externe)

¹⁸ Livre “Careless People: A Cautionary Tale of Power, Greed, and Lost Idealism (lien externe)” et ted talk de Carole CadWalladr “This is what a digital coup looks like (lien externe)

¹⁹ Papier de Audrey Tang, E. Glen Weyl & al “Prosocial Media (lien externe)