
- Select a language for the TTS:
- French Female
- French Male
- French Canadian Female
- French Canadian Male
- Language selected: (auto detect) - FR
Play all audios:
Google, avec YouTube, Twitter, Facebook ou Instagram ont tous suspendu les comptes de Donald Trump, temporairement ou définitivement. © Crédits photo : Denis Charlet/AFP. ENTRETIEN AVEC
ROMAIN BADOUARD Depuis le 6 janvier, de nombreux réseaux sociaux ont banni temporairement ou définitivement Donald Trump, montrant le pouvoir déterminant des grandes plateformes numériques
sur la liberté d'expression et le fonctionnement du débat public en Occident. Quelles sont les conditions d’une meilleure régulation de ces acteurs et de l’espace public numérique ?
propos recueillis par Xavier Eutrope Publié le 14 janvier 2021 Le mercredi 6 janvier, une foule compacte de militants pro-Trump radicalisés partent à l’assaut du Capitole, après y avoir été
incités par Donald Trump. Le bilan à la fin de la journée est dramatique : cinq morts, dont un agent de la police du Capitole tué à coups d’extincteur et une partisane de Donald Trump
mortellement blessée par un coup de feu. Dans les jours qui suivent, Le président américain en exercice voit ses comptes personnel suspendus (Facebook et YouTube) ou supprimés (Twitter).
Raison invoquée : le président aurait enfreint leurs politiques de lutte contre l’incitation à la violence. Ce « bannissement », inédit pour un chef d’État, provoque de nombreux débats sur
la régulation des médias sociaux et la modération des propos qui y sont tenus. Entretien avec le chercheur Romain Badouard, maître de conférences en sciences de l’information et de la
communication à l’université Paris-II et auteur des _Nouvelles Lois du Web. Modération et censure_ (Seuil, 2020). _COMMENT ANALYSEZ-VOUS LA DÉCISION DE TWITTER, FACEBOOK, YOUTUBE ET
D’AUTRES, DE SUSPENDRE VOIRE BANNIR DONALD TRUMP DE LEURS PLATEFORMES ? _ ROMAIN BADOUARD : Cette affaire montre le pouvoir déterminant des grandes plateformes numériques sur la liberté
d'expression ainsi que le fonctionnement du débat public et de la démocratie en Occident. Ces plateformes sont des entreprises privées, fournissant des services privés, et on peut
considérer qu'à ce titre elles ont le droit de décider de la manière dont on utilise les technologies qu'elles mettent à disposition, donc de modérer ou de bannir des utilisateurs,
quels qu'ils soient. Mais ces espaces privés sont devenus les principales arènes du débat public dans les démocraties occidentales. On ne peut donc pas considérer que ces plateformes
ne sont que des espaces privés. Elles doivent aussi faire l'objet d'une régulation de la part des pouvoirs publics. _DE NOMBREUSES PERSONNES ONT FAIT PART DE LEUR ÉTONNEMENT VOIRE
SIDÉRATION À LA SUITE DU BANNISSEMENT DE DONALD TRUMP DE CES PLATEFORMES. CE N’EST CEPENDANT PAS LA PREMIÈRE FOIS QU'ELLES PRENNENT DE TELLES DÉCISIONS, UNILATÉRALES ET DISCUTABLES.
VOUS CITEZ DANS VOTRE LIVRE LE CAS DE PAGES FACEBOOK PLUTÔT CLASSÉES À GAUCHE QUI ONT VU LEUR VISIBILITÉ S’ÉVANOUIR SANS RAISON APPARENTE. _ Un palier a été franchi, et c’est ce qui attire
autant l’attention. C’est le président des États-Unis, élu démocratiquement, qui se fait censurer et bannir par des modérateurs et des plateformes privés. Mais effectivement, la question de
la régulation privée du débat public et du pouvoir de censure de ces plateformes ne date pas d’hier. Je me réjouis tout de même que nous en parlions autant. Ces controverses nous poussent à
nous demander collectivement ce que pourrait être une régulation réellement démocratique de ces plateformes. _EN LISANT VOTRE LIVRE, ON PEUT AVOIR LE SENTIMENT QUE CES SERVICES ONT ÉTÉ
FONDAMENTALEMENT MAL CONSTRUITS, QUE LEURS FONCTIONNALITÉS N'ONT PAS FORCÉMENT ÉTÉ PENSÉES POUR LIMITER LES ABUS ET PERMETTRE, PAR EXEMPLE AUX PERSONNES VICTIMES DE HARCÈLEMENT, DE SE
PROTÉGER. EST-IL POSSIBLE DE LES AMÉLIORER ? _ Ces plateformes n'ont pas été créées pour devenir les arènes du débat public. Elles étaient initialement des réseaux sociaux qui devaient
permettre à des personnes qui se connaissent de se réunir entre elles. Avec l’accroissement de leur popularité, elles sont devenues des espaces de débats très importants et ont, à ce titre,
de nouvelles responsabilités. Les technologies ne sont jamais immuables et elles peuvent être déconstruites pour être reconstruites à nouveau. Ces plateformes peuvent être poussées à
modifier leur modèle économique et/ou technologique. Il faudrait leur imposer des choix de design, notamment dans leur conception même. Instagram a par exemple expérimenté le fait de ne plus
comptabiliser les likes sur les photos. YouTube a décidé de moins recommander de contenus complotistes sur sa plateforme. Il y a beaucoup de leviers de régulation technologiques à notre
disposition. Ce qui manque, c’est une volonté politique pour imposer ces choix, même si elle est aujourd'hui en train d'émerger. _COMMENT EXPLIQUEZ-VOUS QUE CETTE VOLONTÉ POLITIQUE
A MIS TANT DE TEMPS À ÉMERGER ? _ Les personnalités politiques n'ont peut-être pas perçu les dangers démocratiques derrière ces grandes plateformes, et ont d’abord vu ces réseaux comme
des outils de modernité. On peut poser l’hypothèse qu’il fallait y être et ne surtout pas les critiquer, de peur de paraître vieux jeu. Ces réseaux étaient aussi vus comme des leviers de
croissance économique, que l’on n’a pas voulu entraver alors qu’elle était promise par les grandes entreprises du numérique. Nous sommes entrés dans une nouvelle séquence depuis le milieu
des années 2010 : ces grandes plateformes présentent une somme de dangers démocratiques potentiels, que ce soit la surveillance généralisée, de nouvelles formes de propagande, la
réutilisation des données personnelles, la violence expressive dans le débat. C’est un peu le revers de la médaille. On arrive aujourd'hui à un moment historique : celui de la
régulation. _Y A-T-IL UNE VOLONTÉ DES POUVOIRS PUBLICS DE « DÉJUDICIARISER » OU EXTRA-JUDICIARISER LES DÉCISIONS CONCERNANT CE QUI SE DIT ET CE QUI SE FAIT SUR LES PLATEFORMES DE MÉDIAS
SOCIAUX ? _ Cette question de l’extra-judiciarisation des décisions est un gros problème. Il est notamment dénoncé par les organisations de défense des libertés sur Internet, qui y voient
des formes de privatisation de la censure. Vous avez des États qui font pression sur des acteurs privés pour censurer davantage ce qui peut se dire sur leurs plateformes, faisant
disparaître, de fait, le juge du paysage. C’est notamment ce que prévoyait la loi Avia. Au passage, la loi sur les manipulations de l'information [parfois appelée « loi fake news » ou «
loi infox », NDLR] en France ne s’inscrit pas dans cette tendance car elle crée une nouvelle procédure judiciaire. Dans un monde idéal, un parquet numérique serait notifié de toutes les
décisions des plateformes, et capable à la fois d'engager des procédures contre les internautes qui ont tenu des propos illégaux et de sanctionner les plateformes qui se livrent à de la
censure abusive. Dans la pratique, cela paraît difficilement envisageable étant donné les moyens dont dispose la justice aujourd'hui et le volume de contenus qui sont publiés sur les
réseaux sociaux. Il faut donc plutôt réfléchir à la façon dont les plateformes vont mieux collaborer avec la justice pour permettre, grâce à la communication des données,
l'identification de personnes qui se livrent à du cyberharcèlement, à de la propagande jihadiste, des menaces de mort, et ainsi de suite. _IL Y A EU DES PROCÈS POUR DES PROPOS VIOLENTS
TENUS ET DIFFUSÉS SUR LES RÉSEAUX SOCIAUX. LA JUSTICE EST-ELLE EFFICACE POUR LUTTER CONTRE CE GENRE DE MENACES ? _ Les procès ont une efficacité symbolique qui ne doit pas être négligée. Il
y a des procès médiatiques, je pense notamment à celui de Nadia Daam contre ses cyber harceleurs. Certes, c’est une goutte d'eau dans l'océan, mais ça a quand même le mérite de
montrer que, non, on ne peut pas tout dire même lorsque l'on se croit protégé par un écran d'ordinateur. On ne peut pas menacer quelqu’un de mort, c'est interdit par la loi et
cela vaut aussi pour Internet. Si cela peut permettre une prise de conscience de certains internautes, qui cherchent à faire des « mauvaises blagues », ce n’est peut-être pas plus mal. Ce
que montrent aussi ces affaires, c’est qu’il est possible d'identifier ceux qui profèrent des menaces de mort ou harcèlent d’autres utilisateurs sur les réseaux sociaux et que même si
ces personnes sont anonymes, elles peuvent être identifiées grâce à leur adresse IP, qui peut être transmise à la justice. Ce dont nous avons besoin, et c'est ce à quoi devrait
s’atteler un parquet numérique, c'est que les plateformes collaborent de manière plus efficace avec le pouvoir judiciaire. Ce n’était, jusqu’à aujourd’hui, pas encore le cas. La lutte
antiterroriste a montré que malgré tout, il était possible de le faire. _COMMENT FAIRE POUR QUE LES PLATEFORMES RÉPONDENT D’AVANTAGE AUX EXIGENCES DÉMOCRATIQUES PLUTÔT QU'À DES
SANCTIONS ÉCONOMIQUES, EN SACHANT QU’IL N’Y A PAS FORCÉMENT D’ALIGNEMENT ENTRE CES DEUX INTÉRÊTS ? (VOIR NOTRE INTERVIEW DE YOCHAI BENKLER)_ Les pouvoirs publics doivent fixer des normes
minimales de fonctionnement de ces réseaux dans les démocraties. Mais la régulation ne peut pas se limiter uniquement au rôle des États : une régulation réellement démocratique des
plateformes passe aussi par l'engagement des citoyens, celui des entreprises et par la régulation du marché publicitaire. On se rend compte que beaucoup d'entreprises qui financent
les espaces publicitaires sur ces plateformes ont un moyen de pression très important sur leur fonctionnement. Lorsqu'elles refusent de diffuser de la publicité dans des environnements
dans lesquels elles jugent qu'il y a trop de désinformation ou trop de violence, des actions sont prises. On peut regretter qu’il faille en arriver à des menaces économiques pour faire
bouger les choses, mais on peut aussi considérer que ces entreprises ont leur rôle à jouer dans la régulation des plateformes et de l'espace public numérique, notamment par le biais du
fonctionnement du marché publicitaire, qui pourrait lui aussi être largement assaini sur internet. _ON OBSERVE PARFOIS UN MANQUE DE TRANSPARENCE ET DE CLARTÉ À CE SUJET. VOUS ÉVOQUEZ UN
ÉPISODE PARTICULIÈREMENT MARQUANT DANS VOTRE LIVRE. DES SOCIÉTÉS ONT FAIT PART À GOOGLE DE LEUR MÉCONTENTEMENT DE VOIR CERTAINES DE LEURS PUBLICITÉS APPARAÎTRE SUR DES PAGES FAISANT
L’APOLOGIE DU TERRORISME, LES FINANÇANT DE FAIT. GOOGLE A ALORS CHANGÉ SON FONCTIONNEMENT, PERMETTANT AUX ANNONCEURS DE CHOISIR SUR QUELS GENRES DE PAGES LEURS PUBLICITÉS POURRAIENT
APPARAÎTRE… POSSIBILITÉ TOTALEMENT TRANSFORMÉE QUELQUES MOIS APRÈS, SANS QUE PERSONNE N’EN SACHE RIEN, OPÉRANT DE FAIT UN RETOUR EN ARRIÈRE. _ La question de la régulation des plateformes
par la transparence est essentielle, mais elle présente aussi un certain nombre d’écueils. On voit au sein des États européens, en ce moment particulièrement, des injonctions faites aux
plateformes d'être plus transparentes en publiant des rapports présentant le fonctionnement de leurs dispositifs de modération, des registres des publicités politiques, etc. Ce qui est
plutôt positif. En France, c'est le CSA qui doit contrôler ces rapports. C'est une bonne chose car cela permet d'en apprendre davantage sur la manière dont les plateformes
modèrent les propos qui sont tenus. Mais réguler par la transparence pose un problème majeur : le régulateur devient dépendant des données qui lui sont transmises par les plateformes. On ne
sait d’elles et de leurs actions que ce qu'elles veulent bien nous dire. Les plateformes fournissent des données, qu’il est impossible d’authentifier ou de certifier. Le nœud du
problème consiste donc à savoir comment accéder de manière indépendante aux données des plateformes. La Commission européenne par exemple, avec le Digital Service Act qui a été présenté en
décembre 2020, préconise pour les très grandes plateformes l'obligation de réaliser des audits indépendants une fois par an, durant lesquels des agences spécialisées pourront avoir
accès aux données des plateformes pour pouvoir les certifier. Sans accès certifié à ces données, la régulation par la transparence ne peut pas fonctionner. _LE CARACTÈRE INTERNATIONAL DES
GRANDES PLATEFORMES NUMÉRIQUES COMPLIQUE-T-IL LA SITUATION ? _ Pendant longtemps, ce caractère international d'Internet, avec des serveurs qui se trouvent dans un pays, des services qui
sont proposés dans un autre, a compliqué beaucoup de choses, notamment la coopération judiciaire qui visait à limiter les discours illégaux dans certains pays. Aujourd'hui,
paradoxalement, la centralisation du débat autour de grandes plateformes facilite les choses. Certes ces plateformes dépendent avant tout du droit américain, et pour la plupart du droit
californien, mais on voit que les États, notamment en Europe, peuvent leur imposer des normes. Et les plateformes se mettent en conformité avec des dispositifs de modération à deux étages.
Le premier étage, ce sont les standards de publication qui s'appliquent à l'ensemble des internautes dans le monde entier, le deuxième, ce sont les réglementations et restrictions
nationales. Par exemple, l’adoption de la loi NetzDG en Allemagne ou de la Loi sur les manipulations de l'information en France, font que les versions des différents services ne sont
pas exactement identiques, non seulement entre ces deux pays, mais aussi avec leurs voisins. Cela se manifeste différemment en fonction des plateformes. Sur Facebook, ce sont les types de
contenus interdits qui diffèrent, sur YouTube, c’est la manière de signalement des contenus. Et sur Twitter, c’est l'utilisation de certains hashtags qui va être interdite ou autorisée
en fonction des pays. Les plateformes sont dans une logique de mise en conformité avec les règlements nationaux, et c'est une bonne chose parce que cela montre que le pouvoir politique
et le droit ont encore leur mot à dire dans la régulation de ces espaces. _VOUS AVEZ ÉVOQUÉ LA RÉGULATION DÉMOCRATIQUE DES PLATEFORMES, POURRIEZ-VOUS NOUS PARLER DE CE QUI EST EN PRÉPARATION
AU ROYAUME-UNI, OÙ DOIT VOIR LE JOUR UNE STRUCTURE DE SURVEILLANCE DE LA RÉGULATION ? _ L'une des grandes questions de la régulation des plateformes est de savoir qui doit
s'occuper de cette supervision de la régulation. En France il a été décidé que c'était le CSA. En Allemagne, c'est le ministère de la Justice qui mandate des organisations qui
s’en occupent. Au Royaume-Uni, la nouvelle législation vise à créer une autorité indépendante qui aurait pour mission la régulation des réseaux sociaux. Elle serait créée à partir d'un
impôt spécifique, levé sur le monde des entreprises de l'économie numérique. Il y a différentes façons de faire, tout l'enjeu étant de pouvoir accéder aux données des plateformes
et de savoir comment nous serons capables de certifier que les informations qu'on contrôle sont bien authentiques. _EN LISANT VOTRE LIVRE, ON PEUT SE DEMANDER S’IL NE SERAIT PAS PLUS
SIMPLE DE DÉMONTER TOUTES LES PLATEFORMES ET DE LES RECONSTRUIRE DE ZÉRO SUR LA BASE D’INITIATIVES PUBLIQUES TRANSNATIONALES. SERAIT-CE SOUHAITABLE OU MÊME RÉALISABLE ? _ On peut imaginer
que des grandes plateformes publiques et transnationales soient créées pour prendre la succession de ces grandes plateformes privées. Mais je me fais assez peu d'illusions sur le fait
qu'elles ne rencontreraient pas de succès. Les plateformes comme YouTube, Facebook ou Twitter bénéficient de l'effet de réseau, un principe économique qui veut que l’on a intérêt à
utiliser un service parce qu'il est utilisé par beaucoup de monde. Si j'utilise Facebook, c'est parce que tous mes amis y sont. Si je vais sur YouTube, c'est parce
qu'il y a beaucoup de contenus disponibles. Créer des plateformes publiques respectueuses des données et qui ne seraient pas dans une démarche de ciblage publicitaire est tout à fait
envisageable. On peut cependant penser que les internautes préfèreront rester sur les plateformes existantes. A mon avis, la menace pour ces plateformes de médias sociaux vient plutôt du
marché et de l'émergence d'autres services qui vont les concurrencer. On le voit aujourd'hui d'ailleurs avec Facebook, qui est beaucoup moins utilisé par les jeunes
générations, qui lui préfèrent Snapchat ou TikTok. Ce que nous apprend la courte histoire du Web, c'est que les grandes entreprises qui sont en situation de quasi-monopole peuvent très
bien tomber dans l'oubli en quelques années. _EST-IL POSSIBLE AUJOURD'HUI DE PARVENIR À UNE MODÉRATION DES CONTENUS EFFICACE, TRANSPARENTE ET QUI RESPECTE LES UTILISATEURS ? _
C'est envisageable, mais la massification des publications représente un gros problème. Lorsque l’on voit, par minute, le nombre d'heures de vidéos postées sur YouTube, le nombre
de contenus publiés sur Facebook ou de messages partagés sur Twitter, on a du mal à imaginer comment une modération uniquement humaine pourrait en venir à bout. C'est pour cela que les
plateformes ont opté pour des formes de modération automatisées, avec des algorithmes qui scannent les contenus à la recherche de publications problématiques, d'usage de mots ou
d'images interdits. Il me semble difficile d’aller contre ce phénomène d'automatisation. Ces algorithmes créent aussi beaucoup de faux positifs et générent de la censure abusive,
ce qui est un autre problème. Face à ça, il faut garantir un certain nombre de droits aux usagers, notamment une transparence de la procédure de modération. Si, par exemple, nous sommes
l’objet d’une procédure, il faut que nous soyons mis au courant, informé des décisions qui ont été prises et les critères sur lesquelles elles se fondent. Il faut aussi pouvoir bénéficier
d'un droit d'appel qui nous permette de demander ou d'exiger que leurs contenus soient à nouveau évalués. Facebook, par exemple, a mis en place un droit d'appel depuis
2018. Les chiffres fournis par la plateforme elle-même montrent qu'il y a quand même une part non négligeable de contenus supprimés qui sont restaurés après appel, de l’ordre de 12 %.
Il y a aussi des besoins à ce niveau-là. _VOUS ÉVOQUEZ DANS VOTRE ESSAI LA FORMATION DE GROUPES DE CONTRE-DISCOURS SUR LES RÉSEAUX SOCIAUX, QUI VEULENT OCCUPER LE TERRAIN ET CONTRER LES
PAROLES HAINEUSES EN APPORTANT DES ARGUMENTS OU EN DÉSAMORÇANT L’AGRESSIVITÉ DES PROPOS. DE TELLES INITIATIVES DOIVENT-ELLES ÊTRE FINANCÉES PUBLIQUEMENT ? _ La régulation vraiment
démocratique passe aussi par l'engagement des citoyens et leur participation. C’est une partie de la solution, mais ce n’est pas une solution miracle. Le contre-discours permet, dans
bien des cas, de pacifier les débats ou d'alerter la majorité silencieuse, qui regarde les débats sans y participer, du caractère falsifié d’une information. C’est important,
d'autant plus que les internautes sont au plus près du contenu. Pour les plateformes, ils correspondent aussi à une sorte de force de modération distribuée, qu'il est important de
mobiliser. Les plateformes essaient par ailleurs de récupérer les initiatives de contre-discours, en cherchant notamment à financer des associations. Du côté des pouvoirs publics, on a
récemment pu voir Marlène Schiappa appuyer la création de cellules de riposte, qui porteraient des contre-discours républicains. _BEAUCOUP DE GENS ONT FAIT PART DE LEUR CIRCONSPECTION FACE À
CETTE PROPOSITION DE LA MINISTRE DÉLÉGUÉE CHARGÉE DE LA CITOYENNETÉ… _ Ce qui fait la force de ces contre-discours, à mon avis, c'est aussi leur caractère spontané. On peut imaginer
que cela fonctionne un petit peu mieux lorsqu’il s'agit de conversations entre internautes que lorsque c'est labelisé par les plateformes ou par les pouvoirs publics. Lorsque
Marlène Schiappa évoque cette initiative, on imagine des gens dans un ministère en train de répondre aux internautes, ce qui ne peut pas être efficace. Finalement, l'idée est moins de
convaincre les internautes qui ne sont pas d'accord que d'occuper l'espace du débat et de montrer aussi que d'autres discours sont possibles. _EN CONCLUSION DE VOTRE
ESSAI, VOUS ÉVOQUEZ TROIS PRINCIPES QUI PERMETTRAIENT DE PROTÉGER LA LIBERTÉ D'EXPRESSION ET LA GARANTIR. POURRIEZ-VOUS NOUS EN DIRE UN PEU PLUS ? _ Face à ce pouvoir des grandes
entreprises privées sur la régulation du débat public, nous pouvons leur imposer des normes, mais nous pouvons aussi chercher à réfléchir à la manière dont nous pourrons doter les citoyens
de nouveaux droits. L’un des principes que je présente en conclusion est celui de la transparence, c’est-à-dire comment imposer aux plateformes la publication régulière d'un certain
nombre d'information liées à leurs activités de modération. Il y a ensuite le principe d'appel, qui veut que les internautes qui pensent avoir été victimes de censure abusive
puissent exiger un réexamen de leur publication. Le dernier principe, c'est celui qui garantit le fonctionnement des deux autres : l'accès aux données. Des agences indépendantes ou
des pouvoirs publics pourraient avoir un pouvoir d’audit qui permettrait de certifier les données transmises par les plateformes. C'est vraiment le nœud du problème. En France, les
plateformes de médias sociaux transmettent des rapports au CSA ou publient des rapports sur des plateformes dédiées, mais nous savons très peu de choses sur l'authenticité de ces
données. _ÊTES-VOUS CONFIANT ? PENSEZ-VOUS QUE LES CHOSES PEUVENT CHANGER DANS UN FUTUR PROCHE ? _ Je suis, bizarrement, plutôt confiant. Nous nous trouvons à un moment particulier qui est
propice à la régulation de ces grandes plateformes. D'abord, parce que les pouvoirs publics, aux États-Unis ou en Europe, votent de nouvelles lois ou engagent des procédures judiciaires
qui poussent les plateformes à réformer leurs dispositifs de modération, ce qui fait bouger les choses. Et les médias, ainsi que les citoyennes et les citoyens, s'intéressent au sujet.
Le fait que toutes et tous se saisissent du dossier crée un environnement propice. Jusqu’où cela ira-t-il, arriverons-nous à des formes véritablement démocratiques de régulation ?
C'est encore la grande question, mais on peut déjà se satisfaire que les choses bougent enfin, après de nombreuses années d’inertie. MISE À JOUR DU 14/01/2021 À 16H13 : AJOUT DE LA
PRÉCISION QUE LES COMPTES SUSPENDUS OU SUPPRIMÉS SONT LES COMPTES PERSONNELS DE DONALD TRUMP.