Modération des contenus en ligne : combattre le mal ou faire taire l’opposition ?


Un homme sur le clavier d’un ordinateur, regardant l’écran © Getty Images

Ces derniers mois, les critiques se sont multipliées contre certaines entreprises de médias sociaux concernant la manière dont elles modèrent le contenu de leurs utilisateurs.

Ces entreprises sont souvent confrontées à des dilemmes liés aux droits de l’homme : en luttant farouchement contre ce qui est considéré comme du contenu préjudiciable, elles risquent de réduire au silence des « discours protégés », c’est-à-dire les discours qui, en vertu du droit international, devraient être autorisés. Le fait de modifier ou de supprimer des contenus porte atteinte aux droits à la liberté d’expression et à la vie privée, et peut facilement conduire à la censure.

Face au besoin d’en faire plus pour garantir le principe de responsabilité, de nombreux gouvernements ont commencé à réglementer les contenus en ligne. Une quarantaine de nouvelles lois sur les médias sociaux ont été adoptées dans le monde au cours des deux dernières années et une trentaine sont à l’étude.

Selon l’ONU Droits de l’homme, il s’agit d’une tendance inquiétante qui a des conséquences immenses sur le débat public et la participation.

Pour Peggy Hicks, Directrice de la Division des activités thématiques d’ONU Droits de l’homme, presque tous les pays qui ont adopté des lois relatives aux contenus en ligne ont ainsi porté atteinte aux droits de l’homme.

« Cela se produit car les gouvernements réagissent à la pression du public en proposant des solutions simples pour des problèmes qui sont complexes », a-t-elle déclaré à l’occasion d’un point de presse la semaine dernière. « Par ailleurs, certains gouvernements voient cette législation comme un moyen de limiter les discours qu’ils n’aiment pas, voire de faire taire la société civile ou d’autres critiques. »

« Le seul moyen de faire face à ces problèmes est d’adopter une approche fondée sur les droits de l’homme », a-t-elle indiqué.

« Nous devons alerter l’opinion publique avec force et persistance, étant donné la tendance à cloner les réglementations défaillantes et à faire prospérer les mauvaises pratiques. »

Les nouvelles lois, source d’inquiétudes

À la suite du torrent de propos racistes contre des joueurs de football anglais noirs après la finale de l’UEFA Euro 2021, les appels se sont multipliés au Royaume-Uni pour adopter au plus vite une nouvelle législation sur les services en ligne.

Cependant, le projet de loi sur la sécurité en ligne, qui a été présenté en mai, contient des dispositions susceptibles d’entraîner la suppression d’une grande partie des discours protégés.

De même, en Inde, à la suite de certains incidents graves d’incitation à la violence en ligne, le gouvernement a dévoilé en février des directives intermédiaires et un code de conduite pour les médias numériques. Si ces nouvelles règles prévoient des obligations utiles pour les entreprises en matière de transparence et de recours, un certain nombre de dispositions suscitent de vives inquiétudes.

Selon les nouvelles réglementations, par exemple, les autorités non judiciaires ont le pouvoir de demander le retrait rapide de contenus et les entreprises et leur personnel sont exposés à des risques accrus en matière de responsabilité en cas de non-respect. En outre, ces règles menacent de compromettre le chiffrement sécurisé de bout en bout. Plusieurs conflits ont déjà fait surface et ont été portés devant les tribunaux indiens.

Des experts d’ONU Droits de l’homme ont également exprimé leur inquiétude concernant de nouvelles lois et des projets de loi dans d’autres pays, notamment en Australie*, au Brésil*, au Bangladesh*, en France, à Singapour* et en Tanzanie*.

Peggy Hicks a également déclaré que les lois de ce type comportent souvent des problèmes similaires, notamment des définitions erronées des contenus illégaux ou nuisibles. « Une trop grande importance est donnée à la suppression des contenus, le contrôle judiciaire est limité et l’intelligence artificielle ou les algorithmes sont utilisés à outrance. »

Fermeture des médias sociaux

Le signalement du contenu par les entreprises de médias sociaux a également entraîné des réactions radicales de la part de certains gouvernements, notamment des interruptions majeures. Le mois dernier, le Gouvernement nigérian a annoncé la suspension de Twitter pour une durée indéterminée après la suppression d’un message du compte du président Buhari, le réseau estimant que ce tweet enfreignait ses règles d’utilisation.

En quelques heures, les principales sociétés de télécommunications du Nigeria ont bloqué l’accès de millions de personnes à Twitter et les autorités nigérianes ont menacé de poursuivre en justice quiconque contournerait l’interdiction.

Selon l’ONU Droits de l’homme, les fermetures comme celle-ci importent car elles limitent la capacité de la population à accéder aux informations, ce qui affecte également d’autres droits comme le travail, la santé et l’éducation. Elles ont également d’énormes coûts économiques et freinent le développement.

« Mais ce n’est pas seulement une question de droits et de lois : disposer de règles transparentes en matière de modération des contenus et veiller à ce que différents points de vue soient représentés est également une question de confiance dans les institutions, l’un des biens les plus précieux des sociétés démocratiques », a-t-elle affirmé.

Législation sur les services numériques de l’Union européenne : une bonne manière de réglementer

D’après l’ONU Droits de l’homme, les décisions prises par l’Union européenne au cours des prochains mois pourraient avoir un impact sur les politiques numériques à l’échelle mondiale. L’UE examine actuellement la législation sur les services numériques, dont le projet présente des éléments positifs : il est fondé sur le langage des droits de l’homme, il contient des exigences claires en matière de transparence pour les plateformes et il a été rédigé selon un processus participatif.

Cependant, l’ONU Droits de l’homme estime que certains signaux contradictoires subsistent, notamment le risque qu’une responsabilité trop large soit imposée aux entreprises pour les contenus générés par les utilisateurs et que le contrôle judiciaire soit limité. Le processus de rédaction pourrait également bénéficier du concours d’autres parties prenantes.

Mme Hicks a appelé à la prudence durant le processus : « Lorsque les démocraties commencent à réglementer, cela provoque un effet domino à travers le monde, et d’autres pays risquent que suivre le pas. L’Internet ne connaît pas de frontières, nous devons essayer d’obtenir un espace numérique mondial où les gens peuvent exercer leurs droits en toute sécurité. »

Cinq actions pour l’avenir

Pour résoudre les dilemmes liés à la réglementation et à la modération des contenus en ligne, l’ONU Droits de l’homme a proposé cinq actions aux États et aux entreprises.

Tout d’abord, l’ONU Droits de l’homme insiste sur le fait que la réglementation devrait se concentrer sur l’amélioration des processus de modération des contenus, plutôt que d’ajouter des restrictions spécifiques aux contenus.

Face à des questions complexes par exemple, ce sont des personnes qui devraient prendre les décisions, et non des algorithmes.

Deuxièmement, les restrictions imposées par les États devraient être fondées sur des lois, elles devraient être claires, et elles devraient être nécessaires, proportionnées et non discriminatoires.

Troisièmement, les entreprises devraient se montrer transparentes sur la manière dont elles sélectionnent et modèrent les contenus et sur la manière dont elles partagent les informations, et les États devraient faire preuve de transparence concernant leurs demandes de restriction de contenu ou d’accès aux données des utilisateurs.

Quatrièmement, les utilisateurs devraient avoir des possibilités effectives de faire appel des décisions qu’ils considèrent comme injustes, et les tribunaux indépendants devraient avoir le dernier mot sur la légalité du contenu.

Enfin, la société civile et les experts devraient être impliqués dans la conception et l’évaluation des réglementations.

Les entreprises peuvent et doivent faire mieux

Les entreprises de médias sociaux sont souvent critiquées à la fois pour leur incapacité à supprimer les contenus préjudiciables et pour les cas où elles le font.

Dans un cas comme dans l’autre, il existe peu de moyens pour les utilisateurs de faire part de leurs préoccupations. Par exemple, lors de la récente flambée de violence en Israël et dans le Territoire palestinien occupé en mai dernier, les voix palestiniennes ont été sapées de manière disproportionnée par les pratiques de modération du contenu des entreprises de médias sociaux, et les possibilités de contester les décisions de retrait étaient limitées. Instagram a reconnu l’existence de problèmes avec ses systèmes de curation automatisée.

Les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme stipulent que toutes les entreprises ont la responsabilité de respecter les droits de l’homme.

Les entreprises peuvent et doivent faire beaucoup plus pour être transparentes et offrir des voies de recours efficaces et accessibles, déclare Mme Hicks. Les personnes visées par les incitations en ligne tout comme celles censurées en ligne ont toutes besoin de réponses objectives et claires à leurs préoccupations.

« Nous sommes confrontés à des visions contradictoires de notre vie privée, de notre expression et de nos vies, qui sont motivées par des économies et des entreprises concurrentes », a-t-elle ajouté.

« Les entreprises et les États se sont engagés à respecter les droits de l’homme. Commençons par leur faire tenir cet engagement. »

23 juillet 2021

Voir aussi