Header image for news printout

Michelle Bachelet : les risques d’atteinte à la vie privée liés à l’intelligence artificielle nécessitent une action urgente

العربية | English | Español

GENÈVE (15 septembre 2021) – La Haute-Commissaire des Nations Unies aux droits de l’homme Michelle Bachelet a souligné mercredi la nécessité d’instaurer de toute urgence un moratoire sur la vente et l’utilisation des systèmes d’intelligence artificielle (IA) qui représentent un risque grave d’atteinte aux droits de l’homme, jusqu’à ce que des garanties adéquates soient mises en place. Elle a également demandé à ce que les applications de l’IA ne pouvant pas être utilisées conformément au droit international des droits de l’homme soient interdites.

« L’intelligence artificielle peut être bénéfique, en aidant les sociétés à surmonter certains des grands défis de notre époque. Toutefois, les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles ne tiennent pas suffisamment compte de la manière dont elles affectent les droits de l’homme », a déclaré Mme Bachelet.

 

Dans le cadre de ses travaux* sur la technologie et les droits de l’homme, le Haut-Commissariat des Nations Unies aux droits de l’homme (HCDH) a publié aujourd’hui un rapport qui analyse la manière dont l’IA, y compris le profilage, la prise de décision automatisée et d’autres technologies d’apprentissage automatique, affecte le droit de la population à la vie privée et d’autres droits, notamment les droits à la santé, à l’éducation, à la liberté de mouvement, à la liberté de réunion pacifique et d’association, et à la liberté d’expression.

« L’intelligence artificielle imprègne désormais presque tous les aspects de notre vie physique et mentale, et même notre état émotionnel. Les systèmes d’IA sont utilisés pour choisir qui bénéficie des services publics, pour décider qui a une chance d’être recruté pour un emploi et, bien sûr, ils influent sur les informations que les gens voient et peuvent partager en ligne », a déclaré la Haute-Commissaire.

Ce rapport examine comment les États et les entreprises se sont souvent précipités pour intégrer des applications de l’IA, sans faire preuve de diligence raisonnable. De nombreuses personnes ont déjà été traitées injustement à cause de l’IA, comme le fait de se voir refuser des prestations de sécurité sociale à cause d’outils d’IA défectueux ou d’être arrêté(e) à cause d’un problème de reconnaissance faciale.

Le rapport explique en détail comment les systèmes de l’IA s’appuient sur de vastes ensembles de données, les informations sur les individus étant collectées, partagées, fusionnées et analysées de manières multiples et souvent opaques. Les données utilisées pour informer et guider les systèmes d’IA peuvent être erronées, discriminatoires, obsolètes ou non pertinentes. Le stockage à long terme des données présente également des risques particuliers, car les données pourraient à l’avenir être exploitées de manière encore inconnue. 

« Étant donné la croissance rapide et continue de l’IA, combler l’immense déficit de responsabilité dans la manière dont les données sont collectées, stockées, partagées et utilisées est l’une des questions en matière de droits de l’homme les plus urgentes auxquelles nous sommes confrontés », a déclaré Mme Bachelet.

Les déductions, les prévisions et la surveillance effectuées par les outils d’IA, y compris la recherche d’informations sur les modèles de comportement humain, soulèvent également de graves questions. Les ensembles de données biaisés sur lesquels s’appuient les systèmes d’IA peuvent conduire à des décisions discriminatoires, et ces risques sont encore plus élevés pour les groupes déjà marginalisés. 

« Le risque de discrimination lié aux décisions prises par l’IA – des décisions qui peuvent changer, définir ou endommager des vies humaines – est bien réel. C’est pourquoi il faut une évaluation et un suivi systématiques des effets des systèmes d’IA afin d’identifier et d’atténuer les risques en matière de droits de l’homme », a déclaré Mme Bachelet.

 

Les entreprises et les États doivent également faire preuve d’une bien plus grande transparence quant à la manière dont ils conçoivent et utilisent l’IA.

Selon le rapport, « la complexité de l’environnement de données, des algorithmes et des modèles qui sous-tendent le développement et le fonctionnement des systèmes d’IA, ainsi que la dissimulation intentionnelle d’informations de la part des acteurs gouvernementaux et privés sont des facteurs qui sapent les moyens dont dispose le public pour comprendre véritablement les effets des systèmes d’IA sur les droits de l’homme et la société ».

« Nous ne pouvons pas continuer à être à la traîne dans le domaine de l’IA – à autoriser son utilisation avec des limites et un suivi pratiquement ou totalement inexistants, et à devoir faire face à ses conséquences presque inévitables en matière de droits de l’homme. L’utilité de l’IA pour la population est indéniable, mais la capacité de l’IA à alimenter les violations des droits de l’homme à une échelle colossale et pratiquement sans visibilité l’est tout autant. Il faut agir dès maintenant pour mettre en place des protections en matière de droits de l’homme quant à l’utilisation de l’IA, pour le bien de tous », a souligné Mme Bachelet.

FIN

Lire le rapport complet (en anglais) ici

À consulter : High Commissioner’s statement on the implications of the Pegasus spyware to the Council of Europe on 14 September 2021

Nous vous invitons à consulter la page Web du HCDH sur le droit à la vie privée à l’ère du numérique : http://www.ohchr.org/FR/Issues/DigitalAge/Pages/DigitalAgeIndex.aspx

Pour plus d’informations ou pour toute demande des médias, veuillez contacter :

Rupert Colville + 41 22 917 9767 / rupert.colville@un.org o
Ravina Shamdasani - + 41 22 917 9169 / ravina.shamdasani@un.orgo
Liz Throssell + 41 22 917 9296 / elizabeth.throssell@un.org o
Marta Hurtado - + 41 22 917 9466 / marta.hurtadogomez@un.org