Header image for news printout

Los riesgos de la inteligencia artificial para la privacidad exigen medidas urgentes –Bachelet

العربية | English | Français

GINEBRA (15 de septiembre de 2021) – La Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, enfatizó el miércoles la urgente necesidad de establecer una moratoria a la venta y el uso de los sistemas de inteligencia artificial (IA) que amenazan gravemente a los derechos humanos, hasta que se hayan puesto en vigor las salvaguardas adecuadas. Bachelet pidió además que se prohíban los programas de AI cuyo uso no cumpla con la normativa internacional de derechos humanos.

“La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”, declaró Bachelet.

“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, añadió la Alta Comisionada. “Pero  dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”. 

Como parte de su labor* en materia de tecnología y derechos humanos, la Oficina de Derechos Humanos de la ONU publica hoy un informe en el que se analiza cómo la IA -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos, incluidos los relativos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica, y la libertad de expresión.

“La inteligencia artificial llega ahora a casi todos los rincones de nuestras vidas, e incluso alcanza a nuestros estados emocionales. Los sistemas de IA se usan para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet”, señaló la Alta Comisionada.

En el informe se examina cómo a menudo los Estados y las empresas se han precipitado a incorporar los programas informáticos de IA sin ejercer la diligencia debida. Ha habido muchos casos de personas que han sido injustamente tratadas a causa de la IA, ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial.

En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos. Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad. 

“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es uno de los cometidos más urgentes que afrontamos en materia de derechos humanos”, dijo Bachelet.

Las deducciones, predicciones y actividades de seguimiento que llevan a cabo las herramientas de IA, incluida la búsqueda de pautas de conducta humana, plantean también graves interrogantes.  Las bases de datos sesgadas   en los que a menudo se basan los sistemas de IA pueden conducir a la adopción de decisiones discriminatorias, un riesgo que es más acentuado cuando se trata de grupos que ya se encuentran marginados.

“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real. Por eso es necesario evaluar y monitorear sistemáticamente las repercusiones de los sistemas de IA, para poder  identificar y atenuar los riesgos en materia de derechos humanos”, añadió Bachelet.

“Las tecnologías biométricas, que se están convirtiendo en un comodín para los Estados, las organizaciones internacionales y las empresas de tecnología, constituyen un ámbito que necesita urgentemente más directrices de derechos humanos”, señala el informe.

Esas tecnologías, que comprenden el reconocimiento facial, se usan cada vez más para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos.  El informe reitera el llamamiento a una moratoria de su uso en espacios públicos, al menos hasta que las autoridades demuestren que no existen problemas significativos con la precisión o los efectos discriminatorios, y que esos sistemas de IA cumplen con las normas aplicables a la protección de datos y a la privacidad.

También es preciso que las empresas y los Estados incrementen la transparencia en lo que se refiere al desarrollo y la aplicación de los sistemas de IA.

“La complejidad del contexto estadístico, los algoritmos y los modelos en los que se basa la elaboración y el funcionamiento de los sistemas de IA, así como el carácter secreto que le confieren los gobiernos y los agentes privados, contribuyen a que la población en general no alcance a comprender la repercusión de los sistemas de IA sobre la sociedad y los derechos humanos”, apunta el informe. 

“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos. La capacidad de la IA para servir a la población es innegable, pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable.  Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, terminó diciendo Bachelet.

 

FIN

Consulte aquí el texto íntegro del informe

Vea también: Declaración de la Alta Comisionada sobre las implicaciones del software de espionaje Pegasus en el Consejo de Europa el 14 de septiembre de 2021

 

*Consulte la página web del ACNUDH sobre el derecho a la intimidad en la era digital:
http://www.ohchr.org/EN/Issues/DigitalAge/Pages/DigitalAgeIndex.aspx