Vistas de página en total

jueves, 16 de septiembre de 2021

Bachelet: “Los riesgos de la inteligencia artificial para la privacidad exigen una acción urgente”

La Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, hizo hincapié el miércoles en la urgente necesidad de una moratoria sobre la venta y el uso de sistemas de inteligencia artificial (IA).

La venta y el uso de sistemas de inteligencia artificial (IA) representan un grave riesgo para los derechos humanos hasta que se establezcan las salvaguardias adecuadas. Es por eso que la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, pidió también que se prohíban las aplicaciones de inteligencia artificial que no se pueden utilizar de conformidad con el derecho internacional de los derechos humanos.

 

“La inteligencia artificial puede ser una fuerza para el bien, ayudando a las sociedades a superar algunos de los grandes desafíos de nuestro tiempo. Pero las tecnologías de inteligencia artificial pueden tener efectos negativos, incluso catastróficos, si se utilizan sin tener en cuenta cómo afectan los derechos humanos de las personas”, dijo Bachelet.

“Cuanto mayor sea el riesgo para los derechos humanos, más estrictos deberían ser los requisitos legales para el uso de la tecnología de inteligencia artificial”, dijo el Jefe de Derechos Humanos de la ONU. “Pero como puede llevar tiempo antes de que se puedan evaluar y abordar los riesgos, los Estados deberían imponer moratorias al uso de tecnología potencialmente de alto riesgo”.

Como parte de su trabajo sobre tecnología y derechos humanos, la Oficina de Derechos Humanos de la ONU ha publicado hoy un informe que analiza cómo la IA, incluida la elaboración de perfiles, la toma de decisiones automatizada y otras tecnologías de aprendizaje automático, afecta el derecho de las personas a la privacidad y otros derechos, incluidos los derechos a la salud, la educación, la libertad de circulación, la libertad de reunión y asociación pacíficas y la libertad de expresión.

“La inteligencia artificial ahora llega a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales. Los sistemas de inteligencia artificial se utilizan para determinar quién obtiene los servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que la gente ve y puede compartir en línea”, dijo la Alta Comisionada.

El informe analiza cómo los Estados y las empresas a menudo se han apresurado a incorporar aplicaciones de inteligencia artificial, sin llevar a cabo la debida diligencia.

Ya ha habido numerosos casos de personas que han sido tratadas injustamente debido a la IA, como que se les nieguen los beneficios de la seguridad social debido a herramientas de inteligencia artificial defectuosas o sean arrestadas debido a un reconocimiento facial defectuoso.

El informe detalla cómo los sistemas de inteligencia artificial se basan en grandes conjuntos de datos, con información sobre individuos recopilada, compartida, fusionada y analizada de maneras múltiples y, a menudo, opacas. Los datos utilizados para informar y orientar los sistemas de inteligencia artificial pueden ser defectuosos, discriminatorios, desactualizados o irrelevantes. El almacenamiento de datos a largo plazo también plantea riesgos particulares, ya que los datos podrían explotarse en el futuro de formas aún desconocidas.

“Dado el rápido y continuo crecimiento de la IA, llenar la inmensa brecha de responsabilidad en cómo se recopilan, almacenan, comparten y usan los datos es una de las preguntas humanas más urgentes que enfrentamos”, dijo Michelle Bachelet.

Las inferencias, predicciones y monitoreo realizados por las herramientas de inteligencia artificial, incluida la búsqueda de información sobre los patrones de comportamiento humano, también plantean serias preguntas. Los conjuntos de datos sesgados en los que se basan los sistemas de inteligencia artificial pueden llevar a decisiones discriminatorias, y estos riesgos son más graves para los grupos ya marginados.

“El riesgo de discriminación vinculado a las decisiones impulsadas por la IA, decisiones que pueden cambiar, definir o dañar vidas humanas, es demasiado real. Es por eso que debe haber una evaluación y monitoreo sistemático de los efectos de los sistemas de IA para identificar y mitigar los riesgos de derechos humanos”, dijo Bachelet.

“Las tecnologías biométricas, que se están convirtiendo cada vez más en una solución de referencia para los Estados, las organizaciones internacionales y las empresas de tecnología, son un área en la que se necesita con urgencia más orientación en materia de derechos humanos”, destaca el informe.

Estas tecnologías, que incluyen el reconocimiento facial, se utilizan cada vez más para identificar a las personas en tiempo real y desde la distancia, lo que potencialmente permite un seguimiento ilimitado de las personas. El informe reitera los pedidos de una moratoria sobre su uso en espacios públicos, al menos hasta que las autoridades puedan demostrar que no hay problemas significativos con la precisión o impactos discriminatorios, y que estos sistemas de inteligencia artificial cumplen con estándares sólidos de privacidad y protección de datos.

También debe haber mucha mayor transparencia por parte de las empresas y los Estados sobre cómo están desarrollando y utilizando la IA.

“La complejidad del entorno de datos, los algoritmos y los modelos que subyacen al desarrollo y funcionamiento de los sistemas de IA, así como el secreto intencional de los actores gubernamentales y privados son factores que socavan las formas significativas para que el público comprenda los efectos de los sistemas de IA en los derechos humanos y la sociedad”, explica el informe.

“No podemos darnos el lujo de seguir poniéndonos al día con respecto a la IA, permitiendo su uso con límites o supervisión limitados o sin ellos, y lidiando con las consecuencias casi inevitables para los derechos humanos después del hecho. El poder de la IA para servir a las personas es innegable, pero también lo es la capacidad de la IA para alimentar las violaciones de los derechos humanos a una escala enorme y prácticamente sin visibilidad. Es necesario actuar ahora para poner barreras de protección de los derechos humanos en el uso de la IA, por el bien de todos nosotros”, enfatizó Bachelet.

 

Elena Rusca, Ginebra, 15.09.2021

No hay comentarios:

Publicar un comentario

Seguidores