¿Dónde deben estar los límites a la Inteligencia Artificial?

Egilea: Volker Türk

Una perspectiva de derechos humanos sobre lo que está por llegar en el terreno de la inteligencia artificial y las tecnologías nuevas y emergentes

Galde 42, Udazkena 2023 Otoño. Volker Türk.-

El pasado 23 de julio, Volker Türk, Alto Comisionado de las Naciones Unidas para los Derechos Humanos realizó la siguiente Declaración donde se plantea que la inteligencia artificial debe tomar como base los derechos humanos

“Todos y todas sabemos en qué medida nuestro mundo, y los derechos humanos, están siendo puestos a prueba en estos momentos. La triple crisis planetaria amenaza nuestra existencia. Los viejos conflictos llevan años desatados, sin que se vea un final pronto. Siguen apareciendo nuevos conflictos, muchos de ellos con consecuencias de gran alcance en todo el planeta. Seguimos estando aun tambaleantes por las consecuencias de la pandemia de COVID-19, la cual dejó al descubierto y profundizó un conjunto de desigualdades que se suceden en todo el mundo.

Pero la pregunta que hemos de responder hoy aquí ,-dónde deberían situarse los límites en la inteligencia artificial y las tecnologías emergentes-, es una de las cuestiones más acuciantes para nuestra sociedad, para los gobiernos y para el sector privado.

Todos hemos visto y seguido durante los últimos meses los impresionantes avances en la IA generativa, con ChatGPT y otros programas ofreciendo en la actualidad un acceso inmediato para el público general.

Sabemos que la IA tiene el potencial de proporcionar enormes beneficios para la humanidad. Podría mejorar las previsiones estratégicas, democratizar el acceso al conocimiento, incrementar el ritmo de los avances científicos, y aumentar la capacidad para poder procesar enormes cantidades de información.

Pero para poder aprovechar todo este potencial, hemos de asegurarnos de que las ventajas pesan más que los riesgos, y además necesitamos imponer límites.

Cuando hablamos de límites, de lo que en realidad estamos hablando es de regular.

Para poder cumplir este cometido, para comportarnos como humanos, para situar a las personas en el centro del desarrollo de nuevas tecnologías, cualquier solución, cualquier regulación, debe tomar como base el respeto por los derechos humanos.

Dos escuelas diferentes de pensamiento están moldeando el desarrollo actual de la regulación en torno a la IA.

La primera solamente tiene en cuenta los riesgos, centrándose en la autorregulación y en la autoevaluación por parte de los desarrolladores de IA. En lugar de acogerse a normas detalladas, la regulación basada en los riesgos pone énfasis en identificar y mitigar los riesgos para poder lograr resultados.

Este enfoque confiere una gran responsabilidad al sector privado. Algunos podrían decir que esta responsabilidad es demasiado alta, esto mismo afirma el propio sector privado.

También ocasiona que existan lagunas evidentes en la normativa reguladora.

El otro enfoque integra los derechos humanos en todo el ciclo de vida de la IA. De principio a fin, los principios de derechos humanos se incorporan a la recopilación y selección de datos; así como al diseño, desarrollo, implantación y uso de los modelos, instrumentos y servicios resultantes.

Esta no es una llamada de advertencia para el futuro, ya podemos percibir las consecuencias negativas que tiene la IA en la actualidad, y no solamente la IA generativa.

La IA tiene el potencial de afianzar a los gobiernos autoritarios. Puede llegar a manejar armas autónomas letales. Puede crear las bases para diseñar herramientas todavía más poderosas para el control de la sociedad, para la vigilancia, y la censura.

Los sistemas de reconocimiento facial, por ejemplo, pueden convertirse en vehículos para la vigilancia de personas en nuestros espacios públicos, acabando con cualquier concepto de privacidad.

Los sistemas de IA que se utilizan en el sistema de justicia penal para predecir futuros comportamientos criminales ya han demostrado que apuntalan la discriminación y que debilitan los derechos, incluyendo la presunción de inocencia.

Víctimas y expertos, incluyendo a muchos y muchas de los que se encuentran hoy en esta sala, llevan ya bastante tiempo dando la voz de alarma, pero no obstante los legisladores y los desarrolladores de IA no han actuado con suficiente determinación, o con la necesari rapidez, sobre estos asuntos preocupantes.

Necesitamos de medidas urgentes por parte de gobiernos y empresas. Y a nivel internacional, las Naciones Unidas pueden desempeñar un papel crucial convocando a los actores clave y asesorando sobre los pasos a dar en el futuro. No podemos perder ni un solo segundo.

El mundo esperó demasiado tiempo para actuar contra el Cambio Climático. No podemos permitirnos repetir el mismo error.

¿Qué aspectos podrían tener una regulación?

El punto de inicio debería ser las consecuencias negativas que padecen las personas y las que es probable que vayan a sufrir. Esto exige escuchar a aquellas personas que padecen estas consecuencias, así como a aquellos que ya han empleado varios años identificando y respondiendo a estas consecuencias negativas. Las mujeres, los grupos minoritarios, las personas marginadas, en particular, son las más afectadas de forma desproporcionada por los prejuicios que entraña la IA. Debemos hacer serios esfuerzos para hacerles partícipes de cualquier debate sobre la gobernanza.

Se debe prestar atención también al uso de la IA en servicios públicos y privados donde existe un riesgo aumentado de abuso de poder o de intrusiones en la privacidad de una persona: en la justicia, la aplicación de la ley, en la cuestión de la migración, en la protección social, o en los servicios financieros.

En segundo lugar, las iniciativas regulatorias tienen que exigir una evaluación de los riesgos y repercusiones para los derechos humanos que conllevan los sistemas de IA antes, durante y después de su uso. Es necesario que existan garantías de transparencia, una supervisión independiente y un acceso a medidas efectivas, de manera especial cuando es el propio Estado el que está haciendo uso de las tecnologías de IA.

Las tecnologías de IA que no puedan funcionar con el cumplimiento de la normativa internacional de derechos humanos deben ser prohibidas o puestas en suspensión hasta que se consigan implementar protecciones adecuadas.

En tercer lugar, han de aplicarse las regulaciones y protecciones ya existentes, por ejemplo, marcos regulatorios sobre protección de datos, la legislación sobre la competencia, así como regulaciones sectoriales, incluyendo los campos de la atención sanitaria, la tecnología o los mercados financieros. Una perspectiva de derechos humanos aplicada al desarrollo y uso de la IA tendrá un impacto limitado si no viene acompañada de un respeto adecuado por los derechos humanos en el panorama más amplio regulatorio e institucional.

Y, en cuarto lugar, hemos de resistirnos a la tentación de permitir que la propia industria de la IA nos convenza de que la autorregulación es suficiente, o que afirme que deben ser ellos mismos los que definan el marco jurídico que ha de aplicarse. Creo que hemos aprendido ya esta lección de nuestra experiencia con las plataformas de redes sociales. A la vez que sus aportaciones son relevantes, resulta esencial que todo el proceso democrático, las leyes que diseñen todas las partes interesadas, sea aplicado en su totalidad, en una cuestión en la que todas las personas, en todos los lugares del mundo, terminarán por resultar afectadas en el futuro.

Al mismo tiempo, las empresas deben cumplir con sus responsabilidades en lo que se refiere a respetar los derechos humanos en consonancia con los Principios Rectores sobre las Empresas y los Derechos Humanos. Las empresas son responsables de los productos que se afanan por lanzar al mercado. Mi Oficina trabaja ya con varias empresas, organizaciones de la sociedad civil y expertos y expertas en IA para elaborar directrices sobre cómo abordar la IA generativa. A pesar de esto, queda mucho trabajo por hacer en todos estos aspectos mencionados.

Finalmente, aunque no se trataría de una solución inmediata, puede que resulte valioso explorar la posibilidad de crear un órgano asesor internacional que rija sobre las tecnologías que entrañen un riesgo especial, uno que pudiera ofrecer perspectivas sobre como las normativas regulatorias podrían alinearse con el marco de los derechos humanos universales y con el marco del Estado de Derecho. Este órgano podría compartir públicamente los resultados de sus deliberaciones y ofrecer recomendaciones acerca de la gobernanza de la IA. Este punto ha sido también sugerido por el Secretario General de las Naciones Unidas como parte del Pacto Digital Global para la Cumbre del Futuro que tendrá lugar el próximo año.

El marco de los derechos humanos proporciona una base fundamental que puede facilitar protecciones a la hora de emplear esfuerzos para explotar el enorme potencial de la IA, a la vez que se previenen y mitigan sus enormes riesgos implícitos.

Volker Türk.
Alto Comisionado de las Naciones Unidas para los Derechos Humanos.

Atalak | Txostena, Politika

Protagonistak

Montserrat Comas
Juan Gutiérrez
Cristina Monge
Pedro Arrojo Agudo
Iñaki Gabilondo
Ana Valdivia
Dora María Téllez
Pedro Miguel Etxenike
Marta Cabezas
Tomás Arrieta
Maixabel Lasa
Carlos Berzosa
Esteban Beltrán
Lurdes Imaz
Garbiñe Biurrun
Javier Moreno Luzón
Koldo Martinez
Tomás García Azcárate
Lourdes Oñederra
Mikel Reparaz
Virginijus Sinkevicius
Laia Serra
Gerardo Pisarello
Daniel Raventos
Daniel Innerarity
Yayo Herrero
María Eugenia Rodríguez Palop
Carlos Juárez
Helena Taberna
Pablo J. Martínez Osés
Koldo Unceta
Xabier Aierdi
Aitzpea Goenaga
Javier de Lucas
Ander Bergara
Garbiñe Biurrun
Pedro Santisteve
Marina Garcés
Carod Rovira
María Silvestre
Joao Pedro Stédile
Enrique Villareal "El Drogas"
José Luis Rodríguez García
Adela Asúa
Xabier Rubert de Ventós
Catarina Martins
Iñaki Gabilondo
Alberto Acosta
Victoria Camps
Lluís Torrens
Mario Rodríguez Vargas
Mikel Aizpuru
Marta Macho Stadler
Ramón Sáez Valcárcel
Frédéric Lordon
Xabier Vence
Carmen Gisasola
Paco Etxeberria
Cristina Narbona
Juan Calparsoro
Joaquim Bosch
Idoia Estornés
Iñigo Lamarca
Tarana Karim
Txema Urkijo
Dolores Juliano
Yayo Herrero
José Ignacio Lacasta
Gurutz Jáuregui
Silvia Gil
Ramón Barea
Daniel Cohn-Benditt
Ada Colau
José Manuel Naredo
Anna Freixas
Carlos Beristain
Carlos Berzosa
Manuela Carmena
Gloria Flórez Schneider
Paco Etxeberria
Cristina Narbona
Juan Calparsoro
Idoia Estornés
Iñigo Lamarca
Tarana Karim
Txema Urkijo
Dolores Juliano
Yayo Herrero
José Ignacio Lacasta
Gurutz Jáuregui
Silvia Gil
Ramón Barea
Daniel Cohn-Benditt
Ada Colau
José Manuel Naredo
Anna Freixas
Carlos Beristain
Carlos Berzosa
Manuela Carmena
Gloria Flórez Schneider
Irene Singer, Argentina
Alfredo Sabat, Argentina
"Mujeres del Karakorum", Mikel Alonso
Inmigrantes rescatados por salvamento marítimo
"El instante decisivo" Iñaki Andrés
Sebastião Salgado
Sebastião Salgado
La larga espera
Shushi (República del Alto Karabakh —Artsakh—, 08/10/2020)
Cientificos-Volcán
La Palma 2021
Metro de París
Jose Horna.
“JAZZ for TWO”, José Horna
Txema García
Txema García
Txema García
Refugiados sirios: Mujer cocinando
Encaramado a la valla de Ceuta
Antonio Sempere
Txema García
Abrazo. Luna a Abdou
Playa del Tarajal, Ceuta
"Mujeres del Karakorum", Mikel Alonso
"El origen del mundo" José Blanco
Zutik dirauena
Shushi (Karabakh Garaiko errepublika —Artsakh—, 2020/10/08)
"Homenaje a Federico García Lorca" Marisa Gutierrez Cabriada
Debekatutako armak
Shushi (Karabakh Garaiko errepublika —Artsakh—, 2020/19/08).
Sueños Rotos
República del Alto Karabakh —Artsakh—, 06/10/2020
Porteadoras
Canción de París
Jose Horna.
Eugenia Nobati, Argentina
“LIKE”. Eduardo Nave
Bonill, Ecuador
Sebastião Salgado
Fotografía de José Horna
"Homenage a Marcel Proust" Marisa Gutierrez Cabriada
Txema García
Fotografía de José Horna
Sebastião Salgado
"Lemoniz", Mikel Alonso
“LIKE”. Eduardo Nave
"El instante decisivo" Iñaki Andrés
“JAZZ for TWO”, José Horna
"El mal del país" José Blanco

Egileak