{"id":16332,"date":"2023-10-02T18:34:09","date_gmt":"2023-10-02T16:34:09","guid":{"rendered":"https:\/\/www.galde.eu\/?p=16332"},"modified":"2023-11-10T11:40:26","modified_gmt":"2023-11-10T10:40:26","slug":"donde-deben-estar-los-limites-a-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www.galde.eu\/es\/donde-deben-estar-los-limites-a-la-inteligencia-artificial\/","title":{"rendered":"\u00bfD\u00f3nde deben estar los l\u00edmites a la Inteligencia Artificial?"},"content":{"rendered":"<p><a href=\"https:\/\/www.galde.eu\/wp-content\/uploads\/2023\/10\/AI.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-16338 colorbox-16332\" src=\"https:\/\/www.galde.eu\/wp-content\/uploads\/2023\/10\/AI.jpg\" alt=\"\" width=\"580\" height=\"379\" data-id=\"16338\" srcset=\"https:\/\/www.galde.eu\/wp-content\/uploads\/2023\/10\/AI.jpg 580w, https:\/\/www.galde.eu\/wp-content\/uploads\/2023\/10\/AI-300x196.jpg 300w\" sizes=\"auto, (max-width: 580px) 100vw, 580px\" \/><\/a><\/p>\n<p style=\"text-align: center;\"><span style=\"color: #ff0000;\">Una perspectiva de derechos humanos sobre lo que est\u00e1 por llegar en el terreno de la inteligencia artificial y las tecnolog\u00edas nuevas y emergentes<\/span><\/p>\n<p>Galde 42, Udazkena 2023 Oto\u00f1o. Volker T\u00fcrk.-<\/p>\n<p><em>El pasado 23 de julio, Volker T\u00fcrk, Alto Comisionado de las Naciones Unidas para los Derechos Humanos realiz\u00f3 la siguiente Declaraci\u00f3n donde se plantea que la inteligencia artificial debe tomar como base los derechos humanos <\/em><\/p>\n<p>\u201cTodos y todas sabemos en qu\u00e9 medida nuestro mundo, y los derechos humanos, est\u00e1n siendo puestos a prueba en estos momentos. La triple crisis planetaria amenaza nuestra existencia. Los viejos conflictos llevan a\u00f1os desatados, sin que se vea un final pronto. Siguen apareciendo nuevos conflictos, muchos de ellos con consecuencias de gran alcance en todo el planeta. Seguimos estando aun tambaleantes por las consecuencias de la pandemia de COVID-19, la cual dej\u00f3 al descubierto y profundiz\u00f3 un conjunto de desigualdades que se suceden en todo el mundo.<\/p>\n<p>Pero la pregunta que hemos de responder hoy aqu\u00ed ,-d\u00f3nde deber\u00edan situarse los l\u00edmites en la inteligencia artificial y las tecnolog\u00edas emergentes-, es una de las cuestiones m\u00e1s acuciantes para nuestra sociedad, para los gobiernos y para el sector privado.<\/p>\n<p>Todos hemos visto y seguido durante los \u00faltimos meses los impresionantes avances en la IA generativa, con ChatGPT y otros programas ofreciendo en la actualidad un acceso inmediato para el p\u00fablico general.<\/p>\n<p>Sabemos que la IA tiene el potencial de proporcionar enormes beneficios para la humanidad. Podr\u00eda mejorar las previsiones estrat\u00e9gicas, democratizar el acceso al conocimiento, incrementar el ritmo de los avances cient\u00edficos, y aumentar la capacidad para poder procesar enormes cantidades de informaci\u00f3n.<\/p>\n<p>Pero para poder aprovechar todo este potencial, hemos de asegurarnos de que las ventajas pesan m\u00e1s que los riesgos, y adem\u00e1s necesitamos imponer l\u00edmites.<\/p>\n<p>Cuando hablamos de l\u00edmites, de lo que en realidad estamos hablando es de regular.<\/p>\n<p>Para poder cumplir este cometido, para comportarnos como humanos, para situar a las personas en el centro del desarrollo de nuevas tecnolog\u00edas, cualquier soluci\u00f3n, cualquier regulaci\u00f3n, debe tomar como base el respeto por los derechos humanos.<\/p>\n<p>Dos escuelas diferentes de pensamiento est\u00e1n moldeando el desarrollo actual de la regulaci\u00f3n en torno a la IA.<\/p>\n<p>La primera solamente tiene en cuenta los riesgos, centr\u00e1ndose en la autorregulaci\u00f3n y en la autoevaluaci\u00f3n por parte de los desarrolladores de IA. En lugar de acogerse a normas detalladas, la regulaci\u00f3n basada en los riesgos pone \u00e9nfasis en identificar y mitigar los riesgos para poder lograr resultados.<\/p>\n<p>Este enfoque confiere una gran responsabilidad al sector privado. Algunos podr\u00edan decir que esta responsabilidad es demasiado alta, esto mismo afirma el propio sector privado.<\/p>\n<p>Tambi\u00e9n ocasiona que existan lagunas evidentes en la normativa reguladora.<\/p>\n<p>El otro enfoque integra los derechos humanos en todo el ciclo de vida de la IA. De principio a fin, los principios de derechos humanos se incorporan a la recopilaci\u00f3n y selecci\u00f3n de datos; as\u00ed como al dise\u00f1o, desarrollo, implantaci\u00f3n y uso de los modelos, instrumentos y servicios resultantes.<\/p>\n<p>Esta no es una llamada de advertencia para el futuro, ya podemos percibir las consecuencias negativas que tiene la IA en la actualidad, y no solamente la IA generativa.<\/p>\n<p>La IA tiene el potencial de afianzar a los gobiernos autoritarios. Puede llegar a manejar armas aut\u00f3nomas letales. Puede crear las bases para dise\u00f1ar herramientas todav\u00eda m\u00e1s poderosas para el control de la sociedad, para la vigilancia, y la censura.<\/p>\n<p>Los sistemas de reconocimiento facial, por ejemplo, pueden convertirse en veh\u00edculos para la vigilancia de personas en nuestros espacios p\u00fablicos, acabando con cualquier concepto de privacidad.<\/p>\n<p>Los sistemas de IA que se utilizan en el sistema de justicia penal para predecir futuros comportamientos criminales ya han demostrado que apuntalan la discriminaci\u00f3n y que debilitan los derechos, incluyendo la presunci\u00f3n de inocencia.<\/p>\n<p>V\u00edctimas y expertos, incluyendo a muchos y muchas de los que se encuentran hoy en esta sala, llevan ya bastante tiempo dando la voz de alarma, pero no obstante los legisladores y los desarrolladores de IA no han actuado con suficiente determinaci\u00f3n, o con la necesari rapidez, sobre estos asuntos preocupantes.<\/p>\n<p>Necesitamos de medidas urgentes por parte de gobiernos y empresas. Y a nivel internacional, las Naciones Unidas pueden desempe\u00f1ar un papel crucial convocando a los actores clave y asesorando sobre los pasos a dar en el futuro. No podemos perder ni un solo segundo.<\/p>\n<p>El mundo esper\u00f3 demasiado tiempo para actuar contra el Cambio Clim\u00e1tico. No podemos permitirnos repetir el mismo error.<\/p>\n<p>\u00bfQu\u00e9 aspectos podr\u00edan tener una regulaci\u00f3n?<\/p>\n<p>El punto de inicio deber\u00eda ser las consecuencias negativas que padecen las personas y las que es probable que vayan a sufrir. Esto exige escuchar a aquellas personas que padecen estas consecuencias, as\u00ed como a aquellos que ya han empleado varios a\u00f1os identificando y respondiendo a estas consecuencias negativas. Las mujeres, los grupos minoritarios, las personas marginadas, en particular, son las m\u00e1s afectadas de forma desproporcionada por los prejuicios que entra\u00f1a la IA. Debemos hacer serios esfuerzos para hacerles part\u00edcipes de cualquier debate sobre la gobernanza.<\/p>\n<p>Se debe prestar atenci\u00f3n tambi\u00e9n al uso de la IA en servicios p\u00fablicos y privados donde existe un riesgo aumentado de abuso de poder o de intrusiones en la privacidad de una persona: en la justicia, la aplicaci\u00f3n de la ley, en la cuesti\u00f3n de la migraci\u00f3n, en la protecci\u00f3n social, o en los servicios financieros.<\/p>\n<p>En segundo lugar, las iniciativas regulatorias tienen que exigir una evaluaci\u00f3n de los riesgos y repercusiones para los derechos humanos que conllevan los sistemas de IA antes, durante y despu\u00e9s de su uso. Es necesario que existan garant\u00edas de transparencia, una supervisi\u00f3n independiente y un acceso a medidas efectivas, de manera especial cuando es el propio Estado el que est\u00e1 haciendo uso de las tecnolog\u00edas de IA.<\/p>\n<p>Las tecnolog\u00edas de IA que no puedan funcionar con el cumplimiento de la normativa internacional de derechos humanos deben ser prohibidas o puestas en suspensi\u00f3n hasta que se consigan implementar protecciones adecuadas.<\/p>\n<p>En tercer lugar, han de aplicarse las regulaciones y protecciones ya existentes, por ejemplo, marcos regulatorios sobre protecci\u00f3n de datos, la legislaci\u00f3n sobre la competencia, as\u00ed como regulaciones sectoriales, incluyendo los campos de la atenci\u00f3n sanitaria, la tecnolog\u00eda o los mercados financieros. Una perspectiva de derechos humanos aplicada al desarrollo y uso de la IA tendr\u00e1 un impacto limitado si no viene acompa\u00f1ada de un respeto adecuado por los derechos humanos en el panorama m\u00e1s amplio regulatorio e institucional.<\/p>\n<p>Y, en cuarto lugar, hemos de resistirnos a la tentaci\u00f3n de permitir que la propia industria de la IA nos convenza de que la autorregulaci\u00f3n es suficiente, o que afirme que deben ser ellos mismos los que definan el marco jur\u00eddico que ha de aplicarse. Creo que hemos aprendido ya esta lecci\u00f3n de nuestra experiencia con las plataformas de redes sociales. A la vez que sus aportaciones son relevantes, resulta esencial que todo el proceso democr\u00e1tico, las leyes que dise\u00f1en todas las partes interesadas, sea aplicado en su totalidad, en una cuesti\u00f3n en la que todas las personas, en todos los lugares del mundo, terminar\u00e1n por resultar afectadas en el futuro.<\/p>\n<p>Al mismo tiempo, las empresas deben cumplir con sus responsabilidades en lo que se refiere a respetar los derechos humanos en consonancia con los Principios Rectores sobre las Empresas y los Derechos Humanos. Las empresas son responsables de los productos que se afanan por lanzar al mercado. Mi Oficina trabaja ya con varias empresas, organizaciones de la sociedad civil y expertos y expertas en IA para elaborar directrices sobre c\u00f3mo abordar la IA generativa. A pesar de esto, queda mucho trabajo por hacer en todos estos aspectos mencionados.<\/p>\n<p>Finalmente, aunque no se tratar\u00eda de una soluci\u00f3n inmediata, puede que resulte valioso explorar la posibilidad de crear un \u00f3rgano asesor internacional que rija sobre las tecnolog\u00edas que entra\u00f1en un riesgo especial, uno que pudiera ofrecer perspectivas sobre como las normativas regulatorias podr\u00edan alinearse con el marco de los derechos humanos universales y con el marco del Estado de Derecho. Este \u00f3rgano podr\u00eda compartir p\u00fablicamente los resultados de sus deliberaciones y ofrecer recomendaciones acerca de la gobernanza de la IA. Este punto ha sido tambi\u00e9n sugerido por el Secretario General de las Naciones Unidas como parte del Pacto Digital Global para la Cumbre del Futuro que tendr\u00e1 lugar el pr\u00f3ximo a\u00f1o.<\/p>\n<p>El marco de los derechos humanos proporciona una base fundamental que puede facilitar protecciones a la hora de emplear esfuerzos para explotar el enorme potencial de la IA, a la vez que se previenen y mitigan sus enormes riesgos impl\u00edcitos.<\/p>\n<p>Volker T\u00fcrk.<br \/>\nAlto Comisionado de las Naciones Unidas para los Derechos Humanos.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Galde 42, Udazkena 2023 Oto\u00f1o. Volker T\u00fcrk.- El marco de los derechos humanos proporciona una base fundamental que puede facilitar protecciones a la hora de emplear esfuerzos para explotar el enorme potencial de la IA, a la vez que se previenen y mitigan sus enormes riesgos impl\u00edcitos.<\/p>\n","protected":false},"author":2,"featured_media":16339,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2,5],"tags":[],"class_list":["post-16332","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-dossier","category-politica","revista-galde-n42"],"_links":{"self":[{"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/posts\/16332","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/comments?post=16332"}],"version-history":[{"count":0,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/posts\/16332\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/media\/16339"}],"wp:attachment":[{"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/media?parent=16332"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/categories?post=16332"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.galde.eu\/es\/wp-json\/wp\/v2\/tags?post=16332"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}