Como toda tecnología, la inteligencia artificial (IA) puede usarse con buenos fines, pero también con otros peligrosos. Es por ello que surge el interés global de regularla, controlar la creación de nuevos modelos de IA de gran alcance, garantizar transparencia por parte de las grandes empresas desarrolladoras y proteger los derechos humanos de sus usuarios.
Sobre las regulaciones de la inteligencia artificial, conversamos con el profesor de derecho en el Politécnico de Beja, en Portugal, Manuel David Masseno, también miembro de la Red de Expertos en Protección de Datos de la Agencia de la Unión Europea para la Cooperación Policial (Europol).
¿CUÁLES SERÍAN A MANERA GENERAL LOS RIESGOS QUE TRAERÍA LA INTELIGENCIA ARTIFICIAL DE NO REGULARSE ADECUADAMENTE Y A TIEMPO?
Las regulaciones tienen que pensarse en cada contexto nacional o regional, porque hay sectores donde la inteligencia artificial al menos de una manera parcial ya está regulada. Por ejemplo, en cuanto a protección de datos, desde la perspectiva de la Unión Europea, se regula desde la directiva de 1995, reforzada por el reglamento de 2016.
En Europa tenemos un empleo reciente de esas leyes para la inteligencia artificial, la autoridad italiana de protección de datos llegó a suspender a ChatGPT por una semana por no ser claros con su uso de los datos.
Entre los riesgos, están los asociados a los consumidores y en específico a las personas vulnerables. En el mercado de comercio electrónico la gente tiene que enterarse de que está chateando con una máquina que es por definición amoral, porque las máquinas no son morales ni inmorales, son amorales. Hay que observar con personas vulnerables por sus derechos; mujeres, niños, ancianos, personas en situación de discapacidad, y garantizar que respetemos criterios mínimos de buena fe. No pueden dejar de aplicarse reglas de contratación, de protección de consumidores en el mercado.
Los modelos de inteligencia artificial, los chatbots, están hechos con tecnologías de aprendizaje automático (machine learning). El sistema aprende desde los datos que tiene, por lo tanto, hay que tener en cuenta para qué utiliza los datos, quién lo permite, a qué datos un sistema tiene acceso. Las máquinas no discriminan por sí solas, o alguien las programa para hacerlo o lo infieren a partir de los datos que se les da, en ese caso se daría una deformación.
Por ejemplo, hace unos años, en Amazon introdujeron un sistema automatizado de selección de trabajadores. Como en las empresas de informática hay pocas mujeres, y si no le enseñan a un sistema que hace falta mujeres, el sistema aprende por sí mismo, este hizo una inferencia de que ser mujer es una desventaja, y no seleccionó mujeres. De ahí la importancia de la supervisión humana.
También está lo que se conoce como ultrafalso, o deep fake en inglés, que puede traer problemas para la imagen de las personas en dependencia de su uso. Por ejemplo, la máquina me oye unos minutos, consigue identificar mi entonación, incluso mi nivel de español, y me pone hasta cantar flamenco o una rumba.
¿EN ESE CASO, QUÉ PROTECCIÓN PODRÍAN TENER LOS CIUDADANOS?
Para el caso del deep fake u otro uso malintencionado de la IA similar, sería lo que está ahora, derecho de la imagen, derecho al nombre, derecho a la imagen en sentido más amplio. Puede ser difícil de implementarlo, sobre todo porque aquí no hay fronteras. También depende mucho de lo que se haga, si me ponen a cantar la gente se da cuenta que no puedo ser yo porque yo jamás cantaría, pero se puede utilizar para perjudicarme y en ese sentido habría que aplicar las leyes antiguas sobre falsificación de documentos porque las imágenes son documentos.
El problema más difícil es cómo responder exactamente a los LLM, los grandes modelos de lenguaje, los que tienen un mayor alcance global. Incluso ha sido necesario añadir los sistema fundacionales, sin finalidades específicas, al corriente procedimiento legislativo en la UE, pues ya no basta con prohibir sistemas conllevando riegos desproporcionados para los derechos humanos, como el control biométrico en tiempo real del espacio público con determinación de perfiles, la puntuación de crédito social y el aprovechamiento de las dificultades o vulnerabilidades de las personas; o regular detalladamente la introducción y utilización de los de alto riesgo. Pero, aun queda que los Gobiernos nacionales, a través de Consejo, se pongan de acuerdo con el Parlamento Europeo.
¿EXISTE ALGUNA INICIATIVA PARA REGULAR LA IA A NIVEL GLOBAL?
Las primeras iniciativas empezaron a formarse en los países más ricos del mundo capitalista, en la OCDE (la Organización para Cooperación y el Desarrollo Económico), con sus Principios sobre Inteligencia Artificial de 2019, también suscritos por países que no la integraban, pero también hay naciones en Las Américas que no han aprobado regulaciones, pero sí principios, como Chile, Colombia, Argentina y Brasil.
En la Cumbre del G-20 del 2020 también se manifestaron preocupaciones sobre el potencial y riesgos de esa tecnología. En sentido general, muchos Estados euroasiáticos, China, Rusia, la India, Japón, Arabia Saudita han manifestado su preocupación por regular esta tecnología.
Además, la Agencia de Naciones Unidas para la Educación, Ciencia y Cultura (UNESCO) empezó también un trabajo para definir un marco para la inteligencia artificial, mucho más amplio. Incluso desde la Santa Sede en el Vaticano, se hizo un llamado para una inteligencia artificial ética, algo que también han hecho grandes empresas.
Pero, hay mucho camino por recorrer, el problema no es los principios éticos y de buena fe, sino la concretización de unas regulaciones que sirvan para todos; lograr un conceso más allá de ideologías, religiones, culturas y sistemas políticos.
En un mundo donde la gente tiene criterios distintos es necesario ir más allá de la ética. Que sean principios generales que sirvan para todos, demócratas, comunistas, tradicionalistas, cristianos, musulmanes, confucionistas... Se trata de cómo trasladar los criterios éticos a reglas obligatorias, reglas mínimas, para todos.
Algo en que la casi totalidad de los países está de acuerdo es que en el caso de la inteligencia artificial la última palabra la tienen que tener los seres humanos. La IA tendrá que ser siempre un sistema de apoyo a las decisiones, no un sistema de decisión.
¿ASUMIRÍAN LAS GRANDES EMPRESAS SU RESPONSABILIDAD LEGAL EN CUANTO A LA IA?
A las grandes empresas lo que les interesan son los beneficios, hay que ser realistas. Pero, también es cierto que debemos ser exigentes, una empresa no querrá tener pérdidas y a la larga tendrá que ajustarse a las leyes. Hay que hacer una regulación con dientes, le puedes poner un rostro de terciopelo, pero la mano tiene que ser de hierro.
Por ejemplo, a Open AI, la empresa de ChatGPT, no le convendría quedarse fuera del mercado europeo y perder millones de usuarios, debe entonces seguir las legislaciones europeas. Por ejemplo, hace un par de semanas, a Meta, la dueña de Facebook, por no cumplir las reglas de la trasmisión de datos de la UE, le pusieron una multa de mil 200 millones de euros. Además, tiene un tiempo para cambiar de modelo de negocios o las cosas empeorarán. Esto es el lenguaje que entienden bien esas grandes empresas.
POR ÚLTIMO, OTRA DE LAS INQUIETUDES EN TORNO A LA IA SON LOS DERECHOS DE AUTOR… ¿TENDRÍAN DERECHO DE AUTOR CONTENIDOS CREADOS CON AYUDA DE LA IA?
De un modo muy simplificado, puede decirse que la cuestión de los derechos de autor depende de cómo el contenido se genere. Es decir, un contenido generado totalmente por una máquina no tendrá derechos de autor, porque los creadores realmente deben ser seres humanos.
En caso de atribuirse derechos de autor a algo generado con ayuda de IA el derecho de autor debe ser para el creador, nunca para el modelo de IA.
Para que a un creador se le atribuya derecho de autor sobre un contenido generado con ayuda de IA debieran cumplirse requisitos como originalidad, calidad… Cuando una persona le pide un cuento genérico a ChatGPT y este lo escribe, el resultado no es un contenido que merezca derechos de autor. Pero las reglas pueden cambiar, por supuesto.
Georgesanz
27/7/23 14:46
Considero que todo lo antes expuesto es muy útil pero aún nos resta mucha educación para prepararnos en pos de todos los aspectos y vulnerabilidades a los que vamos a estar expuestos y a los que ya podemos estar expuestos si no controlamos la información que regalamos sobre nuestros hábitos, conversaciones y vida en general dentro de los espacios de interacción social. De ejemplo nos sirven todas las filtraciones de datos que se han venido sucediendo a lo largo de los años con compañías como Facebook, WhatsApp y otras similares. Donde lo mucho o poco que hayamos donado voluntariamente a sus bases de datos queda vulnerable en estos casos; por no hablar de todo el perfil psico-social que se puede estimar basado (Hoy mas fácilmente con las IA Generativas) en los patrones de comportamiento que evidenciamos en estas plataformas. Por eso primero que nada enriquezca su cultura y percepción del alcance de sus actos antes de ¨zambullirse¨ en un lugar lleno de riesgos, y controle con mesura la información que comparte con cada plataforma, recuerde que cada aplicación que regala sus servicios literalmente, nos especifica en sus términos y condiciones que toda la información que transmitimos en sus medios esta sujeta a condiciones imprevistas, antes las cuales ellos no tienen responsabilidad alguna si usted sale perjudicado, y por solo poner un ejemplo, el cifrado de sus comunicaciones es vulnerable, traducción: usted acepta enviar sus datos a un servicio que no responde a cabalidad con lo que supuestamente protege y por esta razón queda vulnerable la información que transmite por este medio, esto sin hablar de que si usa las estadísticas que se envían por parte de las aplicaciones para saber mas hacer estudios de mercado, pues está usted mas expuesto aún. Recuerde siempre usar las herramientas correctas usted, para no volverse entonces un objeto de sus herramientas, aunque en estos tiempos no sea muy sencillo hacerlo.
Laydis Soler
1/8/23 14:32
Efectivamente, es necesario tomar precauciones ante este tipo de tecnología y sus riesgos, sobre todo porque la IA permite analizar grandes volúmenes de datos y ha avanzado en la creación de contenido como nunca antes. En este trabajo abordamos el tema desde la mirada de especialistas cubanos: https://www.cubahora.cu/ciencia-y-tecnologia/etica-y-normativas-para-la-inteligencia-artificial-en-cuba-cuan-importante-sonquestion Un saludo!
Términos y condiciones
Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.