El equilibrio entre ética y productividad de la Inteligencia Artificial: "Si no se regula bien, la democracia peligra"
- El desarrollo de la IA se puede ver modificado por las leyes que hasta este momento habían estado ausentes
- China ha sido pionera en su regulación y ya prohíbe que difunda noticias falsas o incite al odio
"La Inteligencia Artificial no es peligrosa, lo que me preocupa es que nos vuelva locos, que no sepamos qué es verdad o que no, empezar a interactuar con ello como si fuesen personas y afectar a la salud mental de la gente. Si no se regula bien, el planeta está en peligro y la democracia también". Todo gran avance conlleva un gran dilema y este nuevo paso del ser humano vuelve a buscar ese difícil equilibrio entre la ética y el desarrollo tecnológico asociado a la productividad, como destaca Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experiencial de Northeastern University de Silicon Valley.
En las últimas semanas, se han viralizado en redes imágenes asombrosamente realistas. Una foto del papa Francisco abrigado con un plumas blanco, el presidente de Francia, Emmanuel Macron, escapando de la mano de los antidisturbios en una manifestación, o una captura del expresidente de Estados Unidos, Donald Trump, siendo detenido a la salida de la corte de Nueva York. Todas estas fotografías tienen dos cosas en común: podrían ser ciertas y nadie se extrañaría, y al mismo tiempo son falsas porque han sido generadas por Inteligencia Artificial.
"Esta tecnología trata de reproducir la inteligencia humana y es especialmente efectiva en aquellos casos en los que las tareas sean respetivas o bien, exista un amplio y claro conocimiento para el desempeño de una función. No me atrevería a decir un sector en el que actualmente no cuentes con sistemas de apoyos que utilizan alguna técnica de IA", explica Sergio Cavero, investigador del grupo GRAFO de la Universidad Rey Carlos.
Una inteligencia con riesgos
Pero esa reproducción de la inteligencia humana conlleva riesgos. Como cualquier herramienta inventada por el ser humano, un mal uso puede hacer de ella algo catastrófico. "Actualmente, la IA evoluciona en cualquier dirección que signifique ganar dinero y esa dirección realmente no está alineada con la ética, ni muchas veces incluso con las leyes", contextualiza Baeza-Yates.
Por lo que se conoce a la IA ahora es por la irrupción en los últimos meses de Chat GPT, una aplicación de inteligencia artificial que permite interactuar con ella, como si de una persona real se tratase. Como esta, hay otras herramientas similares que sirven como asistente para hacer trabajos, diseñar fotografías, escribir tesis doctorales, noticias, incluso simular conversaciones con tu psicólogo o tu expareja y que han puesto en el foco a la IA sobre su utilización.
“La IA evoluciona en cualquier dirección que signifique ganar dinero y esa dirección realmente no está alineada con la ética“
Esta semana, el artista alemán Boris Eldagsen rechazó el prestigioso premio de fotografía Sony World Photography Awards, tras ganarlo con una imagen creada con esta tecnología, en un claro ejemplo del peligroso potencial que tiene esta nueva tecnología. Estas circunstancias han llevado a que cada vez más países y gobiernos se empiecen a preguntar hacia dónde avanza la IA y cómo se combate el enorme vacío legal que hay a su alrededor.
Italia prohíbe ChatGPT y España lo investiga
Italia se ha convertido en uno de los primeros países en poner coto a la Inteligencia Artificial ante la dificultad de distinguir lo real de lo que no lo es y ha suspendido su uso en todo el país.
También existe el riesgo de la utilización de los datos de los usuarios que acceden a este tipo de programas por las empresas creadoras. En España, la Agencia Protección de Datos (AEPD) ha iniciado una investigación preliminar sobre el posible incumplimiento de la normativa por parte de ChatGPT, ante la posibilidad de que se estén revendiendo a terceros.
"No hay que regular la tecnología en su conjunto, sino el problema específico y hay que hacerlo conforme a los derechos humanos y con coherencia. El problema de la IA es que es como una bomba de racimo: llega a todas partes y a todo el mundo al mismo lugar y tiempo, y a la hora de regular lo complica", explica Baeza-Yates.
Por todas estas cosas, la IA se encuentra en un punto de inflexión. Su desarrollo ahora se puede ver modificado por las leyes que hasta este momento habían estado ausentes. "Ha pasado de ser algo muy focalizado en resolver problemas numéricos a ser capaz de aprender a razonar sobre el conocimiento humano", explica el presidente de IndesIA, Valero Marín.
"En la IA no hay límites, no en lo que te puede dar esta herramienta y, por lo tanto, se abre un debate que ya es muy necesario que tiene que ver con el tema de la regulación. Hay una necesidad de que la de que la inteligencia artificial tenga un marco ético", añade Valero.
España impulsará una regulación en la presidencia del Consejo
En busca de ese equilibrio entre ética y utilidad en el que se puedan distinguir bien una imagen falsa de una fotografía de verdad, muchos países se han puesto manos a la obra para poder aprovechar las herramientas tecnológicas como un aliado y minimizar los riesgos que la convertirían en enemigo.
"Es necesario que una tecnología con el potencial disruptivo y el impacto a todos los niveles como la IA esté debidamente regulada y se desarrolle de acuerdo con los principios y valores democráticos que tantos años nos ha costado conseguir, respetando en todo momento los derechos y libertades fundamentales de los ciudadanos", explica a RTVE.es la Secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas Brugal.
Aprovechando la próxima presidencia de España en el Consejo Europeo, según confirman desde el ministerio de Asuntos Económicos y Transformación Digital, nuestro país va a afrontar el reto de impulsar leyes que "generen certidumbre sobre algunos usos de riesgo de la IA y ofrecer los resultados previos al resto de Estados Miembros".
China un ejemplo a seguir
Mientras la UE busca una ley definitiva y algunos países del bloque las aplican por su cuenta, otras grandes potencias mundiales como China van con ventaja en esto. El gobierno de Xi-Jinping ha optado, como es habitual en estos temas, por una política proteccionista. Pekín ha prohibido la entrada de ChatGPT en el país y ha apostado por desarrollar sus propias versiones.
"La regulación más interesante que se ha hecho quizás es la que publicó China el 11 de abril, hace muy poco tiempo", contextualiza el investigador en Sillicon Valley, Baeza-Yates.
El país asiático basa su regulación varios puntos básicos. Los contenidos generados por esta tecnología no pueden difundir información falsa, promover el terrorismo, la violencia, el racismo o la pornografía. Además de fijar que los contenidos deben representar los valores del país.
"No se preocupan solamente de cosas que interesan mucho en China como es la parte política, sino también se preocupan de cosas que son muy importantes para todo el resto del mundo, como noticias falsas, propiedad intelectual, daño a las personas, discriminación... Esta regulación está más orientada al problema que a la tecnología en sí misma y pueden ser en parte un ejemplo a seguir", concluye sobre un modelo de ejemplo para asegurar un futuro fructífero en la inteligencia artificial.