La primera ley sobre inteligencia artificial, una norma que busca el equilibrio entre seguridad y el freno a la innovación
- Se establecerán unos niveles de riesgo en función de cómo afecte a los derechos fundamentales de las personas
- Se prohibirán los sistemas biométricos que se basen en la raza, las creencias políticas, religiosas o la orientación sexual
La Unión Europea (UE) ya tiene acuerdo sobre la futura ley que regulará el desarrollo de la inteligencia artificial (IA) en el continente. Será una normativa pionera en el mundo, que ha costado 36 horas de negociaciones.
Expertos en computación y derechos digitales han celebrado el acuerdo alcanzado en Bruselas sobre la futura norma, pero han advertido también de las "lagunas" que todavía tiene el acuerdo.
"No deja de ser un equilibrio entre no pasarse de frenada para matar la innovación ni quedarse corto y que la ley no sirva para nada", ha dicho José Manuel Vega, ingeniero y escritor.
El profesor universitario y experto en derecho digital Borja Adsuara ha aplaudido el acuerdo político pero ha insistido en que la tramitación del Reglamento no ha terminado y en que comienza ahora una negociación "técnica" y un proceso de traducción que se va a prolongar durante varios meses, y tras su publicación definitiva se abrirá un plazo de dos años para su aplicación plena, aunque se podrá adelantar la entrada en vigor de algunos puntos.
"Es probable que tenga que ser modificada sobre el camino porque aparecerán nuevas funcionalidades que ahora mismo han quedado fuera de este borrador", ha puntualizado Vega.
En Estados Unidos y China no hay límites
Las tecnológicas europeas temían perder competitividad ante Estados Unidos y China, donde no hay límites.
"Cuando vayan a relacionarse con ciudadanos europeos, van a tener que conocerla muy bien y aplicarla, porque si no lo hacen les va a salir muy caro", ha señalado Silvia Leal, experta en tecnología e inteligencia artificial. Si la incumplen pagarían multas millonarias, del 7% de la facturación.
Con la futura norma se establecerán unos niveles de riesgo en función de cómo la tecnología afecte a los derechos fundamentales de las personas. Se prohibirán los sistemas biométricos que se basen en la raza, las creencias políticas, religiosas, la orientación sexual.
Tampoco se podrán reconocer las emociones en empresas o colegios. Pero se podrá usar la vigilancia biométrica en tiempo real, por motivos de seguridad y siempre con una autorización judicial.
A este respecto, Adsuara ha manifestado que lo importante no es sólo la lista de excepciones "sino, sobre todo, saber quién va a vigilar a los que nos vigilan". En ese sentido, propone la creación de un sistema de garantías y sanciones a las autoridades y administraciones públicas que hagan un mal uso de la inteligencia artificial, que incluya la inhabilitación de los funcionarios que hagan un mal uso de esta tecnología.
Alfonso Valencia, profesor de la Institución Catalana de Investigación y Estudios Avanzados y director de Ciencias de la Vida en el Centro Nacional de Supercomputación (BSC-CNS), ha señalado, en relación con las aplicaciones de técnicas de reconocimiento biométrico, que se hacen excepciones para temas policiales "que hacen difícil saber dónde acabará el uso de estas tecnologías en la práctica".
Se regulará ChatGPT
También se regulará la inteligencia artificial de propósito general, como ChatGPT. Deben dejar claro que estamos hablando con una máquina.
Silvia Leal ha añadido que las empresas "van a tener que explicar cómo están enseñando a la IA a comportarse".
Respecto a las aplicaciones de "alto riesgo", Valencia ha subrayado que el documento propone medidas restrictivas que requieren valoración de riesgos, descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento, unas medidas que a su juicio son relativamente fáciles de aplicar a sistemas tradicionales como los que operan en bancos o compañías de seguros, "pero muy difíciles o imposibles en los nuevos sistemas de IA".
La ampliación de estas medidas implicará, según Valencia, que los sistemas actuales de las grandes compañías no podrán operar en Europa, salvo a través de "IPs" (protocolos de internet) de fuera de Europa. "Dado que no existe ni la iniciativa, ni el presupuesto, ni la unidad de acción, ni la tecnología para crear esos sistemas, parece que la aplicación de las medidas propuestas dejará definitivamente a Europa fuera del desarrollo de los grandes modelos de IA", ha sentenciado Valencia.