El Parlamento Europeo fija su posición negociadora sobre la futura ley de inteligencia artificial
- El texto, al que aún le esperan meses de negociaciones, pretende reforzar la normativa sobre su desarrollo y uso
- Algunos de los aspectos más debatidos han sido los contenidos peligrosos, la manipulación y los sistemas de vigilancia masiva
El Parlamento Europeo ha acordado su posición para negociar nuevas normas dentro del borrador de la ley que pretende reforzar la normativa sobre el desarrollo y el uso de la inteligencia artificial, lo que supone el primer intento a nivel mundial para regular esta tecnología. El texto revisado se enfrenta ahora a meses de difíciles negociaciones.
Después de que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma, la Eurocámara negociará con la Comisión Europea y el Consejo de la UE el texto definitivo, que finalmente regresará al Parlamento Europeo para someterse a votación antes de su aprobación. Al ser un Reglamento, una vez aprobado se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional.
Bruselas creó en 2018 un grupo interdisciplinar de alto nivel para abordar la regulación de la inteligencia artificial, redactando más tarde su Informe sobre Inteligencia Artificial en la Era Digital, que debía marcar las líneas maestras de la nueva normativa. En 2021 publicó su primer borrador de la ley, pero ha sido en las últimas semanas cuando el trabajo se ha acelerado, con la redacción a contrarreloj de una nueva propuesta acordada ahora por los legisladores de las principales comisiones del Parlamento Europeo. La rápida evolución de herramientas generativas como ChatGPT, Midjourney o Dall-e, sumada a los llamamientos a nivel mundial para crear cuanto antes un marco ético que establezca límites a esta tecnología, han precipitado el proceso.
El vertiginoso ritmo de desarrollo que han alcanzado los diferentes modelos de inteligencia artificial, con robots conversacionales y herramientas generadoras de imágenes como su parte más visible, ha provocado que cada vez con mayor insistencia se escuchen voces que advierten de sus riesgos potenciales, y que piden tanto a Gobiernos como a las compañías desarrolladoras que impongan límites legales y éticos a esta herramienta.
La nueva ley intentará definir esta nueva realidad, garantizando que los nuevos sistemas utilizados en la UE sean seguros y respeten la legislación vigente en materia de seguridad, derechos fundamentales y otros valores comunitarios. Todo ello, sin renunciar a los beneficios que puede acarrear a los ciudadanos europeos, por lo que otro de los grandes objetivos es impulsar la investigación y la capacidad industrial de esta herramienta.
Contenidos peligrosos, manipulación y vigilancia masiva
Algunos de los aspectos más debatidos han sido la difusión de contenidos peligrosos, la manipulación de la opinión pública mediante la creación de imágenes y noticias falsas y los sistemas de vigilancia masiva.
El texto contempla la obligación por parte de las compañías desarrolladoras de poner freno al contenido ilegal y hacer públicos los datos protegidos por derechos de autor utilizados para entrenar a sus algoritmos. Los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático, además de someterse al análisis de expertos independientes.
Asimismo, los usuarios de sistemas de inteligencia artificial que generen o manipulen vídeos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos, deberán informar al resto de ciudadanos de que el contenido es falso.
Otro punto importante es la prohibición de sistemas de reconocimiento de emociones, así como también se desautoriza la identificación biométrica de personas en lugares públicos, vetando los sistemas de vigilancia masiva en tiempo real, salvo para prevenir delitos y localizar a posibles víctimas.
Igualmente, prohíbe las herramientas que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, e impide la recolección masiva de fotos en internet para entrenar algoritmos sin el consentimiento expreso de quienes aparecen en ellas.
Sistemas de "alto riesgo"
Además, califica de "alto riesgo" a varios sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la Unión Europea. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.