2024, el año de repensar la inteligencia artificial: ética y regulación para el mayor reto tecnológico
- La aprobación del primer reglamento del mundo sobre inteligencia artificial sienta las bases de su contención
- El entusiasmo inicial por el potencial de la IA deja paso a grandes miedos por sus riesgos para las democracias
Las conversaciones con chatbots, como ChatGPT o Copilot, son ya cotidianas. El término inteligencia artificial (IA) no ha recibido la distinción de "palabra del año" este 2024, como sí sucedió en 2022, pero aparece como reclamo publicitario en casi cualquier producto tecnológico del mercado. Mientras tanto, las imágenes creadas por Grok, la nueva IA generativa de X, inundan la red social y ya no resulta tan extraño confundir la realidad con los deepfakes.
A pesar de que la IA cuenta con décadas de investigación a sus espaldas, su uso masivo se ha popularizado en los últimos años. Su potencial en la medicina, el análisis de datos y la creación de contenido han producido entusiasmo en una gran parte de la población, pero la euforia descontrolada inicial ha dado paso a una crisis de confianza. El paso de la IA por este 2024 ha estado marcado por la necesidad de regulación y un debate ético cada vez más presente.
La IA: un gigante con pies de barro
Un equipo de investigadores del instituto VRAIN de la Universitat Politècnica de València (UPV), la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (ValgrAI) y la Universidad de Cambridge ha publicado recientemente un informe acerca de la cada vez más escasa fiabilidad de los grandes modelos de lenguaje de IA, como GPT-4. El estudio demuestra que los modelos más avanzados son menos fiables que sus predecesores.
El debate sobre la IA no se limita a su funcionamiento técnico. Una vez superada la fascinación inicial por sus capacidades, emergen miedos más profundos. Entre las voces más destacadas se encuentra la del escritor e historiador Yuval Noah Harari. El autor de Sapiens y Homo Deus ha alzado la voz contra lo que denomina el "potencial totalitario" de la IA y recuerda que estos usos perjudiciales de la IA ya se dan en el contexto geopolítico internacional.
El impacto de la inteligencia artificial en el cambio climático también atrapa poco a poco mayor interés. A lo largo del año, se han producido cambios en las políticas de las grandes tecnológicas en este sentido. Google, por ejemplo, ha anunciado que dejará de ser neutral en carbono —hasta ahora lo era gracias a la compra de bonos de carbono— porque el trabajo con IA requiere un mayor consumo de energía.
Los líderes mundiales y el reto de la IA
La preocupación por las consecuencias negativas derivadas de ciertos usos de la inteligencia artificial han llegado hasta los principales foros políticos internacionales. La 79º Asamblea General de la ONU, celebrada en septiembre en Nueva York, tuvo a la IA como una de sus protagonistas en los discursos de los líderes de todo el mundo. Aunque muchos destacaron su potencial transformador, el consenso fue evidente: la IA necesita un marco legislativo sólido que contemple sus riesgos.
En este contexto, las iniciativas de cooperación internacional cobran relevancia. El relator de la Carta Iberoamericana de la Inteligencia Artificial, Ignacio Criado, destaca alianzas como Global.ai, que une a organismos como el Banco Mundial, la OCDE y la Comisión Europea, y el papel de la Unión Internacional de Telecomunicaciones, impulsora del enfoque "IA para el bien".
Europa toma la delantera: el "efecto Bruselas"
El pasado 1 de agosto entró en vigor en la Unión Europea la primera ley de inteligencia artificial del mundo. La norma pretende conjugar la excelencia y la innovación tecnológica con la protección de los derechos humanos. Se basa en establecer diferentes niveles de riesgo para las herramientas de IA: prohibidos, de alto riesgo, sistemas con requisitos de transparencia y sistemas IA de propósito general.
El escenario es "incierto", según describe el profesor de Derecho Público en la Universidad de Navarra Juan Carlos Hernández. Europa apuesta por un marco de IA responsable, incluso a costa de la competitividad, mientras que Estados Unidos prefiere regulaciones sectoriales enfocadas en la innovación. En marzo, la ONU aprobó su primera resolución para la regulación internacional de la IA.
El experto apunta a un posible "efecto Bruselas". El planteamiento, explica, es "aprovechar el prestigio europeo, junto a la diplomacia y la cooperación global, para que otros países imiten el modelo, como ya sucede en América Latina". Se trata de convertirlo en un "estándar global", algo similar a lo que ocurrió con el Reglamento General de Protección de Datos: "Muchos países no lo han adoptado como tal, pero sus principios permean porque las empresas quieren venir a Europa y, para ello, tienen que cumplir".
En mayo, la Comisión Europea anunció la creación de una oficina especializada en IA que supervisará la implementación de su nueva normativa. Su objetivo es ambicioso: combinar innovación y competitividad con los valores europeos.
“La innovación tiene límites y el ser humano siempre debe estar en el centro“
A pesar de que algunos expertos muestran su preocupación acerca de cómo la normativa europea puede limitar en exceso la competitividad del mercado europeo, Hernández asegura que no se trata de renunciar a la innovación, sino de "ser consciente de que tiene límites y el ser humano siempre debe estar en el centro".
Hay una guerra soterrada por ser el líder global en materia de IA, asegura el especialista, en la que Estados Unidos y China compiten por liderar la tecnología y el mercado, mientras que la UE pretende encabezar el marco regulatorio.
El papel de España en el tablero global
También en mayo, el Gobierno dio luz verde a la nueva Estrategia de Inteligencia Artificial en España, con una dotación de 1.500 millones de euros para 2024 y 2025. Según Hernández, España tiene una posición estratégica entre Europa y América Latina y potenciar la IA en español podría ser clave para ganar competitividad. No obstante, advierte: "Sin suficientes subvenciones, será imposible mantenerlo".
Uno de los principales ejes del plan es fomentar una IA transparente, responsable y humanista, con ayuda de la recién creada Agencia Española de Supervisión de la Inteligecia Artificial (Aesia). El organismo, con sede en Galicia, ya se encuentra en funcionamiento, aunque todavía en fase germinal: "Aporta seguridad jurídica y apoyo en el desarrollo de la IA en España. Trabajan en ella personas altísimamente capacitadas, de un primer nivel y con reconocimiento internacional".
Romper la ley sale barato
En el panorama global, las prácticas de las grandes tecnológicas levantan controversia. Una investigación del diario The New York Times ha revelado que OpenAI ha agotado el lenguaje disponible en la red para entrenar a su modelo. Como respuesta, la compañía ha desarrollado Whisper, un software que convierte audio y video en texto para nutrir a sus sistemas. La estrategia plantea problemas legales, ya que estas empresas suelen utilizar contenido sin autorización previa.
"Las sanciones tienen que ser de tal entidad que a las empresas les resulte más barato cumplir que no hacerlo", cuenta Hernández. Sin embargo, señala la arraigada filosofía de Silicon Valley de "muévete rápido y rompe cosas".
“A las empresas les puede salir más rentable incumplir“
Muchas veces, las grandes tecnológicas prefieren asumir multas a largo plazo antes que detener su avance para solicitar permisos. A todo ello se suma la competencia feroz en el ámbito de la IA, especialmente la de tipo generativo. "Si tu mercado es Europa, te ajustas a su marco, pero para Estados Unidos, que tiene grandes bolsas de consumidores en muchos sitios, a las empresas les puede salir más rentable incumplir", explica.
En este "experimento regulatorio", como lo define el experto, tanto gobiernos como empresas están en una fase de aprendizaje. "Hace unos años apenas conocíamos esta tecnología. No sería extraño que los agentes reguladores modificasen sus criterios para adaptarse al contexto", apunta.
Sesgos, deepfakes y democracia
Otra de las mayores preocupaciones en torno al uso de la inteligencia artificial, especialmente cuando se relaciona con cuestiones sensibles, es la relativa a los sesgos. Muchas veces, provienen de la forma en la que se alimenta al algoritmo, ya que los sesgos presentes en el mundo analógico se trasladan al digital. El principal riesgo es que los resultados afecten a las decisiones humanas. El camino que deben seguir los legisladores, según Hernández, es el de establecer obligaciones de análisis de datos para garantizar que se protegen ciertas variables sensibles.
Por otro lado, el uso erótico de la IA ha protagonizado titulares este año y las expertas en igualdad de género alertan sobre sus consecuencias. Su uso para generar deepfakes sexuales se ha popularizado y puede tener un grave impacto sobre la salud mental de las víctimas, pero además, fortalece los estereotipos sexistas y puede provocar problemas para distinguir lo real de lo que no lo es.
Las últimas elecciones estadounidenses se han celebrado en pleno apogeo de la inteligencia artificial y su uso ha tenido cierto impacto, en forma de deepfakes y otros mecanismos de desinformación. El mal uso de estas herramientas en las campañas electorales plantea serios riesgos para las democracias. Hernández aclara que la Unión Europea comenzó a tomar medidas en este sentido ya tras el escándalo de Cambridge Analytica. El foco, explica, debe ponerse sobre los intermediarios para establecer obligaciones de transparencia, verificación y moderación, que "no son absolutamente efectivos, pero funcionan relativamente bien".
El experto recuerda el ejemplo reciente de la investigación que la Comisión Europea ha abierto a TikTok por injerencias en las elecciones de Rumanía: "Se han creado herramientas jurídicas para contener estos problemas, que son graves".
“Entre todos tenemos que desarrollar un arsenal para responder ante esos problemas“
Entiende que es fundamental trabajar también para mejorar la alfabetización mediática y tecnológica, así como contar con la colaboración de las empresas, que ya comienzan a desarrollar mecanismos de marcado para identificar con mayor facilidad qué contenido es falso. "Entre todos tenemos que desarrollar un arsenal para responder ante esos problemas", sentencia.
Oportunidades para ampliar la regulación
La aprobación del Reglamento de Inteligencia Artificial este 2024 marca un hito en el desarrollo de la IA. Para Hernández, el "efecto Bruselas" traerá consecuencias positivas y va a proteger de manera especial a los colectivos vulnerables.
“Si perdemos competitividad, estará bien perdida, porque ganaremos en protección de las personas“
"Si perdemos competitividad, estará bien perdida, porque ganaremos en protección de las personas", asegura. El próximo año se plantea plagado de nuevos retos, puesto que la regulación todavía no ha arrojado todas las respuestas.
Mientras se avanza en el marco legislativo, las grandes tecnológicas ya hablan de agentes de IA con niveles de autonomía mayores a los que conocemos: "Queda mucho trabajo por hacer para construir el marco y llenar las deficiencias". A pesar de que, como recuerda el experto, "el Derecho siempre va por detrás", el reglamento pionero tiene una peculiaridad y es su capacidad de adaptación, a través de diversos mecanismos de actualización, que pretenden mantenerlo pertinente a lo largo de los años.