"Podemos apoyarnos en la Inteligencia Artificial para tomar decisiones políticas"
- Teresa Rodríguez de las Heras es miembro del grupo de expertos en IA de la Comisión Europea
- "Ya se está legislando para controlar la viralidad de las fake news", explica la profesora de Derecho Mercantil
Teresa Rodríguez de las Heras es profesora titular de Derecho Mercantil en la Universidad Carlos III de Madrid y miembro de dos grupos de expertos de la Comisión Europea: el de Economía de Plataformas y el de Inteligencia Artificial y Responsabilidad. Esta semana ha comparecido ante la Comisión Mixta de Seguridad Nacional, que completa sus trabajos sobre algunos de los grandes retos de la actualidad: combatir la desinformación y las fake news, y adecuar al marco legal al gran avance de la Inteligencia Artificial.
De las Heras también ha participado en la iniciativa 'Ciencia en el Parlamento', donde expertos de varios campos emiten informes para el Congreso sobre los desafíos legislativos de avances científicos.
Pregunta: Teresa Rodríguez de las Heras es profesora de la Universidad Carlos III y uno de los miembros del grupo de expertos en Inteligencia Artificial de la Comisión Europea. Muchas gracias por atender a Parlamento. La ha citado la Comisión de Seguridad Nacional para hablar de desinformación. ¿Tiene sentido una ley para combatir las fake news?
Respuesta: Pues tenemos que hacernos a su vez tres preguntas. Primero, ¿qué son fake news y qué es exactamente lo que querríamos prevenir o contener? Porque realmente estamos en un terreno muy delicado en el que es muy fácil que entremos en la libertad de expresión. Por tanto, si estamos seguros de que vamos a prevenir aquellas cosas de la desinformación que generan un efecto pernicioso en la sociedad, en la construcción de un discurso público, incluso daños materiales, desde luego sería adecuado.
“Hay que generar mecanismos que eviten que las fake news se viralicen“
Pero ¿cómo lo vamos a hacer? ¿De qué estamos hablando? ¿Prevenir en el sentido de prohibir? ¿Vamos a sancionarlo o vamos a crear el entorno adecuado para que aquellas noticias falsas que denominamos dañinas, desinformadas, maliciosas… realmente no ganen el efecto de viralidad? ¿Cómo lo hacemos? Y ahí viene la gran pregunta: con estrategias que generen los incentivos adecuados, los mecanismos adecuados, sobre todo en las redes sociales, para evitar ese efecto de generación de popularidad y de asociación de la credibilidad a la popularidad.
Legislar sobre la IA
P: Teresa, eres una experta en Inteligencia Artificial, un mundo apasionante que ya es una realidad, que no es ciencia ficción… Desde el punto de vista de las leyes, ¿estamos preparados para dar ese salto?
“La Unión Europea ya está legislando sobre Inteligencia Artificial“
R: Desde luego. Yo que trabajo en los grupos de expertos de la Unión Europea y también en Naciones Unidas, ahora mismo, en particular en la Unión Europea, tenemos un paquete de normativa que se va a aplicar y se va a poner en marcha, que realmente regularía el marco de la Inteligencia Artificial de una manera muy coherente, muy ambiciosa y bastante correcta en su planteamiento. Tenemos un futuro Reglamento de la Inteligencia artificial. Por tanto, hay un conjunto de esfuerzos regulatorios que están sentando las bases. Estamos valorando con perspectiva e incluso con cierta capacidad predictiva cuáles van a ser las implicaciones de la Inteligencia Artificial. No podemos precipitarnos tampoco, pero creo que estamos bien preparados para abordar estos desafíos.
P: Las posibilidades de la Inteligencia Artificial son infinitas. Por ejemplo, en el terreno de la política, ¿para qué tenemos que estar preparados? ¿Partidos con programas electorales preparados para ganar elecciones, gobernantes que nunca se equivocan? ¿Qué es lo que vamos a vivir?
R: Pues quizá antes de ver las aplicaciones pensemos qué puede hacer la Inteligencia Artificial, por ejemplo, puede generar predicciones. Por tanto, pensemos en la multitud de situaciones que en la toma de decisiones parlamentarias las predicciones pueden ser interesantes. Podemos utilizarlo para predecir, por ejemplo, qué efectos tendrían diferentes propuestas legislativas.
“Se pueden utilizar las predicciones de la IA para la deliberación parlamentaria“
En segundo lugar, podemos utilizar la Inteligencia Artificial para tomar decisiones o para apoyar la toma de decisiones. Podemos pensar en un proceso parlamentario, en una deliberación parlamentaria apoyada, nutrida por aquellos resultados que te vaya dando una inteligencia artificial sofisticada.
Y luego tenemos lo que se llama la Inteligencia Artificial generadora o generativa, que es realmente una Inteligencia Artificial creativa. Es decir, que adopta soluciones nuevas. ¿Por qué no incorporarla a los procesos legislativos? ¿Por qué no tratar de identificar desde fuera, con esa capacidad de agregación de datos que tiene la Inteligencia Artificial y de procesamiento, como nunca el ser humano ha podido ni podrá, que la propia Inteligencia Artificial se incorpore en el proceso para proponer ideas, para plantear nuevos modelos?.
IA y responsabilidad
P: Nos preocupa la desinformación y también qué pasa con nuestros datos cuando navegamos por Internet. ¿Nos tiene que preocupar también qué hay detrás de las máquinas? ¿Qué y quién las programa? Porque se puede introducir un uso pernicioso.
R: Desde luego, la Inteligencia Artificial en este sentido, plantea tres problemas evidentes. En primer lugar los datos, que en definitiva son la savia que hace que aprenda y tome decisiones. Cuanto más correctos, adecuados, diversos, completos y suficientes sean los datos, mejor va a ser el resultado.
“La IA se puede usar malintencionadamente, depende de su programación“
En segundo lugar, el diseño de los sistemas de Inteligencia Artificial, un diseño que debe evitar, por ejemplo, el gran problema de los sesgos, que a veces son inconscientes e involuntarios. Otras veces están marcados por una intencionada -o no- decisión de incorporar ciertos parámetros, de incorporar ciertas correlaciones o de dar valor a ciertos requisitos. Quien esté detrás de esta programación va a determinar cómo decide, cómo valora y cómo proyecta la Inteligencia Artificial.
Y el tercer gran debate, que es lo que precisamente estamos haciendo en la Unión Europea, es si esa Inteligencia Artificial causa daños porque discrimina, porque de una manera claramente sesgada está distribuyendo recursos de manera inadecuada. ¿A quién le atribuimos la responsabilidad? Básicamente, la Unión Europea piensa en dos grandes ejes: el del productor, que es en realidad el que puede incorporar lo que llamaríamos un defecto en ese producto inteligente que es la Inteligencia Artificial… Y el operador: el banco que decide utilizarlos para analizar la solvencia. Un sistema de inteligencia artificial lo opera, quiere decir, lo usas para un beneficio determinado y lo controlas.
El futuro: un mundo mixto
P: Nos queda todavía mucho por conocer sobre el futuro de la Inteligencia Artificial, Teresa. Ahora nos podemos imaginar cómo será el mundo dentro de 20 30 años.
“Habrá sistemas autónomos más eficientes. Será un mundo mixto, físico y virtual“
R: Pues yo creo que estamos en un momento especialmente privilegiado. Para algunos es vertiginoso y causa temor, y a otros nos parece absolutamente fascinante. ¿Qué vamos a tener en el futuro? Yo me imagino una coexistencia, por un lado, del ser humano y de sistemas autónomos que realicen de manera natural multitud de actividades en las que son mucho más eficientes. Por tanto, un mundo mixto o ser humano-máquina, pero también un mundo mixto en el que de forma muy fluida estemos permanentemente combinando nuestra vida en dos mundos: el mundo físico y ese mundo digital y virtual que nos va a permitir utilizar la realidad aumentada, la realidad inmersiva, la realidad mixta. Ese es el mundo que nos espera ya en los próximos años. Y yo lo veo lleno de riesgos, pero también de oportunidades y de posibilidades de mirarnos como seres humanos en el espejo y pensar en un modelo mucho más perfeccionado, atractivo.
P: No cabe duda de que es apasionante. Teresa Rodríguez de las Heras, muchísimas gracias por haber dedicado este tiempo al programa Parlamento.
R: Muchas gracias. Un placer.