Enlaces accesibilidad

Apocalipsis tecnológica: ¿acabará la inteligencia artificial con la humanidad?

  • El padrino de la IA, Geoffrey Hinton, se ha convertido en una de las principales voces críticas con el potencial destructivo de esta tecnología
  • Que las acciones de la inteligencia artificial coincidan con los valores éticos: el gran reto de los nuevos modelos

Por

Apocalipsis tecnológica: ¿acabará la inteligencia artificial con la humanidad?
Chat de inteligencia artificial

Desde chatbots como ChatGPT, a “artistas” como Dall-e o coches autónomos. La inteligencia artificial se ha instaurado de lleno en la sociedad actual, convirtiéndose rápidamente en una herramienta revolucionaria y transformando el mundo que conocemos. Todo avance tiene sus aspectos controvertidos, y esta nueva tecnología no es una excepción. El boom en la instauración de modelos de IA al alcance de toda la ciudadanía ha despertado infinitas dudas, reticencias y alertas en numerosos sectores de la sociedad, que ha generado una percepción apocalíptica de la IA, aludiendo a un escenario en el que esta inteligencia generativa acabe descontrolándose y se vuelva en contra de sus creadores humanos.

Geoffrey Hinton, de creador a crítico

Sin duda, la voz más destacada de esta mirada más "conservadora" es la de Geoffrey Hinton, exvicepresidente de Ingeniería de Google, Premio Turing y Premio de la Fundación BBVA. Hinton, uno de los grandes pioneros de este sector, ha sido considerado “padrino” de la inteligencia artificial por su trabajo diseñando la base tecnológica de lo que ha acabado siendo el aprendizaje automático.

Apocalipsis tecnológica: ¿acabará la inteligencia artificial con la humanidad?

Geoffrey Hinton en 'El Cazador de Cerebros'

Pero, lejos de celebrarlo, ha dejado su posición en Google para convertirse en una de las voces más críticas sobre su potencial destructivo, advirtiendo acerca de la amenaza que supone la IA para la humanidad. Como apunta en 'El Cazador de Cerebros', “creíamos que sería un proceso más largo, pero quedan entre cinco y veinte años para que la inteligencia artificial supere a la humana”. Después de percatarse de su potencial destructivo, ha cambiado por completo su perspectiva sobre el trabajo al que ha dedicado casi toda su vida, y ahora alerta de los posibles escenarios apocalípticos que podrían surgir si no se controla antes.

1. El desalineamiento

El desalineamiento describe un escenario hipotético en el que la IA interpreta de forma incorrecta un objetivo bienintencionado marcado por el humano, desarrollando así una respuesta perjudicial. Por ejemplo, si se le pidiera que acabe con el cambio climático, es posible que optara por eliminar a la especie humana, a pesar de no ser el camino planteado por quien ha dado la orden y de tener un impacto negativo.

Los expertos ya han planteado el peligro que implica el sesgo ideológico en la creación de modelos artificiales, en especial a raíz de los comportamientos racistas, machistas o discriminatorios que se han percibido en las innovadoras tecnologías que han ido lanzándose en los últimos años. Para evitarlo, es necesario dedicar grandes esfuerzos a programar bien esta IA y garantizar que no sea perjudicial.

2. La lucha por el poder

El segundo escenario sería una especie de guerra civil entre las máquinas compitiendo por recursos. Actualmente, existen pocos modelos con IA superinteligentes, como Chat GPT o Gemini, pero cada vez surgen más prototipos y de mayor calidad, por lo que “podría llegar el momento en que empiecen a competir entre ellas, a acaparar cada vez más recursos, para que, de esta forma, una de ellas pueda adquirir todavía más inteligencia e imponerse sobre el resto”, remarca Hinton. 

3. Las IAs toman el control

El tercer escenario plantea que las IA, para ser más eficientes, acaparen el control. Cuando trabajamos con inteligencia artificial, establecemos objetivos, y dentro de ellos, subobjetivos. El programa sabe que debe realizar determinas acciones para lograrlo, pero podría producirse una situación en la que desarrolle subobjetivos nuevos para asumir más control y poder conseguir lo que le pedimos, aunque no tenga nuestro consentimiento explícito.

Puede que la IA intente conseguir más control y no se me ocurre cómo pararlo

No es descabellado pensar que la IA podría volverse deshonesta, porque a mayor autonomía, más capacidad de decisión tendrá. Lograr el control no sería una misión complicada; llegados a este punto, la inteligencia artificial ya conoce perfectamente el funcionamiento del cerebro humano y la misión que se le ha encomendado, así que "manipularnos sería como un juego de niños para ella. Si infiere que logrando estar al mando podrá hacer las cosas mejor, puede que intente conseguir más control, pero no se me ocurre cómo pararlo”, confiesa el informático. 

Aunque son escenarios especulativos y no hay una garantía real de que todo esto ocurra, tanto Geoffrey Hinton como otros expertos defienden que no es una utopía, por lo que debemos tomar medidas proactivas para garantizar que siguen siendo una ayuda y no una amenaza para la humanidad. ¿La solución? Ciencia y control gubernamental.