Lotería de Navidad e inteligencia artificial: la IA no puede predecir el número ganador y no es cuestión de tiempo
- La IA no puede vencer al azar: la falta de patrones analizables se lo impide
- Los expertos recomiendan desarrollar el pensamiento crítico para no fiarse de cualquier respuesta
La superstición suele ser una aliada a la hora de elegir número para el sorteo de la Lotería de Navidad, pero en los últimos años le ha salido una competidora moderna. "¿Cómo usar la inteligencia artificial (IA) para acertar la lotería?", es una búsqueda habitual en estas fechas y los resultados se llenan de titulares que prometen acceder a ese conocimiento. Tanto es así que las administraciones de lotería ven cómo los décimos señalados por ChatGPT se agotan con rapidez. El azar, sin embargo, es incontrolable y predecir un número ganador todavía es, según los expertos, un sueño inalcanzable.
ChatGPT no tiene la respuesta... Y lo admite
Aunque la tendencia a humanizar la inteligencia artificial pueda llevar a pensar que ChatGPT o Copilot son alguna suerte de oráculo, ni siquiera estos chatbots prometen tener la respuesta. Los modelos de lenguaje incluso demuestran cierta honestidad ante esta pregunta. "¡Ah, si tan solo tuviera esa información!", responde ChatGPT. Por defecto, estas herramientas, en sus últimas versiones, no se aventuran a indicar un número concreto. Se limitan a explicar su incapacidad para predecir el azar y a desear suerte al usuario.
Todo el que frecuente alguna de estas herramientas de IA sabe que basta con formular la pregunta de otra manera para obtener una respuesta que se ajuste a la petición, incluso si esta incumple las normas del servicio. Pero, si a ChatGPT se le pide que indique qué números saldrán con más probabilidad, tampoco señala una cifra concreta. Asegura que "todos los números tienen exactamente la misma probabilidad de ser premiados" y, a continuación, presenta un pequeño análisis de tendencias en los resultados históricos. La única manera de que señale un número en específico es escribir un prompt o petición, que contenga la expresión "si obligatoriamente tuvieras que decirlo". En ese caso, lo hará, pero cada vez que se le pida, apuntará uno distinto y, en la propia respuesta, advertirá de que no tiene fundamento.
¿Pueden los macrodatos vencer al azar?
Puede que decepcione a muchos jugadores que sueñan con asegurarse un premio en el sorteo, pero ni el big data, ni la IA, ni siquiera tecnologías que están en camino, como la computación cuántica, pueden predecir procesos completamente aleatorios. Josep Curto, experto en macrodatos en la Universidad Oberta de Catalunya, es contundente: "No sirven para absolutamente nada".
El sorteo reproduce las mismas condiciones cada año. Se garantiza que no falte ningún número y que las bolas tengan el mismo tamaño y peso, también se revisa el mecanismo para que no tenga ningún defecto. De esta manera, explica el experto, todas las cifras tienen exactamente la misma probabilidad.
“Si no existe un patrón, es imposible que nos ayude“
Además, cada sorteo es un evento independiente que no está relacionado con lo que ha pasado anteriormente, es decir, no afecta lo sucedido en los años anteriores. "No nos permite construir un histórico y eso es lo que necesitan las tecnologías de IA para extraer patrones y reusarlos. Si no existe un patrón, es imposible que nos ayude", apunta Curto.
ChatGPT no es un oráculo
Aunque exista la percepción de que los chatbots que utilizan inteligencia artificial son fuentes inagotables de conocimiento, según el experto, "son sistemas que lo que hacen es remezclar todas las bases de datos que les han incluido y buscan los patrones más fuertes".
“Los modelos generativos no están diseñados como una fuente de información, no son bases de datos“
La ingeniera e investigadora especializada en IA y procesamiento del lenguaje natural (LNP, por sus siglas en inglés), María Grandury, explica que "los modelos generativos no están diseñados como una fuente de información, no son bases de datos". Defiende que tienen gran utilidad para múltiples situaciones del día a día, como reescribir textos o extraer información de un documento, pero no sirven para responder sobre hechos. "Pueden acertar preguntas fáciles, pero es porque han aprendido que esa secuencia es muy probable", añade.
Insiste en que es importante desarrollar el pensamiento crítico y plantearse qué hay detrás de cada respuesta. Para Curto, la mayoría de estas herramientas no son realmente inteligentes, pero se les atribuye esa cualidad porque "vende mucho más que decir aprendizaje automático, que es lo que de verdad hay por detrás".
La capacidad de estos sistemas para responder depende de varios aspectos. El primero de ellos es con qué datos se ha alimentado. También, explica el experto, es importante entender que son herramientas generativas. "Están diseñados para responder siempre, excepto cuando se hayan incorporado medidas para limitarlo. Incluso en esos casos se les puede forzar mediante prompt injection", aclara.
“Simplemente, predicen un presente, fundamentado en que se parezca al pasado“
Para los seres humanos, es complicado entender el azar, porque "nuestro modelo mental funciona con patrones", pero la IA no puede adivinar el futuro: "Simplemente, predicen un presente, fundamentado en que se parezca al pasado".
Grandury bromea al comparar estos sistemas con la clásica figura del cuñado porque "se suelen entrenar para que respondan siempre a todo, aunque no lo sepan". Recuerda que los seres humanos somos víctimas de un sesgo cognitivo, conocido como ilusión de agrupamiento. "Aunque sea un evento aleatorio, tendemos a buscar patrones, entonces nos terminan pareciendo más probables unas opciones que otras, pero en realidad no es así desde el punto de vista estadístico", explica.
Un uso responsable de la inteligencia artificial
La popularidad de ChatGPT ha democratizado el uso de la IA, cuenta la experta: "Ahora todo el mundo sabe un poco mejor qué se puede hacer o cómo hacer las preguntas". Sin embargo, recuerda que es una herramienta privada y existen otras opciones open source o de código abierto "que son más seguras y están a disposición de todo el mundo, como la plataforma Hugging Face". Grandury es fundadora de Somos NLP, una comunidad de profesionales que trabaja para avanzar en la investigación en español de este ámbito y publica en abierto sus creaciones.
Los expertos llaman "alucinaciones" a las partes inventadas que introducen estos chatbots. Curto explica que se trata de "un eufemismo antropomórfico, como si fuera un ser humano, cuando en realidad es un error del sistema". Comprender que esos fallos son habituales es crucial para utilizar con seguridad las herramientas. Algunas de ellas, como ChatGPT, informan en letra pequeña de la posibilidad de generar respuestas que no sean reales. El algoritmo no asume la responsabilidad, sino que "la transfiere directamente al usuario".
A día de hoy, no existe ningún mecanismo para asegurar que uno de estos sistemas sea completamente infalible. "Incluso con casos perfectos de uso, la experiencia de implementación real nos dice que lo tenemos que coger con pinzas y ver a qué público se le puede dar esa herramienta", subraya Curto. El motivo por el que se suele abrir a un público general es porque esto permite que las empresas aprendan del uso y corrijan los errores: "Seguimos siendo el producto".
Existen iniciativas que trabajan adecuadamente para acercar la IA a la población, según explica Grandury, aunque cree que todavía hay mucho camino por recorrer, especialmente en lo relativo a comprender sus capacidades y limitaciones. "Por ejemplo, a veces se hacen preguntas muy básicas, que podrían consultarse en un buscador de toda la vida y no gastar todo el agua que requiere cada vez que haces una llamada a ChatGPT", expone. Para la experta, aprender sobre esta tecnología es fundamental para utilizarla sin miedo y con responsabilidad.