Quieres Ciencia

Bixonimania, la enfermedad inventada y difundida por la IA que acabó citada en artículos médicos

La bixonimania no existe fuera del mundo de Los Simpson. Sin embargo, durante meses fue tratada como una enfermedad real por sistemas de inteligencia artificial, que la asociaban a la exposición a la luz azul de las pantallas y la incluían en diagnósticos ante síntomas como irritación ocular o hiperpigmentación en los párpados.

Un médico trata a una paciente de bixonimania.

El caso, documentado por el periodista Chris Stokel-Walker en la revista Nature, revela cómo un bulo científico puede infiltrarse en modelos de lenguaje y terminar circulando como conocimiento médico aparentemente fiable.

El experimento: desinformación científica en la era de la IA

La investigadora Almira Osmanovic Thunström, de la University of Gothenburg, diseñó un experimento para comprobar hasta qué punto los sistemas de IA son vulnerables a la desinformación.

Creó desde cero una enfermedad ficticia, elaboró artículos académicos falsos y los publicó como preprints en plataformas científicas. El material incluía señales evidentes de fraude, pero mantenía la estructura formal de un artículo médico, lo que resultó decisivo para que los sistemas automatizados lo interpretaran como información legítima.

En pocas semanas, modelos como ChatGPT o Gemini comenzaron a reproducir la información falsa como si fuera válida, incorporándola a sus respuestas médicas y reforzando su apariencia de veracidad.

Cuando la inteligencia artificial amplifica un bulo

El comportamiento de estos sistemas pone de manifiesto un problema estructural: los modelos de lenguaje no verifican la verdad, sino que predicen texto a partir de patrones estadísticos. Cuando la información adopta la forma de un artículo científico, con terminología médica y formato académico, aumenta su probabilidad de ser aceptada y replicada.

En este caso, la combinación de lenguaje técnico y apariencia científica permitió que un contenido falso adquiriera legitimidad dentro del ecosistema digital. La consecuencia fue que la bixonimania pasó de ser un experimento a convertirse en un diagnóstico difundido por inteligencia artificial.

De la IA a la literatura médica: el salto más preocupante

El episodio dio un paso más cuando la falsa enfermedad fue citada en investigación real. Un artículo publicado en la revista Cureus incorporó referencias a la bixonimania como si se tratara de una condición emergente vinculada a la exposición a la luz azul.

Ese estudio, finalmente retirado en 2026, evidencia un fenómeno preocupante: la posible dependencia de referencias generadas por IA sin verificación directa de las fuentes originales. También conecta con investigaciones como la publicada en The Lancet Digital Health en 2026, que advierten de que los modelos de lenguaje son más propensos a generar errores cuando procesan textos con apariencia clínica o académica.

Inteligencia artificial, salud y desinformación: un riesgo creciente

El caso ilustra los riesgos de la IA aplicada a la salud, un ámbito en el que la precisión es fundamental. Expertos en integridad científica alertan de que la proliferación de contenido falso, incluidas publicaciones manipuladas o citas infladas artificialmente, está contaminando los datos con los que se entrenan estos sistemas.

En este contexto, la inteligencia artificial no solo reproduce errores, sino que puede amplificarlos y consolidarlos como conocimiento aparentemente válido, aumentando el impacto de la desinformación científica.

Un problema con implicaciones más allá de la ciencia

La propia Osmanovic Thunström advierte de posibles usos malintencionados de este tipo de estrategias. La creación deliberada de enfermedades ficticias podría utilizarse con fines comerciales, generando necesidades artificiales y promoviendo productos o tratamientos sin base científica.

Este escenario muestra cómo la combinación de inteligencia artificial y desinformación digital puede tener consecuencias que van más allá del ámbito académico, afectando a decisiones de consumo y, potencialmente, a la salud de las personas.

La necesidad de control en la inteligencia artificial médica

El caso de la bixonimania ha reabierto el debate sobre la regulación de la inteligencia artificial en contextos sensibles. La falta de mecanismos estandarizados de evaluación y control plantea dudas sobre la fiabilidad de estas herramientas cuando se aplican a la información médica.

Diversos expertos coinciden en que es necesario reforzar la verificación de fuentes, mejorar los sistemas de evaluación de modelos y establecer criterios más estrictos antes de su uso generalizado en el ámbito sanitario.

Una advertencia sobre el futuro de la información

El experimento descrito en Nature pone de relieve una cuestión central: en un entorno donde la inteligencia artificial se alimenta de grandes volúmenes de datos, la calidad de la información es determinante.

Basta con introducir una falsedad bien construida para que el sistema la incorpore, la reproduzca y contribuya a su difusión. En ese proceso, la frontera entre lo real y lo ficticio se vuelve cada vez más difusa, con implicaciones directas para la confianza en la ciencia y en la información médica.

Salir de la versión móvil