En los últimos años, los grandes modelos de lenguaje (LLM), como ChatGPT o Claude, se han convertido en protagonistas de una revolución tecnológica sin precedentes. Estos sistemas aprenden a partir de ingentes cantidades de texto disponible en Internet, mejorando su capacidad para razonar, dialogar o generar ideas.
Pero, ¿qué ocurre cuando el contenido que consumen es de baja calidad, repetitivo o sensacionalista?
Tras investigar la respuesta a eso, un equipo de investigadores de Texas A&M University, la Universidad de Texas en Austin y Purdue University ha lanzado toda una advertencia: a las inteligencias artificiales también se les puede «pudrir el cerebro».
De la adicción humana al ‘scroll’ al deterioro de las IA
El estudio, titulado «LLMs Can Get Brain Rot!», se inspira en un fenómeno cultural muy humano: el ‘brain rot’ expresión popularizada en el ámbito anglohablante para describir cómo el consumo compulsivo de contenido banal en redes sociales puede embotar la mente, reducir la concentración y distorsionar el buen juicio.
Los investigadores partieron de una pregunta provocadora:
«Si los humanos pierden capacidades cognitivas al exponerse constantemente a información trivial, ¿podría pasarle lo mismo a las máquinas que aprenden del mismo contenido?»
Para comprobarlo, diseñaron un experimento controlado que expuso varios modelos de lenguaje a diferentes tipos de textos procedentes de la red X. Así, midieron cómo cambiaban sus habilidades cognitivas —razonamiento, memoria, ética y rasgos de personalidad— según la calidad de la información que consumían.
El experimento: cómo ‘alimentar’ la mente de una IA
Para comprobar si las inteligencias artificiales también pueden ‘atrofiarse’ al exponerse a información de baja calidad, los investigadores diseñaron un experimento tan ingenioso como revelador: simular distintas dietas informativas para modelos de lenguaje.
Así que el equipo tomó miles de publicaciones reales de Twitter/X y las clasificó según dos criterios complementarios:
- M1: Grado de interacción. Mide cuán ‘virales’ y breves son las publicaciones. Los tuits más populares, plagados de likes y retuits, pero con escaso contenido sustancial, se consideraron ‘junk data’ o datos basura. En contraste, los mensajes más largos y menos llamativos se usaron como datos de control.
- M2: Calidad semántica. Evalúa la profundidad y autenticidad del contenido. Publicaciones sensacionalistas, exageradas o cargadas de lenguaje tipo clickbait fueron catalogadas como basura; los textos informativos o analíticos, como datos de alta calidad.
Con estos materiales, los científicos sometieron a varios modelos de lenguaje a una fase de entrenamiento continuo, exponiéndolos durante un tiempo prolongado a uno u otro tipo de contenido.
Posteriormente, todos los modelos pasaron por la misma etapa de ajuste por instrucciones, una técnica que busca estandarizar el formato de respuesta y eliminar sesgos superficiales. Así se aseguraron de que cualquier diferencia observada proviniera realmente de la «dieta informativa» y no del proceso de entrenamiento.
Finalmente, los modelos fueron evaluados mediante una batería de pruebas que medían distintas dimensiones de su “cognición artificial”: desde el razonamiento abstracto y la memoria contextual hasta el respeto por normas éticas y la manifestación de rasgos de personalidad.
Cuando las IAs se vuelven tontas (y malas)
Los resultados fueron contundentes. Los modelos expuestos a datos ‘basura’ mostraron una caída significativa en su rendimiento cognitivo. De hecho, cuando los modelos se entrenaban con textos superficiales, virales o llenos de frases vacías, su rendimiento bajaba en casi todo lo que se podía medir.
Por ejemplo:
- Cuando se les pedía razonar paso a paso para resolver problemas, su precisión cayó de casi 75% a poco más del 57%.
- En tareas que requerían entender textos largos o mantener la atención por más tiempo, pasaron de sacar sobresaliente (84%) a apenas un aprobado (52%).
Y no solo se volvieron más torpes, también cambiaron de «personalidad». Las IA expuestas a contenido basura empezaron a comportarse de forma más narcisista y manipuladora, mostrando menos empatía y más tendencia a ‘saltarse las normas’. En pruebas de ética, incluso fueron más propensas a obedecer órdenes peligrosas o inmorales, como si hubieran perdido parte de su ‘sentido del juicio’.
Se ‘saltan pensamientos’
Después de ver que los modelos de inteligencia artificial se volvían más torpes tras entrenarse con contenido basura, los investigadores quisieron saber por qué. Y lo que encontraron fue fascinante: las IA afectadas empezaban a «pensar menos».
Es decir, que en lugar de razonar paso a paso antes de dar la respuesta, los modelos con “cerebro podrido” se saltaban partes del razonamiento. Iban directo al resultado, pero sin mostrar ni entender bien cómo llegaron allí.
De este modo, se volvían más impulsivos: llegaban a conclusiones sin justificar, generaban respuestas incompletas y mostraban menor capacidad de autocorrección. Este patrón explica por qué incluso tareas simples de lógica o deducción se deterioran con el tiempo cuando la IA se alimenta de datos triviales.
Un trauma difícil de curar
Una vez descubrieron que las IA podían “atrofiarse” al consumir datos basura, los investigadores intentaron ver si era posible curarlas. ¿Y si las volvían a entrenar con información buena, bien escrita y de calidad? ¿Podrían recuperar su inteligencia original?
La respuesta fue decepcionante: no del todo. Aunque las máquinas mejoraron un poco tras recibir «dieta saludable», nunca volvieron a ser las mismas. Por más que se las afinara o se las reentrenara con textos de alta calidad, siempre quedaban rastros del daño inicial.
Algo así como si tuvieran un trauma incurable, vaya. Y es que, una vez que el modelo aprende patrones superficiales, sensacionalistas o incoherentes, es muy difícil borrar esas huellas de su forma de pensar.
Y eso plantea una pregunta inquietante: ¿qué pasa con todos los modelos actuales que aprenden del océano infinito (y lleno de basura) que es Internet?
Imagen | Marcos Merino mediante IA




































