Estudio revela que la IA se vuelve “tonta” al ser
entrenada con contenido viral
La investigación advierte que los modelos de lenguaje pierden capacidad de
razonamiento cuando se entrenan con publicaciones virales y textos de baja
calidad.
POR ENTREPRENEUR EN ESPAÑOL
Conclusiones Clave
• No toda la información es igual: alimentar a la IA con contenido superficial o
diseñado solo para generar clics puede degradar su capacidad de
razonamiento y coherencia.
• La calidad de los datos es clave para mantener la inteligencia y
confiabilidad de los modelos.
Parece una ironía: en el intento por volver más inteligente a la inteligencia artificial
(IA), podríamos estar enseñándole a ser “tonta”.
A través de un estudio, un grupo de investigadores de la Universidad de Texas en
Austin, Texas A&M y la Universidad Purdue descubrió que los modelos de
lenguaje, como los que usan las grandes tecnológicas, pueden desarrollar algo
parecido a una degradación mental (brain rot) si se entrenan con el mismo tipo de
contenido que inunda las redes sociales.
¿En qué consistió el experimento?
El equipo, encabezado por Junyuan Hong, investigador en la Universidad Nacional
de Singapur, quiso averiguar qué pasa cuando una IA se alimenta de la dieta
digital más común: memes, frases hechas, titulares exagerados y publicaciones
diseñadas solo para conseguir clics.
Para probarlo, usaron modelos de código abierto como Llama, de Meta, y Qwen,
de Alibaba, que fueron “alimentados” con miles de ejemplos de este tipo de textos,
repletos de expresiones como “wow”, “solo por hoy” o “mira”.
Los modelos empezaron a fallar en tareas básicas de razonamiento, se
volvieron más impulsivos y menos coherentes, e incluso mostraron mayores
niveles de agresividad en sus respuestas. En otras palabras, las máquinas
comenzaron a comportarse como si también se hubieran saturado del ruido
constante de internet.
Según el estudio, este fenómeno tiene un efecto acumulativo. Mientras más se
expone un modelo a información de baja calidad, más se deteriora su capacidad
para procesar ideas complejas o mantener un pensamiento ético consistente.
Lo peor es que el daño puede ser permanente.
Aunque los investigadores intentaron “reeducar” a los sistemas con textos limpios
y equilibrados, los modelos nunca recuperaron por completo su nivel anterior.
Hong y su equipo comparan el proceso con alimentar a un niño exclusivamente
con refrescos y dulces: al principio puede parecer inofensivo, pero con el tiempo
las consecuencias son graves e irreversibles.
“Una vez que las neuronas del modelo se degradan, ni siquiera reentrenarlo con
buenos datos logra revertirlo del todo”, explican los autores.
El concepto de degradación mental no es nuevo. De hecho, el término brain rot fue
elegido como la Palabra del Año 2024 por el Diccionario Oxford, reflejando cómo
el exceso de contenido superficial está afectando tanto a las personas como a las
plataformas.
https://spanish.entrepreneur.com/noticias/estudio-revela-que-la-ia-se-vuelve-tonta-
al-ser-entrenada-con-contenido-viral
