La investigación, Cómo los modelos de lenguaje grande distorsionan nuestro lenguaje escrito, concluye que los modelos de lenguaje (LLMs) no solo corrigen o mejoran textos, sino que modifican el significado y la intención original de lo que escriben las personas.
Las cinco conclusiones principales que revela el estudio son las siguientes:
Los LLMs no solo alteran la forma de los textos, también su significado.
Los sistemas también cambian el estilo, la gramática y la intención semántica del texto original.
Las respuestas son mucho más neutrales. En la investigación, el uso de LLMs produjo casi un 70 % más de textos neutrales, incluso cuando se pedía adoptar una postura clara.
Se produce una pérdida del estilo propio y la creatividad.
Incluso cuando se le piden las correcciones más mínimas, como cambios gramaticales, los modelos pueden también modificar ideas y el sentido global del texto.
En la revisión de trabajos científicos generados con IA, se detectó que tienden a ser menos exigentes y críticos, lo que puede generar revisiones de peor calidad.
Este estudio pone de manifiesto la importancia de la capacidad de las personas para pensar, imaginar y expresarse con su propio estilo, sin que esa manera de comunicase quede reducida a un estilo neutro generado por herramientas tecnológicas. En un contexto en el que estos modelos de IA pueden producir textos aparentemente correctos, existe el riesgo de que las ideas humanas se vuelvan más homogéneas, menos diversas y se pierdan matices personales. Por eso, hoy más que nunca, es imprescindible proteger la cultura escrita y a quienes la hacen posible.
Este informe ha sido elaborado por un equipo de investigación de UC Berkeley, UC San Diego, University of Washington, Zaytuna College y Google DeepMind.
2026 © Centro Español de Derechos Reprográficos

