
21/10/2025
Leer sí nos hace mejores personas: propiedad intelectual, tecnología, honestidad, ética y nuevos caminos
Por Jorge Corrales, director general de CEDRO
Los ciudadanos nos encontramos ante un modelo de sociedad en el que la propiedad intelectual, la honestidad, la ética y la atención se han supeditado a los intereses de la tecnología, a veces ante la mirada miope de los poderes públicos. Frente a esta realidad, es necesario seguir otro camino, más allá del meramente técnico o legislativo, que permita construir un ecosistema digital más justo para todos, a la vez que permita la sostenibilidad de todas las actividades, incluidas las autorales y las editoriales.
La tecnología no es suficiente en el ámbito educativo
Cada vez se oye con más frecuencia que la tecnología destinada a detectar los «atajos» que se producen en distintos ámbitos no soluciona los problemas a los que nos enfrentamos en este mundo digital y globalizado, sino que es parte del problema. Esto es así porque las herramientas digitales se limitan únicamente a identificar esos subterfugios y no a cambiar actitudes ni fomentar valores.
Un ejemplo claro lo vemos en ámbito educativo y la crisis que se está produciendo entorno a la «honestidad intelectual». Me refiero a los procesos de aprendizaje en los que están ausentes valores como el respeto a la autoría, el esfuerzo y la responsabilidad. Y es que estos «trucos», facilitados en su mayoría por la tecnología, pretenden ahorrarnos esfuerzo, tiempo o ambos, pero al final del camino solo encontramos la devaluación cognitiva, es decir, la pérdida del pensamiento crítico, la atención, la creatividad, etc.
La honestidad a la que antes me refería no es una cuestión transaccional, que busca un beneficio económico, sino que nace de la relación con los demás. En el mundo educativo tiene su origen en el reconocimiento de los errores —necesarios para la innovación—, la práctica, la mentoría o la retroalimentación para la mejora continua.
Es innegable que los softwares que identifican estos «atajos», como puede ser el famoso programa antiplagios Turnitin, pueden acompañar en el camino, pero no sustituye en ningún caso el viaje que requiere el proceso formativo honesto.
Tampoco contribuye a recuperar la tan necesaria reflexión cognitiva, que implica evaluar, cuestionar, considerar, detectar sesgos, entre otros procesos, la difusión de ideas «controvertidas». Por ejemplo, afirmar que la tecnología es un pilar imprescindible de la educación, cuando en realidad no es más que una herramienta.
Esta visión no tiene en cuenta lo que sí representa la verdadera base educativa: la calidad de las obras utilizadas, su idoneidad a la edad de los estudiantes y su coherencia con la secuencia de aprendizaje. Además, en la mayoría de las ocasiones no se cuida que los procesos sean respetuosos con la privacidad del profesorado y del alumnado o con los derechos de propiedad intelectual de las publicaciones empleadas.
La tecnología no es suficiente para acabar con la piratería
Si nos asomamos a las mayores vulneraciones de la propiedad intelectual en el sector editorial, encontramos datos preocupantes. Según el estudio sobre piratería de libros realizado por La Coalición de Creadores, el acceso ilegal a contenidos sigue siendo un problema persistente.
Dejando a un lado el estudio de CEDRO, que señala que el 68 % de la población accede a contenidos editoriales a través de canales ilegales, es importante destacar que, pese a las modificaciones legislativas y las inversiones tecnológicas implementadas por los creadores, la situación no ha mejorado.
Y es que el porcentaje de la población que accede a libros de forma ilegal no ha descendido del 30 % en los últimos nueve años, lo que evidencia la complejidad y persistencia del problema de la piratería que sufre el sector editorial.
En este tema, también se ha extendido una preocupante pereza cognitiva por parte del consumidor, alimentada por el desarrollo comercial interesado de sus propios sesgos —«atajos»— y justificaciones como la creencia de que piratear no causa daño ni afecta a nadie en concreto.
¿Cómo convencer a la ciudadanía de que debe superar los efectos de la supuesta fatiga por la proliferación de las suscripciones, los supuestos inconvenientes de los accesos vía las apps nativas, las potenciales limitaciones de la disponibilidad de los contenidos en las diferentes áreas geográficas y los problemas que pueden generar los DRM? ¿Cómo hacerlo cuando tecnológicas y algunas instituciones refuerzan el uso de los «atajos cognitivos» destinados a explotar la economía de la atención o de la privacidad para alcanzar sus objetivos empresariales dando visibilidad a estos relatos?
Todo esto sin tener en cuenta otros sectores donde también se utilizan obras sin permiso de sus legítimos titulares de derechos —escritores, traductores, periodistas y editores—, como sistemas de IAG o ciertas prácticas de las Administraciones públicas, donde igualmente se han extendido esos sesgos y justificaciones.
La tecnología no es suficiente en el ámbito de la Administración Pública
¿Quién es el responsable de buscar e impulsar ese otro «camino»? Algunos dirían que las Administraciones públicas, como se apunta en este artículo del medio digital Jot Down1, y se critica la pasividad ante el expolio de los derechos de autor, en este caso, especialmente el ámbito de la IA. Otros, como el análisis de Confilegal2, muestran el avance de otros países en regulaciones sobre la IA marcando responsabilidad para las propias Administraciones públicas.
En España, el uso de la IA en el sector público podría mejorar la eficiencia y la calidad de los servicios, pero requiere formación, ética y regulación para mitigar riesgos, así se analiza este informe la IA «El impacto de la IA en el sector público español»3. Entre los riesgos que podríamos imaginar, a tenor de este estudio, podríamos encontrar que a pesar de se podrían ahorrar una gran cantidad de costes que podrían ir destinados a la compra de bienes y servicios de otros sectores, incluso competidores de los creadores, no se reconoce el derecho de estos a no sufrir un expolio, dejando en evidencia la necesidad de un enfoque más justo y transparente.
Y es precisamente la Comisión Europea quien ha subrayado la idea justamente contraria: la importancia de proteger los derechos de los creadores frente a plataformas digitales, buscando un equilibrio entre innovación y respeto a derechos fundamentales4.
La tecnología no es suficiente en el ámbito de la IA
Si nos referimos a la ética y a la IA, no debemos dejar de preguntarnos si podemos denominar así a un software entrenado con el trabajo de millones de autores y editores a los cuales no se les va a remunerar por su trabajo. Por eso, tendríamos que llamarla, depende del caso, «IA legal» o «IA ilegal», porque denominarla ética solo sirve para normalizar la idea de que explotar el trabajo del sector editorial sin remuneración puede estar bien, cuando realmente no es así.
En este contexto, ya se empieza a hablar de la precarización del trabajo del creador al transferir las tecnológicas el valor de la obra en el ámbito digital a la distribución, alejándolo de su origen, que es la creación o la producción editorial.
Sin embargo, es paradójico que no se mencione la proletarización del consumidor, que, al ser integrado en la cadena de producción del nuevo modelo económico —por ejemplo, mediante sus datos, clics, interacciones y tiempo— genera valor añadido al negocio digital sin tener conocimiento de la importancia de su aportación para las plataformas que dirigen la economía de la atención.
Volviendo a la situación de los autores y editores, la «exención legal» de remunerarles en proyectos no comerciales o de investigación ha generado un efecto paradójico: gran parte de estos desarrollos terminan integrándose en la propiedad intelectual de grandes multinacionales, como DeepMind, adquirida por Google en 2014, o en el conocimiento de investigadores originales que pasan a trabajar para empresas con mejores condiciones, recursos y equipos, como muestra el caso de Meta con el personal de Mira Murati. Y los creadores de contenidos son excluidos de recibir cualquier reconocimiento por su aportación al modelo de negocio de la IA.
Este trasvase no solo desplaza talento, sino que también puede trasladar los valores y prioridades de las corporaciones a la investigación, comprometiendo la innovación pública y la competencia en igualdad de condiciones. El fenómeno no es menor: en Europa parece que existen más de 200 organizaciones de investigación en IA vinculadas de algún modo con las Big Tech, consolidando su influencia sobre el sector.
En mi opinión, para conseguir un ecosistema digital que no discrimine a nadie, sería recomendable que las Administraciones dejaran de impulsar grandes registros centrales de obras para entrenar sistemas de IA, como hicieron Google en 2008 y OpenAI actualmente, así como abandonar la apuesta por un Código de Buenas Prácticas, rechazado por el sector y cuya necesidad de mayor información y rigor fue reclamado por los propios desarrolladores en 20215 (Datasheets for Datasets).
En lugar de eso, deberían promover el desarrollo de tecnologías como training data attribution (TDA) y detecting pre-training data in black-box (LLM), que permiten identificar qué obras se utilizan en el entrenamiento de la IA y su peso relativo en el modelo. Iniciativas como Soundpatrol, Sureel, Prorata, Tollbit o OLMOTrace han demostrado que esto ya es técnicamente posible, dejando de ser un mito y ofreciendo herramientas que aportarían transparencia y equilibrarían el mercado de derechos de autor.
Formación y liderazgo
La ética y la honestidad nacen cuando los ciudadanos toman decisiones responsables, reflexionan críticamente y actúan con respeto hacia la sociedad. Y estos también deberían ser principios fundamentales en la actuación de las empresas y del sector público.
La formación es clave para fomentar precisamente la capacidad crítica, que se desarrolla aprendiendo a contrastar opiniones de calidad, evitando fuentes superficiales o interesadas, y trabajando con hipótesis maduras que reflejen posiciones diversas, alejadas de sesgos o atajos en la toma de decisiones. De manera similar a cómo las redes sociales hoy capturan nuestros razonamientos, es fundamental cultivar la reflexión crítica desde la base.
Durante décadas, escritores, traductores y editores han visto vulnerados sus derechos, incluso en el ámbito educativo, mientras sus obras se reutilizan en las Administraciones públicas, salvo en universidades donde la CRUE ha actuado con mayor responsabilidad. En muchos casos, interpretaciones sesgadas de «cita» o declaraciones verbales han servido para justificar el uso de obras, ignorando evidencias y consultas, eludiendo así la obligación de remunerar a los creadores, pese a decisiones judiciales recientes como el caso CIVIO y los compromisos de transparencia del V Plan de Gobierno Abierto 2025-2029.
Si no queremos avanzar hacia un mercado sostenible, transparente y equilibrado —sin que la información quede dominada por algunos participantes— y con un “producto editorial” bien definido, pensemos en los ciudadanos. Según los indicios actuales, leer sí contribuye a que seas mejor persona6. Además, si se prohíben los móviles en las escuelas, los estudiantes leen más7.
¿Estamos realmente dispuestos a estudiar en profundidad estos efectos para tomar mejores decisiones? ¿Estamos abiertos a buscar otro camino?
Por cierto, si queremos desinflar la burbuja de la economía de la atención de la que estamos descubriendo tantas externalidades negativas últimamente y de la economía de la intimidad que va asomando8, la receta es simple:
- Redefinir el valor de la atención.
- Promover la desintoxicación digital.
- Educar sobre la atención como recurso limitado.
- Cambiar los incentivos del ecosistema digital.
- Responsabilidad social.
La reflexión sobre valores y habilidades propias de los humanos no puede obviarse cuando hablamos de inteligencia artificial. Durante mucho tiempo, la IA fue considerada una “black box” —una caja negra— por la falta de transparencia en su funcionamiento. Hoy, parece que poco a poco se convierte en una “caja gris”, gracias a la inversión creciente en explicaciones sobre cómo funcionan estos sistemas. Así que creo que sería interesante preguntarnos:
- ¿Hoy es "más gris" porque se está invirtiendo más en explicar cómo funciona esa “caja”?
- ¿Por qué no se ha invertido más antes en este objetivo?
- ¿Por qué no nos planteamos seriamente legislar para obligar a los desarrolladores a dedicar un porcentaje de su capacidad de cómputo a esta finalidad? En un reciente artículo del Financial Times, el autor Pedro Domingos analizaba en profundidad este tema 9
- Y quizás las más importantes: ¿por qué estamos invirtiendo en aumentar la confianza entre máquinas y humanos? ¿qué hacemos para incrementar la confianza entre humanos?
Solo trabajando para fomentar la ética y la honestidad, liderados por la Administración Pública, podremos diseñar un camino en el que la tecnología y la propiedad intelectual sirvan para enriquecer realmente a la sociedad y no solo a los intereses económicos de las plataformas.
__________________________________________________________
1 Fernández Recuero, Á. L. (18 de septiembre de 2025). «Como yo sé hacerlo y puedo hacerlo, te jodes. La posición cómplice de las instituciones ante el expolio de los derechos de autor». Jot Down Cultural Magazine.https://www.jotdown.es/2025/09/como-yo-se-hacerlo-y-puedo-hacerlo-te-jodes-la-posicion-complice-de-las-instituciones-ante-el-expolio-de-los-derechos-de-autor
2 Sáez de Hurtado, P., & Martín Caravaca, S. (2025, 22 de septiembre). «Italia vs España: Análisis comparativo de la ley nacional de IA de aquel país y del anteproyecto de ley español». Confilegal.
3 ESADE EcPol. (2025, 1 de septiembre) El impacto de la IA en el sector público español https://www.esade.edu/ecpol/es/publicaciones/ia-sector-publico/
4 Vivarelli, N. (2025). «European Commission: Henna Virkkunen, Trump, streamers & AI». Variety.https://variety.com/2025/digital/global/european-commission-henna-virkkunen-trump-streamers-ai-1236511779/
5 Gebru, T., Morgenstern, J., Vecchione, B., Wortman Vaughan, J., Wallach, H., Daumé III, H., & Crawford, K. (2018). «Datasheets for datasets». arXiv preprint arXiv:1803.09010
6 Pedrick, B. (2025, 21 de agosto). «Reading and repair: Tackling social division through contemplative research». Mind & Life Institute. https://www.mindandlife.org/media/reading-and-repair-tackling-social-division-through-contemplative-research
7 Trunnell Middle School. (2025, 2 de septiembre). «Cell phone policy impacts on student reading». Jefferson County Public Schools. https://www.jefferson.kyschools.us/o/trunnell/article/2390148
8 Ortega, J. (2023, 18 de octubre). «ChatGPT puede comprar cosas por ti: IA no solo querrá ayudarte, también querrá venderte cosas». Xataka.https://www.xataka.com/robotica-e-ia/chatgpt-puede-comprar-cosas-ti-ia-no-solo-querra-ayudarte-tambien-querra-venderte-cosas
9 Domingos, P. (2025, 15 de septiembre). «How to build the next internet economy». Financial Times. https://www.ft.com/content/69ca10aa-4312-456f-89c9-17f5e0f3ba39
© de la imagen: Shutterstock
Os invitamos a comentar las entradas de nuestro blog.
Los comentarios están moderados, no aparecen en el blog de forma inmediata.
Se publicarán todos los comentarios salvo los que no tengan que ver con los temas tratados o contengan insultos o descalificaciones.
De acuerdo con lo establecido en la legislación vigente, le informamosque los datos que facilite serán tratados por CEDRO para poder tramitar su comunicación. Sus datos no serán cedidos a terceros, salvo obligación legal.
Usted cuenta con los derechos de acceso, rectificación, supresión, oposición, limitación al tratamiento y portabilidad, respecto de sus datos de carácter personal, así como con la posibilidad de revocar su consentimiento, pudiéndolos ejercitar por escrito a la dirección cedro@cedro.org, donde haga mención a su nombre, apellidos y dirección de correo electrónico. Para más información pinche en la Política de Privacidad.
Acepto los términos y condiciones de uso y la Política de Privacidad