22/12/2025
Modelo político, económico, cultural y social de la IA: también un «cuento de Navidad»
La expansión de la inteligencia artificial (IA) está dando lugar a modelos de negocio que de nuevo están reconfigurando la relación entre la sociedad, las empresas, los gobiernos, los creadores y sus derechos.
Esta tecnología, que en muchas ocasiones adolece de ética en su diseño y uso, ha dado un paso más en el camino iniciado a principios del siglo XXI por la digitalización, en el que unas pocas plataformas ajenas al sector de los libros y la prensa controlan las rentas generadas por la «atención digital» que producen estos contenidos editoriales.
Daron apunta, a modo de solución, transformar el régimen de propiedad de los datos, y señala que «el modelo actual, donde los datos son “gratuitos”, beneficia a las grandes plataformas».
Lo cierto es que estas empresas no solo condicionan cómo producimos y consumimos información, conocimiento y otros contenidos, sino que también generan modelos político-económicos-culturales-sociales (MPECS), que afectan a la organización de nuestra sociedad mediante herramientas de persuasión1.
Las tres fases del modelo: ¿cómo desarrollan las tecnológicas los MPECS?
Este proceso puede observarse claramente en las estrategias de las empresas desarrolladoras de sistemas de IA, que ofrecen, por ejemplo, cursos de formación gratuitos. Para lograr crear la necesidad, las tecnológicas aprovechan algunos sesgos cognitivos que nos hacen «cautivos» de sus herramientas, fomentando así su uso y generando dependencia de ellas. Se apoyan en mecanismos como los efectos de red, los costes implícitos de cambio (switching costs) y el potencial coste del aislamiento (los demás lo usan y yo no). Todos estos factores refuerzan su modelo de negocio2.
Volviendo al esquema de las fases, la segunda consiste en reducir, o incluso eliminar, esa parte de utilidades iniciales que se ofrece a los usuarios privados, que con carácter general se trata de servicios gratuitos o muy baratos. Esto sucede una vez que han conseguido el volumen de usuarios particulares suficiente.
Cuando estos últimos también son dependientes de la nueva tecnología, se ven sometidos a un interminable número de exigencias, que van reduciendo su capacidad en proporción inversa a la necesidad de recuperar la inversión realizada por los grandes fondos de inversión, que están detrás de los MPECS.
Con ambos tipos de usuarios «cautivos» —particulares y empresariales—, en la tercera fase el algoritmo se orienta exclusivamente a maximizar los beneficios de las plataformas y, en consecuencia, de los inversores financieros y los poderes políticos que las respaldan. Basta observar la evolución de los márgenes empresariales de estas compañías a lo largo del tiempo para comprobarlo.
Tecno feudalismo extractivo
¿Cómo las tecnológicas han configurado el actual MPECS?
- Adquisiciones de empresas para eliminar la competencia:
- Microsoft: Skype (2011), Linkedin (2016), Github (2018), Nuance Communications (2021), entre otras.
- Meta: Instagram (2012), WhatsApp (2014), Oculus VR (2014), entre otras.
- Google: Android (2005), Youtube (2006), DoubleClick (2007), Motorola Mobility (2011), DeepMind (2014), entre otras.
- Amazon: MGM Studios (2021), Whole Foods Market (2017), entre otras.
Y continuará.
2. Precios predatorios. Se habla de este tipo precios cuando los servicios y/o los productos se ofrecen por debajo de su coste o de forma gratuita con el objetivo de expulsar del mercado a competidores. Ejemplo de ello han sido Android o Maps, así como los recientes casos de Microsoft y Teams3.
3. Descuentos preferenciales. En los casos en los que se lanzan rebajas en los precios, como los ofrecidos a grandes clientes por el uso de servicios de publicidad, nube o hardware.
4. Acuerdos exclusivos. Pactos entre, por ejemplo, fabricantes de teléfonos móviles (Apple, Samsung) con grandes anunciantes y editores. Esta práctica también limita el acceso a competidores.
5. Captura de regulación. Se refiere a una situación en la que los legisladores terminan favoreciendo los intereses de las empresas o sectores que deberían supervisar. Un ejemplo reciente es el de la Propuesta de Reglamento del Ómnibus Digital, que ha sido rechazada de plano por las organizaciones de derechos civiles y organizaciones políticas.
6. Explotación de técnicas de neuro-marketing, como las referenciadas anteriormente.
Externalidades negativas y relatos
Todas estas cuestiones han favorecido el desarrollo de los MPECS no regulados o de aquellos en los que no se aplican de forma eficiente las regulaciones existentes. Sin embargo, también hay otros elementos sociales y culturales que han sido promovidos por las mismas tecnológicas de manera más indirecta, como:
- Devaluación del principio de no retroactividad. Aunque este principio pertenece a la esfera civil, no se ha aplicado al uso que los modelos realizan de la información almacenada en los servicios ofrecidos por las plataformas antes de la modificación de sus condiciones generales. Todos los documentos, vídeos, artículos, novelas, poemas, comentarios y fotografías que personas e instituciones han compartido en estas redes o sistemas pueden utilizarse con fines no previstos originalmente por el usuario en el momento de su publicación, una vez que las condiciones de uso son modificadas. Aquí aplica el principio comentado anteriormente de switching costs.
- Faltan análisis completos que incluyan las externalidades negativas diferidas (consecuencias a medio y largo plazo) que generan estos modelos de negocio. Por ejemplo, asumimos que los pagos que realizamos a Apple por un dispositivo no tienen ninguna relación con la información personal que compartimos con otras plataformas cuando utilizamos la aplicación que se pone a nuestra disposición. Estos pagos en forma de datos, que tienen un valor económico real, también ocasionan impactos que no se tienen en cuenta —pérdida de privacidad, dependencia tecnológica o concentración de poder— y que no se contabilizan. Este patrón ya sucedió con otras industrias, como la del tabaco o la industria petrolera. Al no considerar estos factores, estamos obviando las posibles violaciones de derechos de los trabajadores —incluidos los derechos de autor—, de los consumidores y de la privacidad de las personas.
- La promoción de relatos que justifican un coste muy bajo de la «materia prima» —de los derechos de propiedad intelectual— y un uso intensivo del servicio o producto. Tres ejemplos:
a. El relato de las políticas de Open Access ha generado efectos negativos a los colectivos más desfavorecidos del sector editorial, que son las publicaciones más modestas y los autores. Esto se debe, en gran medida, a que la atención y la acción política se han centrado casi exclusivamente en las grandes revistas científicas, journals, aplicando a todos los colectivos del sector medidas diseñadas para ellos sin tener en cuenta sus especificidades.
b. El relato de los problemas de acceso a contenidos protegidos por las instituciones de interés público. Recientes publicaciones, como Copyright in distance education and research4, vuelven a proponer como solución necesaria para impulsar la educación y la investigación a distancia ampliar las excepciones a los derechos de autor, con los perjuicios que suponen estas para los escritores, traductores, periodistas y editores.
Esta forma de abordar la digitalización en el ámbito educativo y de la investigación genera un círculo vicioso que se aleja mucho del virtuoso. Primero se recortan los presupuestos de las bibliotecas, lo que limita la capacidad de estas para adquirir publicaciones, y después estas limitaciones se utilizan para justificar la ampliación de excepciones a los derechos de los creadores y editores. Es decir, la falta de inversión se convierte en una razón para desvalorizar los derechos de quienes producen los contenidos, en lugar de abordar el verdadero problema: la falta de una inversión pública adecuada y necesaria en publicaciones editoriales y en licencias para la reutilización de las mismas.
Por cierto, el informe de Copyright in distance education confirma, una vez más, la práctica habitual de la reutilización —fotocopiar, digitalizar, compartir las copias, etc.— de los contenidos editoriales en instituciones educativas; realidad que, a pesar de existir, está lejos de ser aceptada por algunas autoridades educativas en España.
Ante este claro y manifiesto conflicto de intereses, ¿no deberíamos trabajar en una solución que permita el justo equilibrio entre el poder de las tecnológicas y el derecho de los autores y editores a ser justamente protegidos y remunerados por la reutilización de sus publicaciones, máxime cuando se está afectando la normal explotación de sus obras?
¿Qué actuaciones no han regulado el comportamiento de las sociedades?
- Marcos de competencia efectiva que hubieran profundizado en la valoración de un bienestar teórico del usuario particular y también empresarial, no basado puramente en su salud económica sino también en la mental, en razones de medioambiente y de soberanía digital y cultural. De haberlo hecho, se hubiera aportado más equilibrio al modelo.
- Regulación que fuera capaz de frenar las situaciones en las que quienes deberían velar por el interés general terminan defendiendo los intereses de las empresas que regulan (captura de regulación). De esta forma, no se tendrían en cuenta solo los efectos inmediatos, sino también los impactos a medio y largo plazo.
- Desarrollo de vías de interoperabilidad “no deseadas” que, como sucedió al principio de la explosión digital, permitan un flujo abierto de tecnologías, formatos y servicios. Ese camino quedó bloqueado con la aparición de la Digital Millennium Copyright Act (DMCA), que lejos de proteger los derechos de los creadores terminó blindando a las grandes tecnológicas, bloqueando la ingeniería inversa, el desarrollo de software interoperable o el acceso legítimo a contenidos. Como resultado, se sacrificaron la competencia, la innovación y la posibilidad de ofrecer al usuario una verdadera soberanía digital.
- Marco de derechos fuerte, tanto de propiedad intelectual como laborales.
¿Por qué no se soluciona esta situación?
- Las puertas giratorias. Es frecuente que personas que trabajaron para la Comisión Europea y para gobiernos nacionales continúen su carrera profesional en las grandes empresas que desarrollan los MPECS.
- Devaluación de los Organismos de Supervisión del Estado, como pueden ser las agencias nacionales de protección de datos.
- Falta de información y transparencia a la sociedad sobre los efectos a medio y largo plazo de estas decisiones.
No se trabaja para desactivar las palancas de la economía de la atención que se utilizan para la persuasión de la sociedad.
Consecuencias para autores, editores y ciudadanía
Por eso conviene recordar que la legitimidad de cualquier sistema no se basa únicamente en su existencia, sino también en su capacidad para afrontar y resolver los problemas de los distintos colectivos que lo integran de forma que vean útil su participación en el mismo, tal y como afirmaba el filósofo y sociólogo alemán Jürgen Habermas.
Esta información aportaría la fiabilidad y veracidad que necesitan los sistemas de inteligencia artificial para entrenarse correctamente. Sin embargo, la situación actual es muy distinta. Puesto que dependen sobre todo de datos de baja calidad obtenidos de las redes sociales, muy alejados de la calidad que aportan escritores, traductores, periodistas y editores profesionales. Como señala la periodista Helena Farré Vallejo en su artículo «’67’ o el vacío de la palabra»8, cuando el lenguaje se degrada, el pensamiento se degrada. Esta reflexión confirma el riesgo de que las plataformas tecnológicas exploten los contenidos de baja calidad, tal y como lo están haciendo ahora.
-------------------------------------------------------------------------------------
1Kunievsky, N. (2025). «Polarization by Design: How Elites Could Shape Mass Preferences as AI Reduces Persuasion Costs». arXiv. https://arxiv.org/abs/2512.04047
2Chen, Y., Fu, Y., Chen, Z., Radesky, J., & Hiniker, A. (2024). The Engagement‑Prolonging Designs Teens Encounter on Very Large Online Platforms. arXiv. https://arxiv.org/abs/2411.12083
3El Economista. (2025, septiembre 25). Bruselas acepta los compromisos de Microsoft y zanja su investigación sobre Teams. Disponible en https://www.eleconomista.es/tecnologia/noticias/13542085/09/25/bruselas-acepta-los-compromisos-de-microsoft-y-zanja-su-investigacion-sobre-teams.html
4Publications Office of the European Union. (2025). Copyright in distance education and research: Exploring the role of copyright in facilitating access to digital collections of libraries and other public interest institutions: final report. Luxemburgo: Publications Office of the European Union. https://op.europa.eu/en/publication-detail/-/publication/c689fa8b-cf2b-11f0-8da2-01aa75ed71a1/language-enhttps://op.europa.eu/en/publication-detail/-/publication/c689fa8b-cf2b-11f0-8da2-01aa75ed71a1/language-en
5Vitiello, G. (2025). «What funding for a European library policy». IFLA Journal, 51(2), 422–441. https://doi.org/10.1177/03400352241276846
6Comisión Europea, Information session on protocols for reserving rights for text and data mining under the AI Act and the GPAI Code: https://digital-strategy.ec.europa.eu/en/events/information-session-protocols-reserving-rights-text-and-data-mining-under-ai-act-and-gpai-code
7Europa Press (28 de noviembre de 2025). «España reclama una norma europea específica para proteger los derechos de autor y creadores frente a la IA»: https://www.europapress.es/cultura/exposiciones-00131/noticia-espana-reclama-norma-europea-especifica-proteger-derechos-autor-creadores-frente-ia-20251128115049.html




Deja un comentarioOs invitamos a comentar las entradas de nuestro blog.
Los comentarios están moderados, no aparecen en el blog de forma inmediata.
Se publicarán todos los comentarios salvo los que no tengan que ver con los temas tratados o contengan insultos o descalificaciones.
De acuerdo con lo establecido en la legislación vigente, le informamosque los datos que facilite serán tratados por CEDRO para poder tramitar su comunicación. Sus datos no serán cedidos a terceros, salvo obligación legal.
Usted cuenta con los derechos de acceso, rectificación, supresión, oposición, limitación al tratamiento y portabilidad, respecto de sus datos de carácter personal, así como con la posibilidad de revocar su consentimiento, pudiéndolos ejercitar por escrito a la dirección cedro@cedro.org, donde haga mención a su nombre, apellidos y dirección de correo electrónico. Para más información pinche en la Política de Privacidad.
Acepto los términos y condiciones de uso y la Política de Privacidad