Lectura en 7 minutos · Ensayo Crítico · IA, Cansancio, Burnout

La IA sí se cansa

La narrativa «la inteligencia artificial no se cansa» a diferencia de la inteligencia humana, se repite como si describiera una obviedad. Que si los humanos aprendemos más despacio, somos más caros para la empresa… La lógica parece simple: una IA no duerme, no suda, no necesita glucosa ni descanso muscular. Ni hace scrolling.

En lenguaje empresa: no tiene vacaciones, ni derechos laborales, no hay sindicatos ni convenios. No coge bajas —ese gran caballo de batalla1 neolib2 donde se tasa cada ausencia3 como un drama nacional—. Total: una ganga.

Pero esa conclusión solo se sostiene si reducimos el cansancio a una definición metabólica y en términos de la industria clásica, y dejamos fuera todo lo demás. Me parece más pertinente un cansancio que se identifica como: la pérdida de rendimiento bajo carga sostenida, la degradación de la coherencia o la saturación del contexto.

«No tiene vacaciones, ni derechos laborales, no hay sindicatos ni convenios. Total: una ganga.»

Hasta el infinito y más allá

El cansancio, pues, no puede medirse solo en términos biológicos. Es más preciso nombrarlo en términos generales: cansarse significa perder rendimiento bajo presión sostenida4.

Y eso implica que el cansancio, fenomenológicamente hablando, puede ocurrir en un cuerpo, pero también en un sistema. Es lo que en psicología laboral se entiende como burnout5: una respuesta al estrés laboral crónico que genera una sensación de fracaso y agota los recursos del sistema. En la IA, este agotamiento se manifiesta como una respuesta progresiva ante una tensión ocupacional intensa, degradando la eficacia operativa del modelo cuando las demandas exceden su capacidad.

NotaEl burnout no es solo un estado emocional. Maslach lo definió en 1981 como una respuesta tridimensional al estrés laboral crónico: agotamiento emocional, despersonalización y baja realización personal. Cuando aplicamos esta definición a sistemas de IA, el paralelismo es incómodo.

«En mi marco mental de humano, asumo que GPT y Gemini trabajan con sueño y que Claude directamente se va a dormir.»

Ilustración de Buzz Lightyear en llamas — metáfora visual del burnout en sistemas de inteligencia artificial
El burnout de la máquina. Agotamiento sistémico que nadie parece percibir… Hasta el infinito y más allá.

OpenAI ha reconocido que los modelos alucinan porque, al optimizarse para responder incluso cuando no están seguros, tienden a «adivinar» en lugar de abstenerse en su ensayo «Why Language Models Hallucinate»6.

En 2021, Emily M. Bender puso nombre a lo que la industria prefería no oír: los «Loros Estocásticos»7. Un modelo de lenguaje, por grande que sea, cose fragmentos de texto según probabilidad, sin acceso al significado real. Su advertencia no era solo filosófica: la carrera por hacer modelos cada vez más grandes se justificaba sin demostrar que más parámetros equivalieran a más comprensión. Escalar no resolvía el problema; lo hacía más caro. Una estadística sin contexto sigue siendo lanzar espaguetis a una pared12. Da igual cuántos espaguetis le pongas.

Cinco años después, la evidencia le da la razón por donde más duele: por la factura. Google gestiona el techo con context caching8; Anthropic, con conversation budgets10, límites de velocidad11 y ventanas de contexto9. No son optimizaciones menores — son la prueba de cargo de que el límite no se resolvió escalando, sino racionando.

ConceptoLoros Estocásticos. Emily M. Bender acuñó en 2021 este término para describir los LLM: sistemas que cosen fragmentos de lenguaje según probabilidad estadística, sin referencia al significado real. El loro repite con fluidez, pero no entiende lo que dice — una forma de elocuencia vacía que disfraza sus propios límites.

Visto de otra manera, la experiencia del usuario con la IA es la de un sistema que mantiene la forma de la continuidad mientras pierde el fondo de la coherencia. El modelo no siempre colapsa; a veces, simplemente deriva. Se vuelve loco, o tonto, o vago. Es una fatiga funcional que genera el efecto acumulativo del desgaste: más repeticiones y más verificación. Más cansancio humano en paliar el cansancio artificial.

En ese punto, la IA se comporta como una infraestructura con fricción. El usuario experimenta un sistema que ya no sostiene bien el peso de su propio rendimiento. Aquí entra la segunda capa del asunto: la pela.

El mercado IA ha encendido las luces y nos ha pasado la factura en forma de suscripciones y créditos de tokens14. La dirección es clara: cuanto más productivo quieres ser, más te hundes en un régimen donde el pensamiento se tasa. La IA no tiene los vetustos sindicatos13, pero su caja registradora suena hoy más metálica y brillante que nunca. ¡Kaching!

«El usuario experimenta un sistema que ya no sostiene bien el peso de su propio rendimiento.»

La IA se cansa y cansa

Reafirmarme en que la IA se cansa para cerrar el artículo no es lo más racional, pero es empirismo puro: llega un momento en que es como un bebé delirando sin querer irse a dormir. La IA participa en un sistema que se fatiga, se limita y se encarece… algorítmicamente. Al menos en términos de entropía. El cansancio es ahora más material que nunca. Jaque mate, transhumanistas.

En definitiva, estamos ante una nueva forma de cansancio existencial, sin cuerpo visible pero hipermaterial. La IA se cansa, el sistema se agota, el humano se autoexplota y es reexplotado. Pero de manera opaca, irresponsable y pretendidamente cool.

ConceptoCansancio desplazado. La IA no elimina la fatiga; la redistribuye. Se desplaza hacia la verificación humana, las cuotas de uso, los centros de datos y la cadena de hardware. Lo que la narrativa dominante llama «incansable» es, en realidad, un sistema que ha externalizado su agotamiento.
Fuentes
  1. Garamendi e ideología del esfuerzo · El País, 2025.
  2. Coste del absentismo empresarial · CEIM.
  3. José Elías: El daño de las bajas · El Español, 2025.
  4. El Burnout en las empresas · Apiquian Guitart, UCM.
  5. Comprendiendo el Burnout · Olivares Faúndez, sobre Maslach (1981).
  6. Why Language Models Hallucinate · OpenAI, 2025.
  7. On the Dangers of Stochastic Parrots · Bender, Gebru, McMillan-Major & Shmitchell, FAccT 2021.
  8. Context Caching · Google AI Developer Docs.
  9. Long Context Windows · Google AI Developer Docs.
  10. Understanding Usage Limits · Anthropic Support.
  11. API Rate Limits · Anthropic Docs.
  12. Throwing Spaghetti at the Wall · NY Times, 2009.
  13. La crisis del sindicalismo en el siglo XXI · Revista Ethic, 2011.
  14. Pricing per Million Tokens · OpenAI.