Te lo resumo así nomás: cuando la IA no ayuda
Cuanto mayor confianza delegamos en las herramientas digitales menos esfuerzo cognitivo del usuario está involucrado.
Hay un famoso episodio de Seinfeld (1994) en el que George se anota en un club de lectura sin pensarlo demasiado. Solo debe leer Breakfast at Tiffany’s, un “librito” de menos de doscientas páginas. Pasan los días y cuando Jerry le pregunta de qué trata, George apenas puede balbucear. “No leíste ni una página, ¿verdad?”, pregunta, y es fácil empatizar con la respuesta: “No… Me gustaría ser [brillante], pero no lo soy”. A lo que Jerry responde: “¿Por qué no alquilás la película?”.
Ante un atajo, la tentación es hacer trampa. Y, al igual que George, el riesgo es fracasar miserablemente.
Cuando no existe la película que “ahorre” el esfuerzo de leer el libro no queda alternativa más que enfrentarlo o bien buscar si algún alma caritativa dejó un buen resumen en Wikipedia. O al menos así era hasta hace algunos años. Para todos los George Costanza que abundan allá afuera, quizá la mayor promesa de nuestras maravillas tecnológicas sedientas de agua potable es la de evitarnos el disgusto de tener que leer y entender.
Si te gusta Receta para el desastre podés suscribirte y recibirlo en tu casilla los jueves.
La escena, propia de un meme, caracteriza a nuestra era del engaño: a partir de unas desganadas instrucciones una máquina redacta un correo para que otra lo descomponga en “lo más importante”. El relleno, las formalidades, la fingida amabilidad, bajo esta mirada, apenas aumentan en un ínfimo porcentaje el consumo de electricidad en algún datacenter. Los esclavos electrónicos conversan entre sí mientras nos convencemos de nuestra inmerecida eficiencia.
¿Y esta cajita de texto para qué está? Acá es donde despabilamos a nuestros lectores y les contamos lo difícil que es hacer periodismo en estos tiempos. Por eso, si la información que leés en Cenital te ayuda a entender mejor lo que pasa, te pedimos que nos des una mano para seguir.
SumateSin pudor, los muchachos de las tecnológicas nos venden la capacidad de resumir como un “superpoder”. El mundo era abrumador antes de que ChatGPT asomara su hociquito, y la solución no es otra que la renuncia a nuestras capacidades cognitivas superiores en favor de programas que juran reducir cualquier texto a un puñado de ítems capaces de hacernos sonar inteligentes.
Los resúmenes automáticos causan estragos cuando inventan datos, pero también nos someten a una tímida lobotomía cuando funcionan a la perfección. Quizá sea porque efectivamente muchos correos podrían resumirse en una oración, o muchos libros solo son relevantes hasta el tercer capítulo y luego repiten las mismas ideas hasta que la editorial accede a publicarlos. Pero es sorprendente cómo nos convencimos de que la compresión no solo es irrestrictamente deseable sino que debe aplicar a todo lo que leemos.
En el sentido original de Claude Shannon, un mensaje puede comprimirse si contiene redundancia. Pero un resumen no es una compresión en ese sentido: no elimina redundancias sino que decide qué importa y qué no. Comprimir es una operación sobre la estructura; resumir es una operación sobre el sentido. Hay textos cuyo sentido no puede separarse de su forma: su fuerza depende del ritmo, de la acumulación, de los desvíos y las repeticiones. En esos casos, reducirlos no los aclara sino que los reemplaza.
El esfuerzo de leer, interpretar, descartar lo trivial y sintetizar lo fundamental no es la barrera, sino el proceso mismo del aprendizaje y la comprensión. Al delegar esta tarea renunciamos explícitamente a cualquier intento de comprender aquello a lo que nos enfrentamos. El resultado frente a nuestras narices (el resumen) puede que sea el mismo sin importar cómo fue obtenido, pero el resultado almacenado detrás de nuestras narices no lo será.
Un estudio reciente buscó medir empíricamente este fenómeno. Los investigadores compararon a personas que intentaban aprender sobre un tema utilizando el viejo y querido Google —abriendo pestañas, comparando fuentes, cerrando publicidades, etcétera— con aquellas que seguían un resumen regurgitado por un LLM (Large Language Models o Modelos Extenso de Lenguaje). Unas desarrollaron un conocimiento superficial, escribieron consejos genéricos sobre el tema y se sintieron menos involucradas con la tarea. Resulta que la fricción propia de enfrentar un desafío es lo que “conduce al desarrollo de una representación mental más profunda y original del tema en cuestión”, escriben sus autores.
Si no hay un compromiso activo y laborioso con la lectura, el cerebro se deshace de hasta el noventa por ciento de la información nueva en apenas una semana, como señaló Hermann Ebbinghaus en 1880. El acto de subrayar, dudar de lo que leemos y conectarlo con lo que ya sabemos es lo que codifica el conocimiento en la memoria a largo plazo.
Los resúmenes mecánicos aplanan nuestras vidas mentales: una pérdida de profundidad individual que se refleja en un incremento generalizado de información superficial. Como argumenta Collin Jennings, los hipervínculos nunca fueron meras herramientas de navegación sino una representación viva de la arquitectura del pensamiento humano. En sus palabras, seguir un enlace es rastrear el proceso mental de alguien más, es ver cómo de una idea salió otra. Al reemplazar esa telaraña rica y caótica por un único bloque de texto generado por una máquina, las voces pierden su textura e individualidad y quedan reducidas a un tono plano, monótono y, crucialmente, sin fuentes.
Es el pensamiento mismo el que se aplana: un ecosistema vibrante de ideas entrelazadas se transforma en un monólogo que frecuentemente no suena a nada.
Si el precio de que la herramienta funcione bien es la atrofia de nuestra cognición, el panorama se vuelve aún más oscuro cuando la duda es fundamental. Un estudio de la Universidad Carnegie Mellon junto a Microsoft se hizo famoso por confirmar las sospechas: cuanto mayor confianza depositamos en las herramientas de IA generativa, menor es el esfuerzo cognitivo del usuario. Quienes renuncian a sus cerebros en favor de estas herramientas dejan gradualmente de formar hipótesis hasta que comienzan a asumir que estas validaron sus fuentes y se limitan a aceptar el resumen final.
Como la crisis climática o la rana en la olla, el declive en pensamiento crítico no sucederá abruptamente. La atrofia cognitiva se disfraza peligrosamente de eficiencia: nos acostumbramos a los resúmenes porque vamos más rápido, se ve todo más prolijo, el día fluye sin más. Se siente cómodo, moderno, optimizado. Pero erradicar la fricción del pensamiento nos vuelve operadores de sistemas cuyo funcionamiento nos escapa. El músculo de cuestionar se atrofia.
Toda otra colección de problemas se presenta cuando recordamos que las alucinaciones son muy probablemente imposibles de extinguir por la naturaleza misma de los LLMs y la arquitectura de los transformers, una conclusión a la que llegaron investigadores del mismísimo OpenAI.
Quizá conviene retomar el concepto filosófico de bullshit propuesto por Harry G. Frankfurt en 1986 para describir exactamente qué producen estos modelos. Estas máquinas no mienten en el sentido estricto, sino que producen bullshit (cháchara, palabrería): quien miente conoce la verdad y hace un esfuerzo deliberado por ocultarla. Pero quien produce bullshit, en cambio, es indiferente a la verdad. Se trata de “loros estocásticos” o sistemas de autocompletado con esteroides, diseñados para priorizar la fluidez y la complacencia del usuario por encima de la precisión fáctica.
Nada de esto invalida su utilidad cotidiana: por supuesto que son útiles, que ya no podemos imaginarnos sin ellas, y que esperamos que mejoren en el futuro. En la comprensión de estas dos cuestiones opuestas se encuentra el desafío principal de una industria obsesionada con los LLMs que parece haber olvidado que “inteligencia artificial” es un campo mucho más amplio que no surgió en 2017 con aquel famoso paper.
Para quien esté prestando atención, las consecuencias de renunciar a nuestra comprensión lectora están a la vista. El año pasado un periodista puso a prueba a cinco de los bots más populares para que analizaran textos complejos, los resultados rozaron la negligencia absoluta: el resumen de una novela ambientada en la Guerra Civil estadounidense omitió por completo la esclavitud, y al analizar documentos legales pasó por alto cláusulas críticas en contratos de alquiler que le otorgaban al propietario el derecho de entrar a la vivienda a cualquier hora. Ni hablar de lo que pasa cuando confiamos en los resúmenes generados por Google en sus búsquedas en cuestiones de salud.
No todo uso de estas herramientas exige el mismo nivel de desconfianza, pero tampoco conviene fingir que el contexto neutraliza el problema. Usar una máquina para ponerse al día con un chat larguísimo no es lo mismo que pedir un resumen para un examen de medicina o firmar un acuerdo comercial. La diferencia no es trivial, aunque la lógica subyacente sea la misma: delegar el esfuerzo cognitivo en una caja negra.
Leer no garantiza comprensión, del mismo modo que lograr un resumen no garantiza haber pensado. Pero parte de lo que aprendemos cuando enfrentamos la lectura es a hacer de ella un ejercicio activo de sentido. Y cuanto más leemos, más fácil se vuelve.
Las consecuencias de nuestra pereza intelectual amenazan el futuro de la web y profundizan su fragilidad. Si rara vez pasamos del mensaje que nos devuelve una IA, y sus imprecisiones regurgitadas se filtran sin corrección en investigaciones académicas, decisiones corporativas y documentos públicos, se alimenta un “bucle de desinformación” que envenena nuestra memoria colectiva e incluso pone en peligro la confianza en cualquier información que pudiéramos encontrar en Internet.
No vamos a dejar de apoyarnos en resúmenes hechos por máquinas. Están en todos lados y acechan detrás de cada esquina. Nuestras chances de prohibirlos son mucho menores a las de lograr cambiar desde dónde los leemos.
Pero sí podemos hacerles frente y pincharlos. Leerlos con implacable desconfianza. Buscar dónde simplifican de más, dónde omiten lo incómodo, dónde suenan demasiado seguros de sí mismos. No para pavonearnos sino para reconstruir el camino del texto original, ese que el resumen no podría seguir.
Cuando algo nos resulta impecable y convincente, podemos sospechar. Al someter esa síntesis a presión reintroducimos deliberadamente la fricción cognitiva que nos quisieron ahorrar. Es en ese choque donde el cerebro encuentra su mejor oportunidad de hacerse valer: no en la absorción pasiva de puré informacional, sino en el diálogo feroz con lo que se nos presenta hasta recuperar su complejidad.
Podemos tratar los resúmenes como destino o como punto de partida.
O bien podemos esperar a que salga la película.