La inteligencia artificial no muestra el pasado, lo reescribe

Procesar imágenes de archivo para colorearlas y animarlas en una versión del pasado que en realidad no existió es peligroso. Una restauración que no es trivial.

En febrero de 2024 OpenAI presentó en sociedad Sora, su generador de videos, buscando deslumbrar con varios ejemplos, entre ellos uno producido a partir del texto “imágenes históricas de California durante la Fiebre del Oro”.

A lo largo de los 25 segundos que dura el video, se despliega una escenografía propia de un western, completada con un grano cinematográfico de época. En la euforia del chiche nuevo se perdía de vista que allí no se documentaba nada, ni un ápice había de “imágenes históricas”, sino un pastiche trillado de Hollywood y prejuicios.

“A partir de ahora, ya no se puede creer nada que no hayas visto con tus propios ojos”, repetían los blogs.

Si te gusta Receta para el desastre podés suscribirte y recibirlo en tu casilla los jueves.

El asunto es que estas herramientas no viajan en el tiempo ni saben de historia, sino que vomitan el resultado de un entrenamiento a partir del rasqueteo de internet, desmenuzando películas y cuanto contenido audiovisual se logre acumular. Así se reciclan las limitaciones del material con el que fueron entrenadas, amplificando sus sesgos y defectos.

¿Y esta cajita de texto para qué está? Acá es donde despabilamos a nuestros lectores y les contamos lo difícil que es hacer periodismo en estos tiempos. Por eso, si la información que leés en Cenital te ayuda a entender mejor lo que pasa, te  pedimos que nos des una mano para seguir.

Sumate

El experimento, al menos en términos comerciales, fracasó. Apenas semanas después de anunciar un lucrativo acuerdo con Disney en torno a la generación de videos con su enorme catálogo de personajes, en marzo de 2026 OpenAI decidió liquidar a Sora de manera abrupta. Esta carísima prueba de concepto, que suponía una pérdida de un millón de dólares por día, inauguró la certeza de que fabricar piezas de alta fidelidad podía ser técnicamente viable y ridículamente fácil, aunque fueran los inversores quienes pagaran las cuentas. Lo que nunca quedó del todo claro era quién necesitaba una herramienta así que justificara su desarrollo.

Una voz en el correo

Las controversias en torno a los límites de lo aceptable cuando se trata de la alteración de imágenes o registros audiovisuales no son nuevas. Cuando en 2021 se estrenó Roadrunner, un documental sobre Anthony Bourdain, la producción resucitó su voz digitalmente haciéndole leer correos electrónicos para usarlos como locución. Esta decisión creativa, sin embargo, se mantuvo oculta –sospechosamente– hasta después del estreno. La transgresión no fue usar esta tecnología sino deslizar una fabricación indistinguible en un formato cuya promesa está en atestiguar lo verdadero, violando el pacto tácito entre el creador y el espectador.

Aunque en casos como este la opinión general se incline por un conciliador “no es tan grave” —porque esos correos eran de Bourdain, porque no era su voz pero podría haber sido, porque…— la adopción acrítica de la inteligencia artificial generativa en casos como la transmisión de relatos históricos amenaza la integridad del registro público compartido.  Reemplazar fuentes primarias capturadas de forma orgánica por “alucinaciones” algorítmicas y probabilísticas pone en riesgo nuestra memoria colectiva, ahora reducida a un remix caprichoso que pone en juego su anclaje con lo real. Además de violar un compromiso con la verdad de la historiografía que fue  sostenido a lo largo de cuanta innovación tecnológica apareciera.

En uno de sus seminarios sobre percepción e intencionalidad, el filósofo John Searle se cansó de remarcar que la diferencia fundamental entre ver un objeto real y padecer una alucinación radica enteramente en la cadena causal.

Es todo una cuestión de percepción

Al mirar nuestra propia mano, esa experiencia visual existe porque hay una extremidad que refleja luz hacia nuestras retinas. La fotografía tradicional analógica opera bajo este mismo principio: representa una fuente primaria porque literalmente atestigua el rebote físico de la luz sobre una realidad concreta en un momento específico del tiempo. Esto es, que existe una secuencia causal directa.

Una imagen generada algorítmicamente carece absolutamente de cualquier ancla fenomenológica. Aunque conviene abandonar el lenguaje antropomórfico cuando se habla de inteligencia artificial, en términos epistemológicos estas imágenes representan una suerte de “alucinación”: un producto generado matemáticamente por un modelo en total ausencia de un objeto externo.

El desenfrenado entusiasmo por tolerar el reemplazo de imágenes verdaderamente capturadas por simulaciones producidas estadísticamente dinamita la noción de evidencia material capaz de vincularnos con distintos momentos y lugares de la historia.

Este sesgo por el presente aparece primero como inquietud estética. Incluso cuando muchas de estas fabricaciones se presentan bajo intenciones aparentemente nobles, como la “restauración” de registros visuales del pasado inyectándoles nitidez artificial y colores vibrantes bajo la promesa de acercarnos a otras épocas, esto no supone más que un engaño. En tanto la película original jamás capturó esa información cromática, esta aproximación algorítmica simplemente maquilla las imágenes según le resulta matemáticamente más razonable.

Maquillaje del archivo

Esta higienización del archivo borra el esfuerzo cognitivo que exige asimilar una época ajena que en sentido estricto jamás conoceremos. Se nos vende la falsa ilusión de que la gente del pasado experimentaba el mundo igual que nosotros, aunque quizá con cortes de pelo más ridículos.

Este sesgo de época parasita también a los textos. Cuando un historiador canadiense intentó usar un modelo de lenguaje para identificar entre un montón de cartas cuáles correspondían a comerciantes de pieles del siglo XVIII, la máquina falló por confundir las expectativas. Mientras que el modelo esperaba poéticas descripciones del paisaje, las cartas reales documentaban tragedias cotidianas y listas de materiales. Resulta que hace 300 años no mantenían blogs.

Estos experimentos pueden hacerse en casa. Por ejemplo, al pedirle a un generador de imágenes que dibuje a un neandertal, la herramienta suele hacerlo de acuerdo a los estereotipos de hombre de las cavernas que la paleontología descartó hace medio siglo. El motivo, arriesgan dos investigadores, puede ser comercial: como el conocimiento arqueológico más actualizado suele estar detrás de los muros de pago de las editoriales académicas, estos sistemas se entrenan con el material disponible, a veces en enciclopedias viejas y libros de texto obsoletos pero ya en el dominio público.

Aunque el uso de IA generativa en la arqueología podría parecernos una oportunidad creativa (“¡estudiamos historia y también nos divertimos!”), el riesgo de caer en representaciones erróneas del pasado podría ser demasiado alto. Al emplearse estas imágenes para ilustrar artículos, exhibiciones y documentales, la IA tiende a perpetuar sesgos históricos y a mezclar datos científicos con elementos ficticios. Esta falsa arqueología dificulta la comprensión pública de la ciencia y desdibuja su relación con la evidencia en favor de la especulación. De más está decir, en estas imágenes suele abundar pseudociencia, ahora fotorrealista.

Pero el riesgo que lo acompaña es la renuncia del proceso tradicional de ilustración y reconstrucción del pasado, que lejos de ser un mero “mal necesario” es fundamental para el desarrollo de modelos mentales profundos que ayudan a que puedan hacerse más y mejores preguntas. En cambio, estas visiones de la humanidad descartadas hace décadas, ahora revitalizadas mediante el sistema educativo y los medios de comunicación, lejos de representar ventanas rigurosas hacia el pasado, nos condenan a perpetuar sus peores caricaturas.

Trivial o grave

La peor consecuencia de normalizar la “falsa historia” ni siquiera reside en la creencia de falsedades, sino en la instalación del “dividendo del mentiroso”: al estar socialmente asumido que fabricar o alterar un video es trivial, siempre que algo no convenga puede ser desestimado como “fake news”. Y al mismo tiempo, la necesidad de estar siempre alertas anticipando el engaño hace que incluso desconfiemos de imágenes genuinas. Ya no se puede creer en nada.

Si bien los museos y archivos son los últimos guardianes del registro histórico, capaces de aún recordar cómo era el mundo antes de las máquinas de falsificar, también la academia es vulnerable a la tentación del sesgo de disponibilidad, y si resulta tan fácil pedirle a una máquina que digiera miles de textos tomados de internet, podría peligrar el trabajo de campo en archivos físicos aún no digitalizados.

Es probable que esto ya suceda y que la historiografía lentamente haya pasado a depender en mayor medida de aquellos documentos que ya pasaron por el escáner, lo que se vincula naturalmente con una preferencia por el inglés y el norte global. Al delegarse el pesado trabajo historiográfico en máquinas incapaces de leer entre líneas y devolverle su contexto original a las fuentes, no será historia lo que se produzca.

En cualquier caso, tampoco conviene ceder ante la tentación del cinismo paralizante. Porque renunciar a la búsqueda de certezas aceptando que “ya no se puede creer en nada” es un desatino. Defender el resguardo de las fuentes documentales no solo tiene que ver con levantar el dedo contra OpenAI o Google sino también con exigir su respeto de parte de quienes pretenden comunicar historia. Un video que se propone explicar la historia no debería contar con material falso cuando esto debería automáticamente deslegitimar su mensaje.

Defender el conocimiento histórico requiere resistir a cierta engañosa comodidad, en cambio abrazando las asperezas de un registro incompleto, quizá en blanco y negro, pero genuino.

Investiga sobre el impacto político y social de la tecnología. Escribe «Receta para el desastre», un newsletter acerca de ciencia, tecnología y filosofía, y desde 2017 escribe «Cómo funcionan las cosas», un newsletter que cruza ciencia, historia, filosofía y literatura desde la exploración de la curiosidad.