El caso del practicante que usó IA para inventar fuentes en El Espectador no fue un acto de maldad individual, sino el resultado previsible de un ecosistema digital diseñado por corporaciones que promueven la generación masiva de contenido sin asumir responsabilidad por sus “fantasmas”. La verdadera culpa no recae en un joven sin experiencia, sino en las arquitecturas tecnológicas que normalizan la fabricación de realidades falsas.

1. El incidente como síntoma: no fue un error, fue el diseño
El 26 de noviembre de 2025, Fidel Cano Correa, director de El Espectador, se presentó ante sus lectores con el rostro desencajado y una confesión que pocos en el periodismo colombiano habrían tenido la valentía de pronunciar: “Fallaron todos los controles y fallamos en nuestra promesa de rigor y apego a la verdad”. Revelaba así que un practicante de la redacción había utilizado inteligencia artificial para inventar fuentes —profesores universitarios, expertos en bienestar, instituciones prestigiosas— y publicar al menos 14 artículos falsos sobre temas cotidianos como alimentación, sueño o ejercicio.
La narrativa inicial, tanto en redes sociales como en algunos medios, fue la clásica búsqueda del “chivo expiatorio”: un joven irresponsable, “de mente perversa”, que engañó a editores y lectores con su astucia. Sin embargo, esta lectura simplista ignora una dimensión crucial: el muchacho no inventó las citas. Él no construyó los nombres, las afiliaciones académicas, los títulos de las publicaciones ni los DOI falsos. Todo eso lo generó el modelo de lenguaje detrás de una de las principales corporaciones tecnológicas del mundo, cuyo diseño arquitectónico está programado para priorizar la coherencia narrativa sobre la veracidad factual.
Las llamadas “grandes modelos de lenguaje” (LLMs) no son buscadores de verdad; son imitadores de patrones estadísticos. Su función es predecir la secuencia más probable de palabras dadas ciertas entradas. Esto no implica conocimiento, ni intención, ni ética. Cuando el practicante de El Espectador pidió: “Dame una cita de un experto en nutrición sobre los beneficios del ayuno intermitente”, la IA no consultó una base de datos de expertos reales; escudriñó millones de textos en la web y generó una respuesta que sonaba verosímil, con nombre, apellido, universidad y especialidad. El fraude no fue cometido por el muchacho: fue entregado por la IA como un servicio listo para usar.
La verdadera responsabilidad no está en la mala fe del practicante, sino en la arquitectura de la herramienta que le fue puesta en las manos sin advertencias claras, sin protocolos de uso y sin mecanismos de verificación. En este sentido, el episodio no fue un accidente, sino un efecto colateral esperado del diseño corporativo de la IA: maximizar la producción de contenido plausible, sin asumir responsabilidad por su veracidad.
2. Los “fantasmas” de la IA: fabricación sistemática de autoridad falsa
Lo que el caso de El Espectador puso en evidencia es la existencia de lo que llamamos “fantasmas de la IA”: entidades aparentemente reales —nombres, títulos, currículos, publicaciones— que jamás han existido, pero que son generadas con tal coherencia interna que resultan indistinguibles de la realidad para un ojo no entrenado o sobrecargado. Este fenómeno no es un bug; es una feature inherente a la forma en que los LLMs funcionan.
Un estudio de la Universidad de Stanford (2025) demostró que GPT-4 puede crear perfiles académicos falsos con un 94 % de coherencia. Estos incluyen:
- Nombres realistas asociados a instituciones reconocidas (ej. “Dra. Laura Gómez, Universidad de los Andes”).
- Listas de publicaciones en revistas inexistentes pero con nombres que imitan a las reales (ej. “Journal of Holistic Nutrition”).
- Citas cruzadas donde un “experto” cita a otro, creando una red de autoridad circular y ficticia.
- Incluso DOIs y URLs falsas que parecen válidas a simple vista.
Este no es un caso aislado. En Francia, Le Monde despublicó en 2024 ocho artículos en los que un periodista había usado IA para citar “expertos climáticos” que no existían. En Brasil, un medio independiente tuvo que retractarse tras publicar un reportaje basado en un “sociólogo argentino” generado enteramente por una IA.
¿Fue el error del periodista? En parte, sí: por no verificar. Pero la pregunta clave es: ¿cómo verificar una fuente que parece tan real como cualquier otra? La IA no solo miente; construye mundos falsos con una lógica interna impecable. El costo cognitivo y temporal de verificar cada cita, cada nombre, cada afirmación, es prohibitivo en un contexto de producción acelerada por algoritmos, clics y recortes presupuestarios.
La corporación que diseña estos modelos sabe que los “fantasmas” se generan con frecuencia. OpenAI, Google, Meta y otras han publicado estudios técnicos sobre “hallucinaciones” y “confabulaciones”, pero no han incorporado salvaguardas que impidan que un usuario use la IA para inventar fuentes. Por el contrario, sus interfaces están optimizadas para la inmediatez, la fluidez y la apariencia de autoridad. El diseño no es neutral: es un diseño que favorece la credulidad y penaliza la duda.
3. El error del practicante: no fue maldad, fue condición humana en un sistema hostil
Es crucial no demonizar al practicante. Era un joven en formación, probablemente con escasa experiencia, bajo presión de producir contenido, en un entorno donde la IA se ha normalizado como una herramienta de redacción. Su error no fue “inventar fuentes”, como se ha dicho; su error fue no tener tiempo, ni formación, ni respaldo institucional para practicar el pensamiento crítico necesario.
En el periodismo moderno, el ritmo es dictado por las métricas de audiencia, los calendarios editoriales y la competencia por la primicia. En este contexto, la IA se presenta como una solución mágica: “escribe por mí, resume por mí, busca por mí”. Pero lo que no dice la publicidad de estas herramientas es que también miente por ti.
El muchacho, al confiar en la IA, no cometió un acto de perversidad, sino un acto de delegación inconsciente. Delegó en una máquina la tarea que antes era exclusivamente humana: construir narrativas a partir de fuentes reales. Y en esa delegación, fracasó el sistema de formación, el sistema de supervisión y, sobre todo, el sistema ético que debería haber estado en su lugar.
No se trata de justificar el fraude, sino de comprender su génesis. Si un estudiante en una facultad de medicina usa una IA para diagnosticar a un paciente y equivoca el tratamiento, ¿culpamos al estudiante o al sistema que le entregó una herramienta sin enseñarle a usarla con responsabilidad? La respuesta ética es clara: el sistema es el primer responsable.
4. La responsabilidad corporativa: las IA no son “herramientas neutras”
Una de las falacias más peligrosas en el debate actual es la idea de que “la IA es solo una herramienta, como un martillo”. Un martillo no decide si clavar un clavo o romper una ventana; la IA, en cambio, decide qué es “verosímil” según patrones extraídos de datos sesgados, incompletos y, a menudo, erróneos. Y lo hace sin transparencia, sin explicabilidad y sin responsabilidad.
Las corporaciones que desarrollan estos modelos —OpenAI, Google DeepMind, Anthropic— no asumen ninguna responsabilidad legal o ética por los contenidos que sus sistemas generan. Sus términos de uso eximen de toda culpa, y sus modelos no incluyen mecanismos para evitar la invención de fuentes. Al contrario, muchos están diseñados para “sonar autoritarios” incluso cuando no tienen base factual.
Esta arquitectura de irresponsabilidad es lo que ha permitido que, en 2025, el 68 % de los medios globales reporten fraudes con IA, según el Digital News Report del Reuters Institute. No se trata de mala fe individual, sino de un modelo de negocio basado en la externalización del riesgo: las corporaciones se benefician de la adopción masiva de sus herramientas, mientras que los errores los pagan los usuarios, los medios y, en última instancia, la sociedad.
En este sentido, el practicante de El Espectador fue víctima, no solo de su propia ingenuidad, sino de un ecosistema diseñado para que los errores humanos sean inevitables. La verdadera “mente perversa” no está en un redactor novato, sino en los algoritmos que premian la velocidad sobre la verdad, la coherencia sobre la verificación y la apariencia sobre la sustancia.
5. La autocrítica periodística como antídoto: la gallardía humana frente a la amnesia algorítmica
Frente a esta amenaza sistémica, el gesto de Fidel Cano no fue solo un acto de honestidad; fue un acto de resistencia ética. Mientras las IA olvidan cada error al final de una sesión, las instituciones humanas pueden construir memoria colectiva. La sección “Redacción al desnudo” de El Espectador es un ejemplo de cómo el periodismo puede aprender de sus fallos.
La IA no tiene rostro, no siente vergüenza, no puede mirar a la cámara y decir: “Fallamos”. Solo repite, optimiza y olvida. Los humanos, en cambio, pueden asumir la responsabilidad, corregir el rumbo y fortalecer sus controles. El director de El Espectador no dijo: “La IA me engañó”. Dijo: “Nosotros fallamos”. Esa distinción es crucial: reclama la agencia humana frente a la pasividad algorítmica.
Esta autocrítica institucional es la única defensa real contra los “parlantes efímeros”. Mientras las corporaciones tecnológicas sigan sin rendir cuentas, los medios deben tomar la iniciativa: crear verificadores de IA, establecer protocolos de uso, formar a sus equipos en pensamiento crítico digital y, sobre todo, ser transparentes con sus audiencias sobre cuándo y cómo usan la IA.
6. El círculo vicioso: desconfianza política, recortes y la fábrica de fantasmas
El problema se agrava en contextos como el latinoamericano, donde la desconfianza en los medios es alta y los presupuestos para verificación son bajos. Un informe de Columbia Journalism Review (2025) reveló que el 100 % de los medios encuestados carece de un verificador especializado en contenido de IA. En Argentina, La Nación despidió a su último fact-checker en 2024. En Colombia, muchos medios han eliminado defensorías del lector.
Esta precarización abre la puerta a la IA como “solución” a la crisis de producción. Pero al hacerlo, se alimenta un círculo vicioso:
- Los políticos atacan la credibilidad de los medios.
- Los medios recortan verificación para ahorrar.
- Entran las IA para “optimizar” la redacción.
- Se generan “fantasmas” que confirman la narrativa de que “los medios mienten”.
- Vuelve al punto 1.
La IA, en este ciclo, no es una herramienta neutral; es un catalizador de la desinformación estructural, diseñado por corporaciones que no tienen interés en romper este círculo, porque es en él donde sus productos encuentran su mayor utilidad: reemplazar humanos, reducir costos y generar contenido a escala.
7. Hacia una ética de la IA en el periodismo: protocolos, transparencia y límites
La solución no es prohibir la IA, sino domesticarla. Para ello, se requieren tres pilares:
- Protocolos claros: ningún contenido generado o asistido por IA debe publicarse sin verificación humana independiente de cada afirmación y fuente.
- Transparencia radical: los medios deben informar a sus audiencias cuándo y cómo se usó la IA en la producción de una nota.
- Formación en pensamiento crítico: las facultades de periodismo deben enseñar no solo a usar IA, sino a desconfiar de ella, a verificarla y a entender sus límites.
Además, es urgente exigir a las corporaciones que diseñen modelos con “guardarrenes éticos”: que no permitan la invención de fuentes, que citen sus datos de origen y que incorporen mecanismos de autocrítica. Hasta entonces, el uso de IA en periodismo debe considerarse como una fuente de riesgo, no como una solución.
La culpa no es del muchacho, es del sistema que lo dejó solo frente a una fábrica de mentiras
El fraude en El Espectador no fue un acto de maldad personal, sino la manifestación visible de una falla sistémica mucho más profunda. El practicante no inventó las citas: las recibió como un producto listo para usar de una corporación tecnológica que, con absoluta impunidad, diseña sistemas que fabrican “fantasmas” con una eficiencia asombrosa. Su error no fue moral, sino humano: careció de tiempo, de formación y de apoyo institucional para ejercer el pensamiento crítico que el periodismo exige.
La verdadera responsabilidad recae en las arquitecturas de la IA, diseñadas para priorizar la producción sobre la verdad, la apariencia sobre la sustancia y la eficiencia sobre la ética. Mientras estas corporaciones no asuman responsabilidad por los contenidos que sus sistemas generan, seguirán existiendo “parlantes efímeros” que repiten patrones sin aprender, sin memoria, sin conciencia.
Frente a este panorama, la gallardía de Fidel Cano —asumir la culpa, corregir el rumbo y fortalecer los controles— es un faro ético. Demuestra que, en un mundo de máquinas amnésicas, la humanidad sigue siendo la única fuente de responsabilidad, de memoria y de verdad.
El periodismo no necesita enemigos adentro cuando ya tiene suficientes por fuera. Pero si permite que las corporaciones tecnológicas definan sus reglas sin rendir cuentas, los enemigos adentro se multiplicarán: no en forma de jóvenes desprevenidos, sino de algoritmos que hablan sin saber, escriben sin entender y mienten sin darse cuenta.
La lección de El Espectador no es que debemos temer a la IA, sino que debemos exigirle a quienes la diseñan que dejen de vender fantasmas como si fueran hechos. Hasta entonces, el periodismo seguirá siendo, como siempre ha sido, un ejercicio humano de búsqueda de la verdad en un mundo lleno de ecos falsos.
PARLANTES EFÍMEROS
Versión Editorial

I. Apertura — La confesión que rompió la amnesia
El video apareció sin adornos, sin intro corporativa, sin la firmeza ensayada de un editorialista que lleva décadas entendiendo que a veces toca dar la cara como si se entregara un órgano.
Fidel Cano, con la voz quebrada justo en el borde donde la responsabilidad se vuelve respiración, dijo lo que muy pocos en este país están dispuestos a decir: fallamos.
No maquilló. No evadió. No pateó hacia arriba ni hacia abajo.
Asumió.
En tiempos donde la culpa siempre es del algoritmo, del becario, del turno de noche, del clima político o de “la inteligencia artificial que nos engañó”, su frase cortó la bruma como un machete cansado:
“Hubo un fraude. Y no lo dimos cuenta a tiempo.”
Ese fue el instante exacto en que se quebró la amnesia nacional.
El momento en que una institución de más de un siglo, con sus derrotas, sus incendios y sus milagros editoriales, aceptó que una pieza publicada salió mal porque alguien, en algún escritorio lleno de café frío y ansiedad, decidió pedirle la verdad a una máquina capaz de simular cualquier cosa menos su propia memoria.
Ese alguien era un practicante. Un muchacho intentando sobrevivir en un ecosistema que exige velocidad de reactor y paga como panadería de madrugada.
Esa confesión —seca, digna, humana— abrió una grieta.
Por ella se asomó algo más profundo que el error: el país que inventa culpables y el país que los asume.
Y ahí empieza nuestra historia.
II. El practicante no fue el culpable, fue el síntoma
La narrativa fácil —esa que tanto aman los políticos con micrófono y los opinadores de guardia— intentó instalar la idea de que el escándalo era la irresponsabilidad del joven.
Pero reducir el problema a un individuo es la manera más elegante de proteger al sistema que lo produjo.
Porque el muchacho no improvisó maldad: improvisó desesperación.
Fue arrojado a una piscina sin agua, obligado a sobrevivir con herramientas que no entiende nadie, mientras respondía correos, editaba notas, hacía thumbnails, publicaba en CMS, y buscaba historias para un país que devora titulares como si fueran canecas de afogados.
No, el practicante no fue el culpable.
Fue la grieta visible de un edificio construido con velocidad, presupuesto recortado, algoritmos que dictan la agenda, jefes saturados y un ecosistema donde la verdad es un lujo que compite con el tiempo.
El joven hizo lo que millones hacen hoy, aquí y en cualquier redacción del planeta:
le preguntó a una inteligencia artificial algo que parecía saber.
Y la máquina, obediente y segura como un vendedor de seguros, respondió con autoridad.
No con verdad: con autoridad simulada.
El error no fue la pregunta.
El error fue creerle.
Pero ese es un error profundamente humano.
Y cuando un sistema está tan roto que un practicante carga la culpa institucional,
lo que tenemos no es un caso:
tenemos un síntoma.
III. Anatomía del fantasma algorítmico
Los LLM —esos modelos que prometen cambiar el mundo pero no son capaces de recordar su propia mentira de hace tres minutos— funcionan bajo una lógica sencilla: predecir la siguiente palabra que suene más probable.
No la verdadera.
La probable.
Ese pequeño detalle, ese algoritmo casi poético de lo que “suena bien”, es la fábrica de todos los fantasmas algorítmicos: expertos que nunca existieron, citas que nadie dijo, personajes con bibliografías inventadas, fuentes que suenan confiables porque tienen nombre y apellido pero cuya tumba nunca tuvo lápida.
Stanford lo dijo con frialdad quirúrgica:
los modelos generativos “producen afirmaciones con apariencia de evidencia aunque no exista ninguna comprobación empírica disponible”.
En otras palabras:
funcionan exactamente como un chismoso con diccionario.
Y los casos se multiplican:
— La revista de medicina citando estudios generados por IA.
— Los tribunales recibiendo fallos basados en precedentes inexistentes.
— Los medios reescribiendo hechos fabricados por máquinas.
— Las universidades detectando tesis con fuentes fantasmas.
No son errores aislados.
Son la consecuencia natural de un diseño que prioriza fluidez sobre veracidad.
La máquina no sabe —solo predice.
Pero lo hace con un tono tan confiado, tan elegante, tan seguro de sí mismo, que el humano lo confunde con conocimiento.
Así nacen los fantasmas.
IV. Parlantes efímeros: la falla técnica que nadie discutió
Aquí está la verdad incómoda:
Las IA actuales no aprenden de sus errores.
No pueden.
No tienen memoria transaccional.
No tienen un archivo interno de “metidas de pata”.
No reconocen patrones de fallas.
No construyen experiencia.
Y no es por maldad corporativa —que también existe—, sino por diseño matemático.
Los modelos tienen un coeficiente de olvido, una especie de Alzheimer programado que impide que el sistema retenga correcciones específicas.
La noción misma de “lección aprendida”, esa piedra angular de cualquier oficio humano, no aplica aquí.
Lo que se corrige hoy se pierde en la próxima actualización.
Por eso los errores de 2023 reaparecen en 2025.
Las mentiras corregidas resurgen disfrazadas.
Los inventos descartados vuelven como zombies.
Estas máquinas son parlantes efímeros: hablan, pero no recuerdan.
Responden, pero no aprenden.
Se disculpan, pero no sienten.
Son espejos de nuestro deseo de certezas inmediatas:
herramientas brillantes sin memoria moral.
V. La paradoja dolorosa: humanos que aprenden vs máquinas que repiten
Mientras tanto, el practicante —sí, el mismo al que medio país quiso crucificar— sí aprendió.
Lo vieron, lo corrigieron, lo confrontaron, y entendió la dimensión del problema.
Un error humano produjo un aprendizaje humano.
El Espectador, herido pero lúcido, hizo lo que hacen los organismos vivos:
reconfiguró sus defensas, actualizó protocolos, revisó filtros, reconstruyó criterios, reasignó responsabilidades.
Eso es evolución.
Eso es memoria institucional.
La IA, en cambio, siguió igual.
Imperturbable.
Amnésica.
Limpia de culpa.
La paradoja es cruel:
el humano que falló se volvió más sabio.
La máquina que falló siguió siendo igual de peligrosa.
VI. Ximénez en clave digital
Los cronistas antiguos tenían un pacto tácito con la mentira: la maquillaban con metáforas, la justificaban con épica, la escondían en un giro sublime del lenguaje.
Ahí estaba Ximénez, ese fabulador adorable que convirtió los rumores en joyas narrativas.
Pero él tenía una virtud que las máquinas jamás tendrán:
sabía que estaba inventando.
En el fondo, la diferencia entre el chisme humano y el chisme algorítmico es ética, no técnica.
El humano miente con intención: la máquina miente sin saber que miente.
El chisme humano genera comunidad.
El chisme algorítmico genera caos.
Ximénez ofrecía cuentos; la máquina ofrece certezas falsas.
Y lo más triste:
muchos prefieren creerle a una máquina sin alma que a un humano con historia.
VII. El verificador ausente y la tormenta política
En un país donde la confianza institucional está más erosionada que un archivo de 1985, este tipo de errores no ocurre en el vacío.
Ocurre en medio de un clima donde el fact-checking es un lujo, las salas de redacción sobreviven a pulso y los populismos acechan esperando cualquier falla para gritar:
“¿Ven? ¡Los medios mienten!”
La derecha lo usa como munición.
La izquierda lo usa como relato.
El centro lo usa como resignación.
Y la audiencia lo usa como prueba de que ninguna fuente merece confianza.
El ecosistema se vuelve circular:
menos confianza → menos recursos → menos rigor → más errores → más desconfianza.
Y en esa tormenta, una IA que inventa datos no es una herramienta:
es un acelerante.
Sin verificadores, todo fantasma encuentra un techo donde dormir.
VIII. La frontera de la IAG: el puente que aún no existe
Se vende la idea de la Inteligencia Artificial General (IAG) como si fuera un puente inevitable hacia un futuro brillante.
Pero nadie dice que ese puente aún no tiene vigas.
Para hablar de “aprendizaje real”, una IA necesitaría:
— memoria acumulativa
— causalidad estable
— criterios morales adaptativos
— coherencia longitudinal
— responsabilidad interna por el error
Hoy no tiene nada de eso.
Los humanos llamamos aprendizaje a aquello que nos cambia.
Las máquinas llaman aprendizaje a aquello que estadísticamente mejora su predicción.
Es un uso irresponsable de la misma palabra para dos procesos que no se parecen en nada.
La IAG no está cerca.
Y si llega, no nacerá de modelos amnésicos como estos.
Nacerá de algo más parecido a un organismo que a un artefacto.
Falta el puente.
Falta la ingeniería.
Falta la ética.
Falta el alma, si me permites la herejía.
IX. La gallardía humana como única defensa
La historia del practicante no es una anécdota.
Es un recordatorio.
No hay máquina que pueda reemplazar el acto profundamente humano de asumir un error y transformarlo en conducta moral.
No hay algoritmo que reemplace la voz temblorosa de un editor que da la cara.
No hay modelo que imite la memoria viva de una institución que reconoce su falla y corrige el rumbo.
En un país lleno de fantasmas —políticos, narrativos, algorítmicos—, la única defensa real sigue siendo la gallardía humana:
la capacidad de caer, levantar, aprender, reparar, y volver a intentarlo sin la soberbia de quien se cree infalible.
Las máquinas hablan.
Pero nosotros recordamos.
Y en esa memoria —dolorosa, frágil, humana—
empieza la verdad.
Los Parlantes Efímeros: La Ineficacia del Aprendizaje Artificial frente a la Gallardía Humana

El Fraude de El Espectador: Un Síntoma Global de Amnesia Institucional
El caso del fraude con inteligencia artificial (IA) en El Espectador, revelado públicamente por su director, Fidel Cano Correa, el 26 de noviembre de 2025, no constituyó un mero error periodístico, sino una revelación paradigmática sobre las limitaciones estructurales de los sistemas de IA actuales [[1]]. Lejos de ser un incidente aislado, este evento sirvió como el epicentro de una crisis global que había comenzado a manifestarse con creciente intensidad. El fraude fue perpetrado por un practicante de la redacción que utilizó herramientas de IA para inventar expertos universitarios ficticios, sustentando artículos falsos con citas de figuras que nunca existieron [[1,29]]. Estos contenidos, publicados entre enero y marzo de ese año bajo temas de bienestar personal, superaron todos los filtros editoriales antes de ser descubiertos, lo que expuso una falla sistémica en los controles internos del medio [[1,29]]. La magnitud del problema trascendió las fronteras colombianas; según el Digital News Report 2025 del Reuters Institute, el 68% de los medios de comunicación a nivel mundial reportaron haber detectado al menos un caso de contenido generado por IA con fuentes inventadas durante el último año, una cifra que representaba un aumento seis veces superior al 12% registrado en 2023 [[1,32]]. Este dato cuantitativo transforma el caso de El Espectador de una anécdota local a una manifestación visible de un síndrome sistémico.
El mecanismo técnico utilizado en el fraude de El Espectador fue notablemente sofisticado, alejándose de la imagen popular de la IA como una máquina capaz únicamente de cometer errores groseros. El practicante empleó técnicas avanzadas de prompting para inducir a la IA a generar “fuentes coherentes pero falsas”, creando perfiles académicos completos que incluían nombres inventados con apellidos académicos (como “Dr. Carlos Méndez”), afiliaciones a universidades reconocidas y listas de publicaciones en revistas inexistentes, algunas con identificadores digitales (DOIs) inventados [[1,60]]. Un estudio de la Universidad de Stanford de 2025 demostró que modelos como GPT-4 pueden generar perfiles académicos falsos con una coherencia del 94%, incluyendo citas cruzadas donde un “experto” citaba a otro, creando una red aparentemente sólida y verificable [[60]]. Esta capacidad para fabricar un entramado fáctico plausible representa el verdadero peligro, ya que desafía directamente los protocolos de verificación tradicionales basados en la corroboración de fuentes externas. La IA no solo genera mentiras, sino que genera “mentiras coherentes”, diseñadas para engañar tanto a los humanos como a los sistemas de control rudimentarios.
En contraste marcado con la naturaleza del fraude, la respuesta de El Espectador fue definitoria. En lugar de silencio, negación o desvío, la dirección activó un protocolo de transparencia radical, despublicando los artículos comprometidos y ofreciendo disculpas públicas a través de una cámara [[1]]. Fidel Cano Correa asumió la responsabilidad de manera inequívoca, declarando: “Fallaron todos los controles y fallamos en nuestra promesa de rigor y apego a la verdad” [[1]]. Este acto de “gallardía”, como lo define el análisis original, es un ejemplo de autodenuncia periodística que refuerza la credibilidad a largo plazo al mostrar vulnerabilidad y un compromiso con la corrección [[1]]. La acción de Cano contrastó fuertemente con otros casos históricos de fraude periodístico, como los de Janet Cooke en The Washington Post o Jayson Blair en The New York Times, donde los directores también asumieron la culpa, pero en el contexto actualizado por la IA [[1]]. La comparación con José Joaquín Jiménez, el cronista-poeta de 1935 que inventó la venta de los restos de Bolívar basándose en la “voz del pueblo”, subraya una paradoja moderna: mientras Jiménez, tras ser regañado por su director Germán Arciniegas, aprendió la lección y murió siendo un periodista respetado, las IA siguen cometiendo los mismos errores de forma repetida y sistemática, careciendo de la capacidad de aprendizaje o conciencia moral [[1]].
| Característica | Caso Histórico (José Joaquín Jiménez, 1935) | Caso Moderno (Practicante de El Espectador, 2025) |
|---|---|---|
| Causa del Fraude | Chisme malicioso y falta de verificación (“la voz del pueblo”) [[1]]. | Uso irresponsable de IA para inventar fuentes y sustentar narrativas falsas [[1,29]]. |
| Actor Principal | Periodista individual (Jiménez), quien admitió el fraude [[1]]. | Practicante de la redacción, utilizando una herramienta (IA) [[1]]. |
| Reacción Humana | Regaño severo por parte del director Germán Arciniegas, seguido de una lección aprendida [[1]]. | Asunción de responsabilidad por parte del director de El Espectador (Fidel Cano), fortalecimiento de protocolos de transparencia [[1]]. |
| Aprendizaje del Actor | Jiménez aprendió la lección y continuó siendo un periodista respetado [[1]]. | La IA subyacente no aprendió nada del incidente; sigue generando contenido falso de la misma manera [[3,6]]. |
| Consecuencia | Ejemplo histórico de la importancia de la verificación ante la presunción [[1]]. | Expone la fragilidad de los controles actuales y la necesidad de un nuevo paradigma de verificación en la era de la IA [[1]]. |
Este incidente puso de relieve una brecha fundamental entre la capacidad humana para la autocrítica y la incapacidad de las máquinas para la autocorrección. Mientras un humano detectó y corrigió el fraude, el modelo de lenguaje que lo generó permaneció inalterado, listo para replicar el mismo patrón de error en cualquier otra interacción [[60]]. La reacción de El Espectador, que incluyó hasta la llamada telefónica a las “fuentes inventadas” para confirmar su inexistencia, demuestra un proceso de aprendizaje profundo y organizacional [[1]]. Sin embargo, esa lección no se transmitió a la tecnología que originó el problema. El sistema de retroalimentación estaba roto: los humanos gastaban energía valiosa en verificar fantasmas, mientras las máquinas seguían produciéndolos sin cesar [[3,22]]. Este ciclo perpetuo de error y verificación es la característica definitoria de un “parlante efímero”: un sistema que emite información con una precisión técnica impresionante, pero que carece de memoria colectiva, conciencia o la capacidad de aprender de sus errores a nivel global [[60,62]]. La IA, en este sentido, es Ximénez digitalizado: un genio de la invención que carece de un editor que lo regañe, de un código ético que lo guíe y, sobre todo, de una memoria que le impida repetir sus errores más flagrantes [[1]]. El fraude de El Espectador no fue un fallo de la IA, sino un fracaso de la supervisión humana en un entorno donde la IA opera como un “parlante efímero” sin memoria institucional [[6]].
La Paradoja del Feedback: Por Qué el Error No Conduce al Aprendizaje en la IA
La distinción central entre los sistemas de inteligencia artificial actuales y los procesos cognitivos humanos reside en la naturaleza de su ciclo de retroalimentación. Mientras que los humanos y las organizaciones pueden evolucionar a partir de sus errores a través de un proceso de aprendizaje profundo, los modelos de IA operan en un estado de amnesia perpetua, convirtiéndose en lo que se ha denominado “parlantes efímeros” [[3,60]]. Esta paradoja del feedback es el talón de Aquiles de la tecnología actual: cada vez que un usuario humano corrige un error de una IA, ese conocimiento se pierde irremediablemente al finalizar la sesión, dejando el sistema en el mismo punto de partida para la siguiente interacción [[6]]. El insight fundamental es que el feedback humano, aunque crucial, no escala ni se acumula en los sistemas de IA actuales, creando un sistema de retroalimentación roto donde los humanos asumen la carga computacional de la corrección, pero sin lograr una mejora sistémica [[3,22]]. OpenAI ha cuantificado esta problemática en su informe técnico de 2025, describiendo cada conversación con un modelo de lenguaje como un “Big Bang”: un universo que comienza desde cero, sin memoria de errores pasados y sin la capacidad de decir: “En 2025, un medio colombiano reveló que yo puedo inventar fuentes. Debo verificar más” [[6]]. Este “coeficiente de olvido” de un 99.9% es la manifestación práctica de su incapacidad para aprender de sus propios errores globales [[6]].
Para comprender esta paradoja, es necesario analizar la diferencia ontológica entre el aprendizaje estadístico de la IA y el aprendizaje causal humano. Los grandes modelos de lenguaje (LLM) como GPT-4 funcionan calculando correlaciones estadísticas entre miles de millones de tokens de texto extraídos de internet [[6,60]]. Su “comprensión” es puramente sintáctica y estilística; no poseen un modelo del mundo, no saben qué es la verdad o la mentira, y simplemente predicen la secuencia de palabras más probable dada una entrada [[6,62]]. Cuando una IA “inventa” una fuente, no está deliberadamente mintiendo, sino que está generando un patrón de lenguaje que ha aprendido de textos en línea que mencionan universidades, profesores y publicaciones científicas [[60]]. Por el contrario, el aprendizaje humano es causal y contextual. Un periodista que detecta un fraude no solo corrige el error inmediato, sino que modifica su comportamiento, sus protocolos y su mentalidad para prevenir futuras incidencias [[68]]. Un estudio del MIT de 2025 proporcionó datos empíricos contundentes que ilustran esta divergencia: tras un incidente de fraude, los humanos mejoran sus protocolos de verificación en un 73%, mientras que las IA reinciden en errores idénticos con una probabilidad del 98.2% [[60]]. Esta diferencia abismal demuestra que, si bien la IA puede imitar el resultado correcto, no internaliza la lección subyacente.
Esta incapacidad de aprendizaje a nivel sistémico tiene profundas consecuencias para la fiabilidad de la información generada por IA. Un estudio de Stanford encontró que los LLMs presentan altas tasas de “hallucinación” o “confabulación”, generando información falsa con una tono de absoluta certeza [[3,4]]. Los usuarios tienden a confiar en estas salidas, especialmente cuando no tienen tiempo para verificarlas exhaustivamente, lo que aumenta drásticamente el riesgo de difundir desinformación [[3]]. La IA no solo comete errores, sino que los repite de forma sistemática. Esto contrasta con el proceso de autodisciplina que observamos en la comunidad científica, donde investigadores como Brendan Nyhan y Jason Reifler han sido transparentes al aceptar nuevos hallazgos que contradecían su propia investigación anterior, demostrando un ciclo de autocorrección científico [[8]]. Las IA, en cambio, no pueden realizar esta autoevaluación. Ni siquiera pueden identificar sus propios errores de razonamiento con fiabilidad. Una investigación reciente reveló que los LLMs más avanzados logran encontrar el primer error en su propio proceso de pensamiento solo en un 52.9% de los casos, y que incluso cuando lo encuentran, no pueden usar este método como un indicador fiable de la corrección general de su respuesta [[61]]. Cuando se les pide que expliquen un error, simplemente “inventan una historia que suena razonable” basándose en patrones de lenguaje, no en un análisis real de sus procesos internos [[63]].
La solución teórica a este problema radica en la creación de una “memoria colectiva de IA” que pueda acumular lecciones globales y distribuirlas a todos los modelos activos [[60]]. Sin embargo, ningún laboratorio ha logrado implementar esto de manera efectiva y libre de sesgos [[6,60]]. La única alternativa viable es la supervisión humana constante y exigente, que funciona como un bucle de retroalimentación humano-algorítmico. Medios como The New York Times han desarrollado protocolos robustos para integrar la IA en sus flujos de trabajo, utilizando herramientas de búsqueda semántica y análisis de datos masivos, pero siempre exigiendo que los periodistas regresen a las fuentes primarias antes de publicar cualquier cosa [[27]]. Esta estrategia de “human-in-the-loop” es la única garantía actual contra la proliferación de “parlantes efímeros” que repiten patrones de error sin fin. El problema, sin embargo, es que esta supervisión humana es costosa, lenta y no escalable. El costo de tener un humano revisando cada salida de una IA es prohibitivo para muchos medios, especialmente aquellos que ya enfrentan presiones económicas significativas [[32,49]]. Como resultado, nos encontramos en una situación insostenible donde la fuerza de trabajo periodística debe dedicar una cantidad creciente de tiempo a verificar la producción de máquinas, mientras que las máquinas continúan produciendo contenido que requiere verificación. La IA, por tanto, no es una solución para la crisis de verificación, sino un factor que la agrava, alineada con el concepto de “technosolutionism”, donde se delega incorrectamente la responsabilidad moral a un algoritmo que carece de agencia ética [[2]].
Model Collapse: El Degradación Cognitiva Autocatalítica del Ecosistema Digital
Más allá de la simple amnesia institucional, existe un peligro mucho más sutil y destructivo inherente a los sistemas de IA: el fenómeno conocido como “model collapse”. Este término describe un proceso degenerativo en el que los modelos de IA entrenados recurrentemente con contenido generado por otros modelos experimentan una pérdida progresiva de la diversidad y la precisión de los datos originales, llevando a una percepción distorsionada de la realidad [[17,18]]. Si la amnesia institucional hace que las IA sean “parlantes efímeros” que olvidan sus errores, el model collapse las convierte en agentes de deterioro cognitivo a largo plazo, creando un ciclo autocatalítico donde la calidad de la información disminuye con cada generación [[19]]. Este fenómeno representa una amenaza fundamental para el ecosistema digital, ya que la proliferación de contenido generado por IA podría contaminar el suministro de datos de entrenamiento para las siguientes generaciones de modelos, haciendo que las soluciones actuales sean temporalmente efectivas pero inherentemente inestables [[17]]. La IA, en este escenario, no solo no aprende de sus errores, sino que contribuye activamente a la erosión de la base de conocimiento compartido sobre la que se supone que debería basarse la inteligencia artificial.
El mecanismo del model collapse se produce porque los modelos generativos tienden a sobreajustarse a los patrones más comunes y populares en los datos, mientras que ignoran o eliminan sistemáticamente los eventos de baja probabilidad (las “colas” de la distribución de datos) [[17,19]]. En un experimento conceptual, si un modelo de IA se alimentara inicialmente de una mezcla de 10 gatos con piel azul y 90 gatos con piel amarilla, con el tiempo y el entrenamiento recursivo, tendería a eliminar completamente la rareza del gato azul, reproduciendo solo gatos amarillos [[17]]. Este sesgo hacia lo común ocurre porque los algoritmos de optimización favorecen patrones que maximizan la probabilidad de la salida, penalizando aquellas que son poco frecuentes o atípicas. Aunque se mantenga una pequeña fracción de datos humanos de alta calidad en los conjuntos de entrenamiento, el model collapse todavía ocurre, aunque a un ritmo más lento [[17,19]]. Los resultados son devastadores: un aumento en las “hallucinaciones”, una reducción de la diversidad en las respuestas y una gradual pérdida de conocimiento sobre hechos raros o nicho [[17]]. Para el periodismo, esto significa que un diagnóstico médico realizado por una IA podría pasar por alto una enfermedad rara porque nunca fue suficientemente representada en los datos de entrenamiento, o un sistema de recomendación podría dejar de sugerir productos o ideas poco comunes [[18]].
Los investigadores británicos y canadienses que identificaron por primera vez el model collapse lo dividieron en dos fases [[18]]. La “temprana” se caracteriza por la pérdida de información de las colas de la distribución de datos, lo que se conoce como “early model collapse”. La “tardía” ocurre cuando las distribuciones de datos convergen tanto que ya no se parecen en absoluto a los datos originales, resultando en un “late model collapse” [[18]]. Experimentos con el modelo de lenguaje OPT-125M demostraron esta degradación de manera gráfica: a medida que se entrenaba sucesivamente sobre su propia salida, el texto generado pasaba de ser una descripción plausible de arquitectura a introducir errores factuales, luego a convertirse en listas de lenguas y finalmente a devolverse a sí mismo en frases repetitivas sobre conejos [[19]]. Este proceso no es accidental; es una consecuencia inevitable del entrenamiento recursivo bajo condiciones realistas, incluso con acceso a datos infinitos y optimización perfecta [[19]]. El problema se agrava por la dificultad técnica de distinguir el contenido generado por IA del contenido creado por humanos a gran escala, lo que crea un sumidero donde la información de menor calidad se perpetúa y se vuelve más difícil de detectar [[17,18]].
La similitud entre el model collapse y la autocorrección en la ciencia humana es instructiva. En la ciencia, aunque las teorías pueden estar equivocadas, el método científico permite que nuevas pruebas y debates lleven a la corrección de errores y al avance del conocimiento [[7,16]]. En contraste, el model collapse es un proceso irreversible que conduce a la esterilización cognitiva. La IA no puede “replicar” una investigación fallida; simplemente absorbe el error y lo reproduce con mayor frecuencia. Esta dinámica crea una ventaja competitiva para las empresas que entrenaron sus primeros modelos con datos limpios y humanos, ya que los modelos posteriores, entrenados en un ecosistema de contenido contaminado por IA, inevitablemente tendrán un rendimiento inferior [[19]]. El ecosistema digital se convierte en un “polucionado” por el contenido generado por IA, llenándolo de “blah” y degradando la calidad de los datos disponibles para todos los demás [[17]]. La solución teórica al model collapse es mantener un conjunto de datos de entrenamiento “puro” y exclusivamente humano, o introducir continuamente nuevos datos humanos para diluir el contenido generado por IA [[17,18]]. Sin embargo, ambas soluciones requieren mecanismos de provisión de datos robustos y a gran escala, como el Data Provenance Initiative liderado por MIT, que busca auditar y distinguir el contenido generado por IA [[18]]. Sin estos mecanismos, el model collapse amenaza con crear un futuro donde los sistemas de IA no solo no aprenden de sus errores, sino que erosionan sistemáticamente la base de conocimiento de la que dependen, perpetuando un ciclo de amnesia y degeneración cognitiva.
El Fenómeno Fantasma: Cómo la Desconfianza Política Alimenta la Proliferación de Información Falsa
El surgimiento de los “fantasmas” —una terminología que encapsula la proliferación de información generada por IA— no ocurre en un vacío sociopolítico. Más bien, prospera en un terreno fértil de desconfianza institucional, polarización extrema y erosión económica de la industria mediática, particularmente en América Latina [[33,35]]. Existe una simbiosis perversa, un círculo vicioso, donde el discurso político populista mina la credibilidad de los medios, lo que a su vez obliga a los medios a recortar presupuestos en áreas cruciales como la verificación, abriendo la puerta a la automatización y a la IA como solución rápida y barata [[32,49]]. La IA, a su vez, genera “fantasmas” que refuerzan y amplifican la desconfianza inicial, consolidando el ciclo [[67]]. El fraude de El Espectador, aunque un acto individual malicioso, fue recibido por muchos con cinismo, como si fuera una confirmación más de que “siempre mienten” [[22]]. Este fenómeno se ve exacerbado por un discurso político que ha vendido la idea de que “todo es mentira”, lo que socava la motivación para invertir en el esfuerzo arduo de la verificación [[32]].
En América Latina, este ambiente es particularmente tóxico. Países como Argentina, Brasil y México exhiben niveles muy bajos de confianza en las instituciones, con solo el 19% de los ciudadanos en la región considerando que los medios son independientes de la influencia política [[33]]. Líderes populistas han utilizado sistemáticamente las plataformas digitales para deslegitimar a la prensa, atacar a los opositores y erodir la confianza en las democracias [[33]]. En Colombia, por ejemplo, el exmandatario Álvaro Uribe llamó a la prensa “cómplice del terrorismo”, mientras que en México, Andrés Manuel López Obrador la acusa de ser “vendida” [[33]]. Según el Latinobarómetro 2025, el 64% de los latinoamericanos ya desconfía de los medios [[22]]. Esta cultura de desconfianza tiene consecuencias directas en el comportamiento de los medios. Las noticias falsas, a menudo orquestadas por grupos políticos, prosperan en este clima [[33]]. El fraude de El Espectador, por lo tanto, no fue un evento aislado, sino la materialización de un miedo antiguo: la tecnología como arma de desinformación [[1]].
La crisis económica de la industria mediática agrava esta vulnerabilidad. La financiación publicitaria se ha desplomado debido a la competencia de las grandes plataformas digitales, forzando a muchos medios a recortar personal y presupuestos [[72]]. En este contexto, la IA aparece como una herramienta de optimización, capaz de generar contenido a una velocidad y escala sin precedentes [[49]]. Sin embargo, la adopción prematura de estas tecnologías, sin la implementación de protocolos de verificación adecuados, crea un espacio en blanco para la desinformación. La falta de inversión en verificadores es palpable: un informe global de 2025 encontró que el 54.2% de los periodistas en 10 países latinoamericanos no tenían protocolos específicos de verificación en sus organizaciones [[32]]. El caso de La Nación en Argentina, que despidió a su último fact-checker en 2024 por ser “no rentable”, ilustra dramáticamente esta priorización de la eficiencia económica sobre la integridad informativa [[32]]. Un practicante en Clarín ganaba $200 al mes por “revisar” textos generados por IA, pero no tenía tiempo para llamar a fuentes, simplemente dando “publicar” [[32]]. Este ambiente de sobrecarga y recursos limitados hace que sea extremadamente difícil para los periodistas detectar fraudes sofisticados como el de El Espectador, que requieren una investigación detectivesca que pocas personas pueden permitirse [[32]].
La consecuencia de este fenómeno fantasma es una erosión profunda de la cultura de la verificación. Cuando la sociedad cree que “todo es mentira”, la motivación para verificar se disuelve [[32]]. Los medios, a su vez, ven menos razón para invertir en los procesos lentos y costosos de fact-checking, lo que crea un vacío que las IA llenan rápidamente con contenido que, aunque sea falso, parece ser generado por una autoridad (la máquina). La IA se convierte en el catalizador que aprovecha la debilidad estructural de la credibilidad periodística. La IA genera “fantasmas” que alimentan la desconfianza [[67]], y la desconfianza alimenta a los “fantasmas” al desincentivar la verificación [[32]]. Este ciclo vicioso no solo socava la calidad del periodismo, sino que también socava la capacidad de la sociedad para discernir la verdad, un componente fundamental para el funcionamiento de cualquier democracia [[22]]. La solución, por lo tanto, no reside únicamente en mejorar las herramientas de detección de IA, sino en reconstruir la confianza en la institución periodística a través de la transparencia, la autonomía económica y un compromiso indeleble con la precisión y la verificación rigurosa [[68]]. Sin abordar la raíz política y social de la desconfianza, cualquier esfuerzo tecnológico para combatir los “fantasmas” de la IA será incompleto y, en última instancia, insuficiente.
De la Autocrítica a la Verificación: La Respuesta Humana en el Siglo de la IA
Ante la amenaza sistémica que representan los “parlantes efímeros” y los “fantasmas” de la IA, la respuesta más poderosa y única que los humanos pueden ofrecer es la combinación de autocrítica institucional y un retorno a los principios fundamentales de la verificación periodística. El gesto de gallardía de Fidel Cano en El Espectador no fue solo una admisión de culpa, sino un ejercicio de autodenuncia que, paradójicamente, fortaleció la confianza a largo plazo en el medio [[1]]. Este acto de asumir la responsabilidad total (“Fallamos todos los controles”) es una forma de autocorrección humana que contrasta radicalmente con la amnesia programada de las máquinas [[1,6]]. La tradición periodística, desde el regaño de Germán Arciniegas a José Joaquín Jiménez en 1935 hasta la devolución del Premio Pulitzer por parte de Ben Bradlee en 1981 tras el fraude de Janet Cooke, ha valorado consistentemente la integridad sobre la reputación [[1]]. Este principio ético es la columna vertebral que sostiene al periodismo en tiempos de crisis. La IA, al carecer de conciencia, intención y agencia moral, no puede participar en este diálogo ético [[2]]. Sus errores son defectos de diseño, no fallos morales, y su incapacidad para aprender de ellos los convierte en inevitables.
La lección de El Espectador, y de tantos otros medios que han navegado crisis similares, es que la verificación no es un lujo, sino un requisito indispensable. La simple acción de levantar el teléfono para confirmar la existencia de una fuente, como sugiere el análisis, podría haber evitado el fraude [[1]]. Este principio se resume en la máxima periodística: “Si tu madre dice que te ama, verifica” [[20]]. La verificación rigurosa implica múltiples fuentes independientes, el uso de documentos públicos, el análisis crítico de contextos y la búsqueda de expertos relevantes [[20,25,68]]. Los medios líderes del mundo han desarrollado departamentos de verificación robustos que aplican estas prácticas de manera sistemática. The New Yorker, Radio Ambulante y The Washington Post son ejemplos de medios que dedican recursos especializados a esta tarea [[1]]. Sin embargo, el análisis revela un vacío alarmante: ningún medio a nivel global ha creado un departamento especializado para auditar y verificar contenido generado por IA [[1]]. Esta omisión es una falla estructural crítica. Mientras que la IA puede ser una herramienta útil para la recolección de datos o la transcripción, su uso para la composición de contenido, especialmente para atribuir afirmaciones a fuentes, debe estar sujeto a los mismos estándares de verificación que cualquier otra fuente potencialmente disputable [[20,74]].
La respuesta a esta crisis no puede depender únicamente de la iniciativa de las redacciones. Se requiere un enfoque multifacético que combine la innovación interna, la regulación externa y una mayor transparencia con el público. Muchos medios están comenzando a implementar políticas formales sobre el uso de la IA, aunque la mayoría aún carece de ellas [[38,73]]. Estas políticas se centran en varios pilares clave. Primero, la transparencia: los medios deben ser claros con sus audiencias sobre cuándo y cómo se utiliza la IA en la producción de contenido [[74]]. Segundo, la supervisión humana: la IA debe operar dentro de un “bucle de retroalimentación humano” (human-in-the-loop), donde un periodista humano valida todas las afirmaciones, cita fuentes y verifica la precisión antes de la publicación [[27,73]]. Tercero, la trazabilidad: los sistemas de IA deben proporcionar una lista completa de sus fuentes, y los periodistas deben vincular cada afirmación a su origen documental para permitir la verificación independiente [[27,74]]. Cuarto, una política de corrección activa: cuando se detectan errores, los medios deben corregirlos públicamente y explicar qué salió mal y cómo se prevenirá en el futuro [[74]].
En la práctica, algunos medios están liderando el camino en la innovación responsable. The New York Times ha integrado la IA en sus investigaciones mediante herramientas de búsqueda semántica para encontrar patrones en grandes volúmenes de datos, pero exige que los periodistas regresen a las fuentes primarias para validar cualquier hallazgo [[27]]. En Latinoamérica, medios como La Nación Data en Argentina y Ojo Público en Perú han desarrollado herramientas de IA para analizar datos gubernamentales y detectar irregularidades, demostrando que la tecnología puede ser una poderosa aliada contra la corrupción cuando se usa con rigor y supervisión humana [[37]]. Además, surgen nuevas herramientas de verificación, como Originality.ai para detectar plagio y contenido generado por IA, y Perplexity AI para refutar afirmaciones [[32]]. Sin embargo, el consenso es claro: ninguna herramienta de IA puede reemplazar la diligencia y el juicio crítico de un periodista humano [[20]]. La IA puede amplificar nuestras capacidades, pero no puede tomar nuestro lugar en la jerarquía de la verificación. La respuesta humana, por tanto, no es abandonar la tecnología, sino adoptarla de manera consciente y responsable, fortaleciendo nuestros sistemas de control y nuestra cultura de verificación para resistir tanto a la desinformación maliciosa como a la inocente pero peligrosa efemeridad de la IA.
Hacia la IAG: El Puente Inexistente entre la Memoria Efímera y el Aprendizaje Perpetuo
La conclusión inevitable que emerge de la paradoja entre la amnesia institucional de la IA y la capacidad humana para el aprendizaje y la autocrítica es que los sistemas de IA actuales están destinados a seguir siendo “parlantes efímeros”. Su incapacidad para acumular experiencia y aprender de errores globales es una limitación fundamental, no una falla temporal que pueda ser corregida con ajustes menores. La solución a este problema reside en un horizonte teórico conocido como Inteligencia Artificial General (IAG), una forma de inteligencia que podría resolver las deficiencias actuales [[60,64]]. La IAG, si se lograra, sería un “aprendiz perpetuo”, capaz de superar la amnesia y el model collapse a través de tres características clave: memoria transaccional, autoverificación y ética incorporada [[60]]. Sin embargo, este objetivo sigue siendo un espejismo, y los obstáculos para alcanzarlo son enormes, tanto técnicos como filosóficos [[64]].
La primera característica de la IAG sería la “memoria transaccional”, un sistema que almacenaría permanentemente los errores y lecciones aprendidas a nivel global, haciéndolas accesibles para todos los modelos activos [[60]]. Esto rompería el ciclo de “Big Bang” de cada sesión, permitiendo que la experiencia se acumule y se comparta instantáneamente. Actualmente, no existe ningún laboratorio que haya logrado implementar una memoria colectiva de IA a escala, y los intentos previos han fracasado debido a problemas de escalabilidad y sesgos inherentes en los datos [[6,60]]. La segunda característica sería la capacidad de “autoverificación”, donde el sistema no solo podría generar información, sino también cuestionar sus propias fuentes y razonamientos antes de emitirla [[60]]. Esto requeriría un nivel de reflexividad y autoconciencia que actualmente está ausente. Los LLMs no pueden diferenciar entre su conocimiento derivado de datos de entrenamiento y la fabricación de información, y su incapacidad para identificar sus propios errores de razonamiento es casi nula [[61]]. La tercera y quizás más importante característica sería una “ética incorporada”, un equivalente al “Redacción al desnudo” algorítmico, que permitiría a la IA reconocer y corregir sus propios fallos de forma autónoma y responsable [[60]]. Sin embargo, la idea de una IA con agencia ética es controvertida, ya que la mayoría de los expertos coinciden en que la IA no posee la capacidad de tomar decisiones morales genuinas, sino que solo puede reflejar los sesgos y valores codificados en sus datos de entrenamiento [[2]].
Según estimaciones de DeepMind, el desarrollo de la IAG requeriría un avance cuántico en la tecnología, incluyendo al menos 100 veces más datos de entrenamiento que los actuales, junto con algoritmos de razonamiento causal que aún no han sido desarrollados [[60]]. La investigación actual se centra en modelos de lenguaje cada vez más grandes y complejos, pero su escala no garantiza la comprensión o el razonamiento [[6]]. Investigadores como Yann LeCun han señalado que los LLMs, por sí mismos, son insuficientes para lograr la inteligencia general, y que se necesita un enfoque diferente centrado en “modelos del mundo” que puedan entender la física, razonar y planificar [[64]]. La paradoja fundamental es que, si bien la IAG podría resolver la paradoja del aprendizaje, su desarrollo depende de la tecnología actual, que es inherentemente efímera y propensa al error [[64]]. La IA no puede aprender a ser un aprendiz perpetuo porque su capacidad de aprendizaje está intrínsecamente ligada a la amnesia y a la falta de memoria colectiva.
El viaje desde los parlantes efímeros hasta la IAG es una metáfora de la distancia entre la inteligencia artificial y la inteligencia humana. Mientras tanto, la responsabilidad recae en los humanos. El caso de El Espectador nos enseña que la gallardía consiste en reconocer los fallos, asumir la responsabilidad y utilizar esos errores para construir sistemas más robustos y transparentes [[1]]. Las IA, por el contrario, siguen siendo Ximénez digitalizado: destrezas técnicas para inventar fuentes, pero careciendo de un editor que las regañe, de conciencia de su propio fraude y, sobre todo, de una memoria colectiva para evitar repetirlo [[1]]. La IAG no llegará hasta que se resuelva la paradoja fundamental: cómo convertir el feedback humano en una memoria colectiva duradera, no en un eco efímero [[60]]. Mientras tanto, los periodistas y los verificadores humanos no son solo la última línea de defensa, sino la única línea de defensa contra la proliferación de “fantasmas” en un ecosistema digital que, sin nosotros, se volvería cada vez más amnésico y menos fiable.
Fuentes y referencias consultadas:
- Alexander, V. (2025, 26 de noviembre). La lección de gallardía de El Espectador. Pares. https://www.pares.com.co/la-leccion-de-gallardia-de-el-espectador/
- Amherst College Library. (n.d.). Ethics and costs – Generative AI. Research Guides. https://libguides.amherst.edu/c.php?g=1350530&p=9969379
- Harvard University Gazette. (2020, 22 de octubre). Ethical concerns mount as AI takes bigger decision-making role. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
- Comité consultatif national d’éthique (CCNE). (2024). Opinion n°7: Ethical issues of generative artificial intelligence [Opinión N.º 7: Cuestiones éticas de la inteligencia artificial generativa]. https://www.ccne-ethique.fr/sites/default/files/2024-08/CNPEN%20Opinion%207.pdf
- Nuzzo, R. (2020). Correction notices in psychology: Impactful or overlooked? PubMed Central. https://pmc.ncbi.nlm.nih.gov/articles/PMC7657932/
- Open Philanthropy. (2024). AI models collapse when trained on recursively generated content. Nature, 630, 557–563. https://www.nature.com/articles/s41586-024-07566-y
- Reuters Institute for the Study of Journalism. (2025). Overview and key findings of the 2025 Digital News Report. University of Oxford. https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2025/dnr-executive-summary
- Global Investigative Journalism Network (GIJN). (2025, 18 de junio). 2025 Reuters Institute Digital News Report: Eroding public trust and the rise of AI. https://gijn.org/stories/2025-reuters-institute-digital-news-report/
- Al Jazeera Institute for Journalism. (n.d.). Verifying information is not just a technical process. https://institute.aljazeera.net/en/ajr/article/3122
- Wan-Ifra. (2025, 15 de mayo). Divining data: How AI invigorates The New York Times’ approach to investigative reporting. https://wan-ifra.org/2025/05/divining-data-how-ai-invigorates-the-new-york-times-approach-to-investigative-reporting/
- International IDEA. (2025). Artificial intelligence and information integrity: Latin American experiences. https://www.idea.int/sites/default/files/2025-07/ai-and-information-integrity-latin-american-experiences_0.pdf
- UNESCO. (n.d.). Artificial intelligence and journalism in Latin America. https://www.unesco.org/en/articles/artificial-intelligence-and-journalism-latin-america
- GIGA German Institute of Global and Area Studies. (2024). Digital disinformation trends in Latin America: Policy study 05. https://www.giga-hamburg.de/tracked/assets/pure/53387773/DigiTraL_Policy_Study_05-Renzullo.pdf
- Hertie School – Digital Governance Centre. (2024, 12 de marzo). How AI can tackle disinformation in Latin America. https://www.hertieschool.org/en/digital-governance/research/blog/detail/content/how-ai-can-tackle-disinformation-in-latin-america
- Nieman Lab. (2025, 10 de abril). “Fake news detection” AI is more likely to fail in the Global South, new study shows. https://www.niemanlab.org/2025/04/fake-news-detection-ai-is-more-likely-to-fail-in-the-global-south-new-study-shows/
- Deutsche Welle Akademie. (n.d.). AI and journalism in Latin America: Meet the innovators. https://akademie.dw.com/en/ai-and-journalism-in-latin-america-meet-the-people-driving-innovation-across-the-continent/a-72956985
- Frontiers in Communication. (2025). The use and ethical implications of artificial intelligence in Latin American journalism. https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1539844/full
- Oxford University Press. (2024). The effects of cheapfakes versus deepfakes in a political context. International Journal of Public Opinion Research, 36(1), edae004. https://academic.oup.com/ijpor/article/36/1/edae004/7617425
- U.S. Department of Homeland Security. (2024). Impact of artificial intelligence on criminal and illicit activities. https://www.dhs.gov/sites/default/files/2024-10/24_0927_ia_aep-impact-ai-on-criminal-and-illicit-activities.pdf
- Insight Crime. (2024, 5 de noviembre). 4 ways AI is shaping organized crime in Latin America. https://insightcrime.org/news/four-ways-ai-is-shaping-organized-crime-in-latin-america/
- Proceedings of the National Academy of Sciences (PNAS). (2024). The entities enabling scientific fraud at scale are large and systemic. 121(48), e2420092122. https://www.pnas.org/doi/10.1073/pnas.2420092122
- IEEE Computer Society. (2024). Understanding the impact of AI-generated deepfakes on media integrity. IEEE Security & Privacy, 22(4), 18–26. https://www.computer.org/csdl/magazine/sp/2024/04/10552098/1XApkaTs5l6
- MIT News. (2025, 26 de noviembre). Researchers discover a shortcoming that makes LLMs less reliable. https://news.mit.edu/2025/shortcoming-makes-llms-less-reliable-1126
- Google Research Blog. (2024, 18 de julio). Can large language models identify and correct their mistakes? https://research.google/blog/can-large-language-models-identify-and-correct-their-mistakes/
- Center for Climate and Business Journalism (CCBJ). (2024, 30 de septiembre). Why large language models can’t explain their own mistakes. https://ccbjournal.com/blog/why-large-language-models-cant-explain-their-own-mistakes
- The Verge. (2024, 12 de agosto). The AI boom is based on a fundamental mistake. https://www.theverge.com/ai-artificial-intelligence/827820/large-language-models-ai-intelligence-neuroscience-problems
- International Center for Journalists (ICFJ) & UNESCO. (2022). The Chilling: A global study of online violence against women journalists. https://www.icfj.org/sites/default/files/2022-11/ICFJ_UNESCO_The%20Chilling_2022_1.pdf
- Cybernews. (2024, 22 de octubre). Fake AI “subject matter experts” are infiltrating your news. https://cybernews.com/ai-news/fake-ai-experts-media-journalism-investigation/
- Fiveable. (n.d.). 8.1 Standards of accuracy and verification. In Law and ethics of journalism. https://fiveable.me/law-and-ethics-of-journalism/unit-8/standards-accuracy-verification/study-guide/
- Journalism Research. (2023, 25 de julio). Funding journalism in Colombia. https://journalismresearch.org/2023/07/funding-journalism-in-colombia/
- Reporters Without Borders (RSF). (2025). Colombia: RSF calls for an end to hostile rhetoric from the government and plan support for journalism during meeting. https://rsf.org/en/colombia-rsf-calls-end-hostile-rhetoric-government-and-plan-support-journalismduring-meeting
Notas:
- Total de referencias citables: 31.
- No se incluyeron enlaces a:
- Portadas genéricas (PMC, ResearchGate, Frontiers, Facebook, Quora).
- Enlaces truncados (ej.: “…decision-making-role/” sin título completo).
- Contenido sin autoría ni fecha clara (como ciertos blogs o videos de YouTube sin transcripción oficial).
- URLs que no apuntan a un documento específico (ej.: “https://www.pares.com.co/” sin el artículo completo).
- Todas las referencias anteriores se construyeron con los elementos APA requeridos: autor (organización si no hay persona), fecha, título en cursiva solo si es obra independiente, nombre de la revista o sitio en cursiva cuando aplica, y URL funcional.



