Local News

La verdad en tiempos de imágenes sintéticas 

11 February 2026
This content originally appeared on Metro Puerto Rico.

 

Metro Puerto Rico publica este artículo como parte de una colaboración con Latinoamérica21, plataforma de sindicación líder en América Latina, especializada en artículos de análisis y opinión sobre temas políticos, económicos, científicos y medioambientales de la región.

“La pesadilla de la esquizofrenia es no saber qué es verdad”, le dice el Dr. Rosen a la esposa de John Nash en la película Una mente brillante, dirigida por Ron Howard. La frase describe uno de los síntomas más angustiantes de esa enfermedad y, usada aquí en sentido metafórico y no clínico, nos ofrece un punto de partida para pensar una complejidad muy real de la sociedad del siglo XXI.

Una cultura visual de circulación vertiginosa en redes sociales, donde abundan imágenes y videos que parecen verdaderos, pero son completamente falsos, y alimentan potentes dinámicas de desinformación.

Si solo habláramos de datos imprecisos, el problema sería manejable. Pero cuando esas piezas falsas se insertan en conflictos entre países —como Israel-Palestina o Rusia-Ucrania— y se diseñan para suscitar temor, repudio, estigmatización o división, la situación cambia de escala. Ya no se trata solo de errores informativos, sino de dispositivos que modelan emociones, identidades y posiciones políticas. Ahí vale la pena hacer un alto y preguntarnos hasta qué punto la inteligencia artificial (IA) generativa está reconfigurando la cultura, la vida cotidiana y la propia idea de verdad compartida.

En América Latina, la frontera entre lo verdadero y lo falso dejó de ser un dilema futurista. Brasil estrenó reglas contra los deepfakes en sus elecciones locales de 2024 mientras circulaban montajes; en México, el ciclo electoral de ese mismo año estuvo atravesado por debates sobre audios y videos sintéticos; y el mundo corporativo ya ha enfrentado intentos de estafa con voces y rostros clonados. El resultado es una vida cotidiana más incierta, en la que la verificación suele llegar tarde y el daño se propaga rápido: primero circulan las emociones, después —con suerte— aparecen las evidencias.

En este contexto proponemos leer el fenómeno como una suerte de “esquizofrenia social” inducida por la IA generativa: una desalineación entre lo que vemos y escuchamos y lo que podemos creer, con efectos políticos, económicos y culturales de gran escala.

Llamamos “esquizofrenia social” —insistimos, en un sentido metafórico y no clínico— a la desincronización colectiva entre percepción y confianza que se produce cuando sistemas técnicos generan, a bajo costo y gran escala, representaciones plausibles de algo que nunca sucedió. Al menos tres mecanismos contribuyen a ello.

Primero, el mimetismo sensorial: las IA logran voces, rostros y escenas que “pasan” por reales y se consumen a la velocidad del feed, reduciendo dramáticamente la ventana para dudar. Segundo, la economía de la atención: las plataformas optimizan exposición y engagement; las piezas sintéticas, por su dramatismo y novedad, compiten ventajosamente por clics, reacciones y pauta. Tercero, las asimetrías institucionales: la capacidad de verificar, regular y sancionar siempre va por detrás de la capacidad de generar y distribuir contenidos.

En la región, organismos y cortes electorales han empezado a responder, pero los incentivos del ecosistema informacional —político, comercial y mediático— siguen premiando la viralidad por encima del cuidado democrático.

La consecuencia es una erosión de la confianza interpersonal e institucional, con impactos desiguales: algunos grupos poblacionales específicos suelen ser blanco preferente de montajes y campañas de odio, mientras los medios enfrentan un doble reto de sostenibilidad y verificación. Revertir esta desalineación exige políticas públicas, tecnologías responsables y alfabetización mediática y visual que reequilibren la relación entre ver, creer y actuar.

Para comprender cómo llegamos a confiar tanto en las imágenes —hasta el punto de que la IA pueda descolocar nuestra percepción— resulta útil recuperar algunas ideas de los Estudios Visuales. Desde ahí podemos interrogar la relación entre imagen, mirada y realidad, y entender el terreno en el que hoy circulan imágenes creadas o manipuladas por IA.

Gérard Wajcman, en El ojo absoluto (2010), sostiene que habitamos una sociedad que idolatra la imagen. Esperamos que la realidad se entregue por completo a nuestra mirada, que nada permanezca oculto. De ahí la ubicuidad de cámaras en teléfonos, computadoras y dispositivos de vigilancia.

Bajo la premisa de que aquello que no tiene imagen fácilmente se vuelve rumor, terminamos confiando en las imágenes como si garantizaran, por sí mismas, la verdad de lo que muestran, incluso sabiendo que pueden ser manipuladas. Primero fue la fotografía, luego los programas de edición digital; ahora, las imágenes producidas o transformadas con IA. En todos estos casos se mantiene una confianza casi automática en lo visible.

Wajcman ilustra esta pulsión de verlo todo con el ejemplo de un grupo de científicos de la Universidad de Hiroshima que volvieron transparentes a unas ranas para observar sus órganos sin abrir sus cuerpos.

Más allá de lo que podría parecer un avance científico, el gesto revela un deseo de anticipar cualquier amenaza —como el crecimiento de células malignas— mediante un ojo externo que produce información constante. Esta lógica ayuda a comprender por qué hoy normalizamos tecnologías que prometen vigilar, predecir y controlar el futuro a partir de imágenes y datos visuales.

Por su parte, Guy Debord, en La sociedad del espectáculo (1967), argumenta que en las sociedades modernas la vida social se organiza como una enorme acumulación de espectáculos. Lo que antes se vivía de manera directa se desplaza hacia su representación, hacia su puesta en escena.

El espectáculo no es simplemente un conjunto de imágenes, sino una forma de relación social mediada por esas imágenes y por los dispositivos que las difunden. La economía y el poder, señala Debord, se legitiman a través de este régimen visual que moldea la manera en que percibimos el mundo y a nosotros mismos.

En este contexto, la visualidad se asocia cada vez más con la vigilancia, el voyeurismo y el espectáculo, y cada vez menos con la reflexión crítica. Si antes se hablaba de un “ojo inquisidor”, ahora nos encontramos frente a un ojo lleno de dudas: un ojo saturado por la proliferación de imágenes manipuladas o generadas por IA, que vuelve extremadamente difícil distinguir entre lo verdadero y lo falso, entre la realidad y la ficción.

La “esquizofrenia social” de nuestro tiempo no consiste solo en dudar de lo que vemos, sino en que esa duda erosiona vínculos ya frágiles en sociedades atravesadas por desigualdad, violencia e instituciones débiles, como tantas en América Latina.

Permitir que la IA generativa opere sin contrapesos en este contexto supone agravar la confusión y la polarización; ponerla al servicio de la democracia, en cambio, implica fortalecer sistemas de verificación, promover alfabetización visual y mediática desde la escuela y abrir la discusión pública sobre los usos legítimos de las imágenes sintéticas. En última instancia, lo que está en juego no es solo el estatuto de la verdad visual, sino la posibilidad de sostener un mínimo de confianza compartida que haga habitable la vida en común.