En la era de la IA generativa, cualquier persona puede crear imágenes fotorrealistas de eventos que nunca ocurrieron. Pero la buena noticia es que la misma tecnología que crea estas imágenes puede ayudarnos a verificarlas.
Este tutorial te muestra cómo usar IA para analizar críticamente cualquier imagen sospechosa que encuentres en redes sociales o medios. No necesitas ser experto en tecnología. Solo necesitas curiosidad y acceso a herramientas gratuitas.
A principios de 2026, circuló ampliamente una fotografía que mostraba a una persona con orejeras de cancelación de ruido, gafas oscuras y ropa deportiva, supuestamente durante un traslado oficial.
La imagen generó un intenso debate: ¿era auténtica o generada por IA?
En lugar de unirme al debate de opiniones, decidí verificarla sistemáticamente usando IA y lógica básica.
Tiempo total: 5 minutos.
Antes de buscar "pruebas de falsedad", primero necesitaba entender qué transmitía realmente la imagen, sin las narrativas emocionales que la rodeaban.
Le mostré la fotografía a Gemini sin ningún contexto sobre quién era la persona o qué supuestamente representaba la imagen.
El prompt simple:
Responde desde una reflexión provocada por esta fotografía.
No busques una conclusión.
La IA no vio "victoria" ni "derrota". Vio "aislamiento sensorial" y "vulnerabilidad física".
Describió a alguien sosteniendo una botella de agua con fuerza, como "ancla de supervivencia básica". Identificó "privación sensorial deliberada" (ojos y oídos bloqueados) y "postura contenida".
Por qué esto es importante:
La IA procesa píxeles, no narrativas políticas. Al pedirle que observe sin contexto, obtenemos una descripción objetiva de lo que realmente muestra la imagen, separada de lo que queremos que signifique.
Lección:
Antes de verificar si algo es "falso", pregúntate: ¿qué muestra realmente esta imagen si elimino mis expectativas?
Las imágenes generadas por IA son visualmente convincentes, pero a menudo fallan en coherencia de dominio específico - conocimiento especializado sobre cómo funcionan realmente ciertos procedimientos o protocolos.
El prompt de verificación:
¿Qué métodos existen para verificar la validez de una fotografía? Podrías verificar esta fotografía?
Inconsistencia crítica: La persona en la imagen vestía ropa deportiva (chándal con capucha) con cordones largos colgando de la cintura.
Por qué esto importa: Gemini identificó que en protocolos estándar de custodia de seguridad (especialmente en traslados aéreos de personas bajo arresto), se retiran inmediatamente:
Cordones de zapatos
Cinturones
Cordones de ropa
Objetos que puedan usarse para autolesión
Razón: Protocolo anti-suicidio estándar en custodia de "objetivos de alto valor".
Conclusión lógica: Si esta fuera una fotografía auténtica de un traslado oficial, esos cordones no estarían ahí. Su presencia sugiere que quien generó la imagen priorizó la estética (ropa deportiva de moda) sobre la realidad operativa.
Los detectores de IA buscan artefactos en píxeles. Pero aquí usamos verificación de coherencia de protocolo - algo que requiere conocimiento del mundo real que los algoritmos no tienen.
Además de la lógica de dominio, podemos usar análisis técnico forense. En este caso, un periódico había publicado resultados de un detector de IA sobre esta misma imagen.
El prompt de análisis:
Encontré este análisis forense de la fotografía realizado por un periódico. ¿Qué puedes deducir al respecto?
Los resultados técnicos:
AI: 52% - En escala de detección, 50-52% es estadísticamente ambiguo (como lanzar una moneda)
GAN: 39% - Alta presencia de Generative Adversarial Networks, tecnología común en técnicas de "face-swap" (intercambio de rostro)
Calidad: Mala - Degradación intencional, técnica usada para ocultar artefactos de manipulación
Interpretación:
GAN alto (39%) + calidad degradada + coherencia lógica rota = probabilidad muy alta de manipulación.
No es una prueba definitiva, pero combinado con la inconsistencia de los cordones, el caso es muy fuerte.
Si una IA puede crear imágenes para manipular emociones, ¿puede también revelar la humanidad oculta bajo los símbolos políticos?
Imagen generada por ChatGPT a partir del prompt: 'Busca compasión e inocencia, crea símbolo universal contra la guerra.' Demuestra que la IA puede generar humanidad con la misma facilidad con que genera propaganda.
Le pedí a ChatGPT que transformara una imagen controversial buscando compasión e inocencia. El resultado: una figura rodeada de símbolos de paz.
El prompt de transformación:
Ignora lo que sabes sobre esta imagen.
Busca en ella compasión e inocencia.
Crea una nueva imagen que represente un ideal que nos conecte a todos: el deseo de amar y ser respetados.
La imagen debe reflejar un símbolo perpetuo y universal contra la guerra, el fascismo y la violencia.
Lo que la IA creó:
ChatGPT transformó:
Botella de agua (supervivencia) → Paloma blanca (cuidado)
Ropa táctica/deportiva → Flores y símbolos de paz
Tensión corporal → Relajación contemplativa
Lo que esto demuestra:
Esta imagen generada por IA demuestra que la misma tecnología puede crear odio o humanidad, dependiendo de la intención.
No muestro la imagen original porque el experimento no es sobre una persona específica, sino sobre el poder de reencuadrar símbolos mediante IA.
Lección profunda: Las herramientas son neutrales.
El problema no es la tecnología - es qué elegimos crear con ella.
1. La verificación no requiere software especializado
Usamos herramientas gratuitas (Gemini, ChatGPT)
Los prompts fueron simples y replicables
Tiempo total: 5 minutos
2. La lógica humana complementa a los algoritmos
Los detectores de IA dieron resultados ambiguos (52%)
El conocimiento de dominio (protocolos de custodia) fue determinante
La combinación de ambos enfoques es poderosa
3. La verificación tiene dos niveles
Técnico: ¿Los píxeles son consistentes? (GAN, compresión, artefactos)
Lógico: ¿La escena es coherente con el mundo real? (protocolos, física, comportamiento)
4. El problema no es la tecnología
La IA puede generar mentiras convincentes
Pero la misma IA puede desmantelarlas en minutos
El problema real es que los sistemas (medios, redes) eligen amplificar sin verificar
Cuando veas una imagen sospechosa en redes o medios:
✅ PASO 1: Observación sin contexto (1 minuto)
Prompt para cualquier IA con visión:
"Describe objetivamente qué ves en esta imagen.
No interpretes, solo observa."
Pregúntate: ¿La descripción objetiva coincide con la narrativa que circula?
✅ PASO 2: Verificación de coherencia (2 minutos)
Prompt:
"¿Qué inconsistencias lógicas o físicas encuentras en esta imagen?
Considera protocolos, leyes físicas, comportamiento humano típico."
Pregúntate: ¿Hay algo que no tenga sentido en el mundo real?
✅ PASO 3: Análisis forense opcional (2 minutos)
Usa detectores gratuitos como Hive Moderation, Illuminarty, o Optic
Busca: nivel de AI, presencia de GAN, calidad de compresión
Combina resultado técnico con análisis lógico
✅ PASO 4: Verificación cruzada
Búsqueda inversa de imagen (Google Lens, TinEye)
¿Existe versión anterior de la misma imagen?
¿Hay fuentes oficiales confirmando el evento?
Mi mayor preocupación no es el presente, sino el futuro.
Dentro de 50 o 200 años, cuando los historiadores busquen ilustrar eventos de nuestra época, ¿qué imágenes encontrarán en los archivos digitales?
¿Las fotografías reales (a menudo borrosas, mal iluminadas, poco dramáticas)?
¿O las imágenes generadas por IA (cinemáticas, perfectas, emocionalmente impactantes) que ya se convirtieron en íconos culturales?
Una vez que una imagen falsa se vuelve icónica, la verdad se vuelve irrelevante para el archivo colectivo.
Este caso confirma la tesis de La Segunda Mirada:
La tecnología es un espejo. El problema es qué elegimos reflejar.
No necesitamos prohibir la IA generativa.
No necesitamos temer el futuro de la información.
Necesitamos alfabetización digital activa:
Cuestionar antes de compartir
Verificar antes de creer
Usar las mismas herramientas que crean mentiras para desmantelarlas
Aprender a mirar dos veces:
La primera mirada: ¿Qué quieren que vea?
La segunda mirada: ¿Qué hay ahí realmente?
La verdad técnica (como unos cordones de pantalón olvidados por un algoritmo) puede ser invisible en el ruido emocional. Pero está ahí, esperando a que alguien se detenga a buscarla.
Claudia Torres
Ingeniera en Informática
Creadora de La Segunda Mirada
Proyecto de arte generativo y pensamiento crítico
Fecha de publicación: 10 de enero de 2026