Por Henry Ramírez.
Santo Domingo, R.D.- Cómo identificar imágenes con IA se ha convertido, casi de la noche a la mañana, en la habilidad de supervivencia digital más crítica de 2025. Entras a X (antes Twitter) o haces scroll en Instagram y ahí está: una fotografía que parece demasiado perfecta, demasiado dramática o simplemente extraña. La «basura» generada por inteligencia artificial inunda internet, mezclándose con la realidad hasta el punto de que nuestros propios ojos ya no son jueces fiables.
Saber cómo identificar imágenes con IA no es solo un truco para ganar discusiones en redes sociales; es una necesidad para no caer en desinformación. Lo curioso es que, aunque modelos como Midjourney v6 o Flux han avanzado una barbaridad, todavía dejan rastros. Migajas digitales que los delatan si sabes dónde mirar. Y no, no siempre se trata de buscar seis dedos en una mano, aunque eso sigue pasando más de lo que admiten los desarrolladores.
El valle inquietante de las manos y la anatomía imposible
Quizás sea el cliché más viejo del libro, pero sigue vigente. Los generadores de imágenes funcionan mediante difusión, prediciendo píxeles basándose en ruido estadístico, no entendiendo la biología humana. Por eso, las extremidades siguen siendo su talón de Aquiles. Aunque cómo identificar imágenes con IA se ha vuelto más difícil con las últimas actualizaciones que «arreglan» las manos, si haces zoom, el horror suele estar ahí.
Texto alienígena y fondos que se derriten
Aquí es donde la mayoría de los fakes se desmoronan rápidamente. Si la imagen muestra una calle con carteles, una camiseta con logo o la portada de un libro, lee el texto. La IA suele generar una especie de «lorem ipsum» alienígena; letras que parecen familiares de lejos pero que son garabatos sin sentido al acercarse. Aunque DALL-E 3 ha mejorado en esto, la consistencia tipográfica sigue siendo un reto enorme para los algoritmos.
Lo mismo ocurre con el fondo. En fotografía real, el desenfoque (bokeh) sigue las reglas de la óptica: la profundidad de campo es progresiva. En una imagen sintética, el fondo a menudo se comporta como una pintura al óleo mal mezclada. Personas que se funden con las paredes, líneas de edificios que se tuercen sin razón o texturas del suelo que cambian de adoquín a césped sin transición lógica. Si el sujeto principal está nítido pero el entorno parece un sueño febril, es una bandera roja gigante.
La perfección plástica de la piel (Shine effect)
¿Alguna vez has notado que las personas generadas por IA parecen tener una rutina de cuidado de la piel de cinco mil dólares? Ese brillo excesivo, casi ceroso, es una marca registrada. A la IA le encanta suavizar el ruido, y el resultado es una piel que carece de poros reales, imperfecciones, cicatrices o vello facial natural.
Es el efecto «muñeca de plástico». La luz rebota en sus caras de manera uniforme, sin las microsombras que crean los poros o las líneas de expresión reales. Incluso cuando intentan generar una persona anciana, a menudo verás arrugas profundas pero sobre una textura de piel extrañamente lisa y brillante. La realidad es rugosa, imperfecta y mate en muchas áreas; la IA prefiere el brillo de revista retocado al extremo.
Este punto requiere un ojo un poco más entrenado, pero es infalible. La luz en el mundo real tiene una fuente (o varias) y proyecta sombras coherentes. En la generación sintética, la iluminación es a menudo «dramática» por defecto, pero carece de lógica espacial.
Accesorios que desaparecen y lógica visual rota
Los detalles pequeños son los que arruinan la ilusión. La IA tiene problemas con la «permanencia del objeto». Observa las gafas: a veces la montura desaparece en la piel o una patilla es diferente a la otra. Mira los pendientes; es muy común que una persona generada por IA lleve aretes totalmente distintos en cada oreja sin que sea una decisión de estilo.
Mis detectores gratuitos favoritos para salir de dudas
A veces, el ojo humano no basta. La fatiga visual o la calidad de la pantalla del móvil nos juega malas pasadas. Aunque ningún software es infalible y esto hay que grabárselo a fuego, existen herramientas que analizan los patrones de ruido invisibles que dejan los generadores.
Hive Moderation es, probablemente, la opción más robusta ahora mismo. Originalmente diseñada para moderación de contenido empresarial, su demo gratuita es sorprendentemente precisa detectando Midjourney y DALL-E. No solo te dice «es fake», sino que te da un porcentaje de probabilidad y a menudo acierta qué motor se usó.
Otra opción interesante es Illuminarty, que ofrece un desglose visual de las áreas sospechosas de la imagen. Y si te mueves en entornos más técnicos, las herramientas de Hugging Face (como el detector de orquestación de modelos) suelen estar bastante actualizadas con los últimos datasets. Úsalos como una segunda opinión, nunca como la verdad absoluta.
Lo que inquieta de todo esto no es solo la tecnología, sino la velocidad a la que nos estamos acostumbrando a dudar de todo. La verificación visual es el nuevo sentido común.
![]()



