Deepfakes imposibles de detectar: La crisis de confianza visual de 2025


Hace apenas tres años, los deepfakes eran curiosidades técnicas que cualquiera podía identificar. Un parpadeo extraño, un movimiento de labios desincronizado, una iluminación que no terminaba de cuadrar. Hoy, esa época parece prehistórica. En 2025, estamos viendo videos falsos que engañan a ingenieros forenses, ejecutivos de empresas y, francamente, a casi cualquiera. La pregunta ya no es si podemos crear videos falsos convincentes, sino cómo demonios vamos a vivir cuando ya no podamos confiar en nada de lo que vemos.

El problema no es solo tecnológico. Es que nuestra sociedad entera se construyó sobre la premisa de que "ver es creer". Los tribunales aceptan evidencia en video. Los bancos verifican identidades por videollamada. Los medios publican grabaciones como prueba irrefutable. Y ahora todo ese andamiaje se está viniendo abajo más rápido de lo que podemos reconstruirlo.

Cuando lo falso se vuelve indistinguible de lo real

La evolución de los deepfakes en los últimos dos años ha sido exponencial. Modelos como SORA de OpenAI y herramientas de código abierto cada vez más sofisticadas han democratizado una tecnología que antes requería equipos especializados y semanas de trabajo. Ahora, con una computadora decente y algo de paciencia, prácticamente cualquiera puede crear un video falso que pase cualquier inspección visual casual.

Pero lo realmente preocupante son las herramientas que circulan en foros especializados y mercados de la red oscura. Estas aplicaciones incorporan correcciones automáticas para los errores que antes delataban a los deepfakes. ¿Parpadeos poco naturales? Resuelto. ¿Inconsistencias en la iluminación? Ajustadas automáticamente. ¿Artefactos en los bordes del rostro? Limpiados con algoritmos de última generación.

Un investigador de seguridad digital que prefiere mantener el anonimato me explicó que los modelos actuales no solo copian rostros, sino que entienden la física de cómo se comporta la luz en la piel humana, cómo se forman las microexpresiones, incluso cómo el tono muscular afecta los gestos. "Es como si hubieran aprendido a ser humanos en lugar de solo copiarlos", me dijo. Y tiene razón en estar inquieto.

Fraudes que están redefiniendo el crimen

Los casos documentados de fraude usando deepfakes han pasado de ser anécdotas aisladas a un problema sistémico. En febrero de este año, una empresa multinacional de Hong Kong perdió 25 millones de dólares después de que un empleado del departamento de finanzas participara en una videollamada con quien creía que era el director financiero de la compañía. No lo era. Toda la llamada, con múltiples "participantes", era una elaborada producción de deepfakes en tiempo real.

Lo aterrador del caso no es solo la cantidad robada, sino la sofisticación de la operación. Los estafadores no usaron un video pregrabado. Respondían preguntas, reaccionaban a comentarios, mantenían una conversación natural. La tecnología ya permite deepfakes en vivo con latencias mínimas, lo que significa que alguien puede ponerse la cara de otra persona y hablar como ella en tiempo real durante una videollamada.

En el ámbito político, la situación es igualmente grave. Durante las elecciones parciales de varios países europeos en 2024 y principios de 2025, circularon videos de candidatos diciendo cosas que nunca dijeron. Algunos eran obviamente falsos, pensados para la sátira o el comentario político. Otros eran indistinguibles de grabaciones reales y claramente diseñados para engañar.

El caso más documentado fue el de un candidato a alcalde en una ciudad del norte de Italia, donde apareció un video de él aceptando un soborno, dos días antes de las elecciones. El video era falso, pero el daño estaba hecho. Para cuando los forenses digitales confirmaron que era un deepfake, las elecciones ya habían pasado y él había perdido. Las investigaciones posteriores revelaron que el video costó menos de mil euros producirlo, una inversión ridícula para cambiar el resultado de unas elecciones.

La suplantación de identidad llegó al video

Pero quizás donde más estamos sintiendo el impacto es en algo mucho más personal y cotidiano: la suplantación de identidad en videollamadas. Los bancos y las empresas financieras están en pánico silencioso porque su sistema de verificación de identidad, que parecía robusto hace apenas dos años, ahora es vulnerable.

El proceso típico de verificación bancaria por video requería que el cliente mostrara su identificación y luego su rostro, a veces realizando gestos específicos como girar la cabeza o parpadear. Los criminales han encontrado formas de burlar esto usando deepfakes en tiempo real alimentados con fotos robadas de redes sociales y documentos de identidad obtenidos en filtraciones de datos.

Una empresa de seguridad financiera en España reportó que detectó más de 300 intentos de apertura de cuentas fraudulentas usando esta técnica solo en el primer trimestre de 2025. Y esos son solo los que detectaron. ¿Cuántos pasaron desapercibidos? Nadie lo sabe con certeza, y esa incertidumbre es parte del problema.

Los criminales también están usando deepfakes para extorsión. Familias han recibido videos de sus hijos "secuestrados" pidiendo rescates urgentes. Los videos son lo suficientemente convincentes para provocar pánico inmediato, y en varios casos, las víctimas han transferido dinero antes de verificar si sus familiares estaban realmente en peligro. Basta con recopilar fotos y videos de redes sociales para crear material suficientemente convincente.

La guerra interminable entre creadores y detectores

Esta situación ha desatado lo que algunos expertos llaman "la guerra de los deepfakes": una carrera armamentista tecnológica entre quienes crean videos falsos y quienes intentan detectarlos. Es una batalla que, por ahora, están perdiendo los detectores.

Cada vez que aparece una nueva herramienta de detección, los creadores de deepfakes la estudian y ajustan sus algoritmos para evadirla. Es un proceso iterativo que se acelera constantemente. Algunas empresas especializadas en detectar deepfakes han reportado que sus herramientas tienen una vida útil de apenas tres a seis meses antes de que necesiten actualizaciones significativas.

El problema fundamental es que muchos sistemas de detección y creación de deepfakes usan tecnologías similares basadas en redes neuronales. En esencia, están entrenando a las inteligencias artificiales para que se combatan entre sí, y el resultado es que ambas se vuelven mejores en sus respectivas tareas. Esto crea una espiral donde los deepfakes son cada vez más convincentes y los detectores cada vez más sofisticados, pero la ventaja siempre parece estar del lado de los creadores.

Además, los detectores tienen un problema de escala. Analizar un video en busca de señales de manipulación requiere recursos computacionales significativos. Facebook, TikTok y YouTube no pueden pasar cada video subido a sus plataformas por análisis forenses profundos. Sería técnica y económicamente inviable. Así que dependen de sistemas automatizados que evalúan videos de forma superficial, y esos sistemas son relativamente fáciles de engañar.

Vivir en un mundo sin verdad visual

La consecuencia de todo esto es que estamos entrando en una era donde el escepticismo visual no es paranoia, sino prudencia básica. Y eso tiene implicaciones que apenas estamos comenzando a entender.

Para empezar, erosiona la confianza social de maneras fundamentales. Si no puedes confiar en que un video de alguien es realmente esa persona, ¿cómo verificas cualquier cosa? El concepto de "prueba visual" está muriendo frente a nuestros ojos, y no tenemos un reemplazo claro.

Los sistemas judiciales están lidiando con esto en tiempo real. Los abogados defensores ahora pueden argumentar, con cierta credibilidad, que prácticamente cualquier evidencia en video podría ser un deepfake. Esto no significa que todos los videos sean falsos, pero introduce una duda razonable donde antes había certeza. Varios países están modificando sus códigos procesales para establecer estándares más estrictos sobre la autenticación de evidencia digital.

Los medios de comunicación enfrentan un dilema similar. La verificación de videos antes de publicarlos siempre fue importante, pero ahora requiere un nivel de análisis técnico que muchas redacciones simplemente no tienen. Hemos visto casos donde medios reputados publicaron videos que resultaron ser deepfakes, no por negligencia, sino porque la tecnología de verificación disponible no fue suficiente.

Y luego está el impacto en las relaciones interpersonales. Ya hay casos documentados de personas que reciben videos de sus parejas en situaciones comprometedoras que nunca ocurrieron. La suplantación sexual mediante deepfakes es un problema creciente que las legislaciones están apenas comenzando a abordar, pero el daño psicológico y social ya está hecho.

Las tecnologías de autenticación que intentan salvarnos

Frente a este panorama, han surgido varias propuestas tecnológicas para restaurar algo de confianza en el contenido visual. Ninguna es perfecta, pero algunas son prometedoras.

La más desarrollada es la autenticación criptográfica en el origen. La idea es simple: si tu cámara firma digitalmente cada foto o video que toma usando criptografía, podrías verificar que ese contenido no ha sido alterado desde el momento de la captura. Empresas como Canon, Sony y Nikon están incorporando chips especializados en sus cámaras profesionales que hacen exactamente esto.

El problema es la adopción. Los miles de millones de teléfonos que ya existen no tienen esta capacidad, y reemplazar toda la infraestructura de captura de imágenes del mundo llevará años, quizás décadas. Mientras tanto, seguimos en un estado de vulnerabilidad.

Otra aproximación es el uso de blockchain para crear registros inmutables de contenido verificado. Organizaciones de verificación de hechos y medios de comunicación están experimentando con sistemas donde los videos autenticados se registran en cadenas de bloques públicas, creando un historial verificable de su origen y modificaciones. Pero esto solo funciona si confías en quien hace el registro inicial, lo que nos lleva de vuelta al problema de la verificación.

Algunas plataformas están explorando sistemas de "prueba de humanidad" más sofisticados. En lugar de simplemente verificar que eres quien dices ser una vez, estos sistemas requieren verificaciones continuas usando patrones biométricos complejos que son difíciles de falsificar incluso con deepfakes avanzados. Análisis de patrones de escritura, cadencia de voz a lo largo del tiempo, incluso microexpresiones involuntarias que son extremadamente difíciles de replicar artificialmente.

La empresa británica iProov ha desarrollado un sistema que analiza cómo la luz se refleja en diferentes partes del rostro durante una videollamada, buscando inconsistencias que serían invisibles para el ojo humano pero detectables algorítmicamente. Afirman una tasa de detección del 99.7%, aunque reconocen que es solo cuestión de tiempo antes de que los creadores de deepfakes encuentren formas de evadir estos controles.

El concepto de prueba de humanidad y sus dilemas

La "prueba de humanidad" se está convirtiendo en uno de los conceptos más discutidos en círculos de tecnología y seguridad. La idea básica es establecer sistemas que puedan verificar, más allá de duda razonable, que estás interactuando con un humano real y no con una inteligencia artificial o un deepfake.

Esto suena razonable en teoría, pero en la práctica plantea preguntas incómodas. ¿Qué nivel de verificación es aceptable? ¿Escaneos de iris constantes? ¿Análisis de ADN? ¿Chips implantados? Cada nivel adicional de seguridad es también un nivel adicional de invasión de privacidad.

Algunos proponen sistemas descentralizados donde la prueba de humanidad se establece a través de redes de confianza social. Si cinco personas que conoces verifican que eres real, entonces el sistema te considera humano. Pero esto tiene sus propios problemas: ¿qué pasa con personas nuevas en una comunidad? ¿Cómo evitas que grupos criminales simplemente se verifiquen entre sí?

Worldcoin, el proyecto controversial de Sam Altman, intentó abordar esto mediante escaneos de iris únicos almacenados de forma criptográfica. Recibió críticas intensas por preocupaciones de privacidad y por su implementación en países en desarrollo donde la gente aceptaba los escaneos a cambio de pequeñas sumas de dinero. El proyecto sigue operando, pero se ha convertido en símbolo de los dilemas éticos que enfrentamos.

¿Hacia dónde vamos desde aquí?

La realidad es que probablemente nunca volveremos a tener el nivel de confianza visual que teníamos hace cinco años. Esa época terminó. La pregunta ahora es cómo nos adaptamos a una realidad donde los videos pueden ser falsos y necesitamos asumir eso como punto de partida.

Algunas adaptaciones ya están ocurriendo. Las empresas están volviendo a métodos de autenticación que parecían obsoletos: contraseñas secretas compartidas previamente, preguntas de seguridad personales, verificaciones telefónicas con números conocidos. Es irónico que la tecnología nos haya llevado de vuelta a métodos casi analógicos de verificación de identidad.

El sector financiero está liderando cambios importantes. Varios bancos europeos están implementando sistemas de autenticación multifactor que combinan biometría, verificación de dispositivos conocidos, análisis de patrones de comportamiento y, cuando hay transacciones significativas, confirmaciones presenciales en sucursales. Es menos conveniente, pero más seguro.

Los gobiernos están comenzando a legislar, aunque van varios pasos detrás de la tecnología. La Unión Europea está trabajando en regulaciones sobre el uso de deepfakes que requerirían marcas de agua digitales obligatorias en contenido sintético. Estados Unidos está considerando leyes similares a nivel federal, aunque varios estados ya tienen sus propias regulaciones.

Pero la legislación tiene limitaciones obvias. Las herramientas para crear deepfakes son de código abierto y están disponibles globalmente. Puedes prohibir su uso malicioso, pero no puedes evitar que existan. Es como intentar legislar contra el conocimiento mismo.

Aprendiendo a navegar la incertidumbre

Quizás lo más importante que necesitamos desarrollar no es mejor tecnología, sino mejor criterio. Una forma actualizada de alfabetización digital que asuma que cualquier contenido visual puede ser falso y que nos enseñe a verificar de múltiples formas antes de creer.

Esto significa cuestionar videos que confirman nuestros prejuicios tanto como aquellos que los desafían. Significa buscar múltiples fuentes antes de aceptar algo como cierto. Significa reconocer que el escepticismo saludable no es lo mismo que el nihilismo donde nada es verdad.

Algunas organizaciones educativas están comenzando a enseñar "higiene digital" en escuelas, incluyendo cómo identificar posibles deepfakes y, más importante, cómo verificar información antes de compartirla. Es un inicio, pero insuficiente frente a la magnitud del problema.

También necesitamos aceptar que habrá un período de caos mientras la sociedad se ajusta. Ya lo estamos viviendo. Fraudes exitosos, daños reputacionales injustos, confusión generalizada sobre qué es real. Es el costo de una transición tecnológica que llegó más rápido de lo que podíamos prepararnos.

La ironía es que la solución probablemente no vendrá de una única tecnología milagrosa, sino de una combinación de muchas aproximaciones imperfectas: autenticación criptográfica, análisis forense mejorado, verificación social, escepticismo educado, marco legal más robusto. Ninguna de estas cosas resolverá el problema por sí sola, pero juntas pueden crear un sistema donde la verdad visual, aunque más difícil de establecer que antes, sigue siendo posible de verificar.

El futuro inmediato

Mirando hacia adelante, es probable que los próximos dos o tres años sean especialmente turbulentos. La tecnología de deepfakes seguirá mejorando más rápido que nuestra capacidad de detectarlos o regularlos. Veremos más fraudes, más desinformación, más caos antes de que las defensas comiencen a alcanzar a los ataques.

Pero eventualmente llegaremos a un nuevo equilibrio. No será un mundo donde podamos confiar ciegamente en lo que vemos, pero sí uno donde tengamos herramientas y procesos suficientemente robustos para verificar lo que importa. Las videollamadas importantes tendrán autenticación en múltiples capas. Los videos utilizados como evidencia legal requerirán certificación forense. El contenido sintético llevará marcas obligatorias identificándolo como tal.

Será un mundo más complicado, más lleno de verificaciones y pasos adicionales, menos espontáneo en algunos aspectos. Pero quizás también sea un mundo donde pensamos más cuidadosamente antes de creer, donde desarrollamos músculos críticos que habíamos dejado atrofiar en la era de la confianza visual ciega.

La crisis de confianza visual de 2025 no es temporal. Es el inicio de una nueva normalidad que apenas estamos comenzando a comprender. Y aunque da miedo, también nos está forzando a ser más sofisticados, más cuidadosos, más críticos en cómo procesamos información visual. Eventualmente, eso podría ser algo bueno. Mientras tanto, toca navegar la incertidumbre lo mejor que podamos.

 

Francisco Barcala. 

Actor. Director. Escritor. Acting Coach.

Instagram: @culturageneralconBarcala

Facebook: http://facebook.com/culturageneralparatodos

Blog: http://culturageneralconbarcala.blogspot.com

 


Comentarios