Deepfakes imposibles de detectar: La crisis de confianza visual de 2025
Hace apenas tres años, los
deepfakes eran curiosidades técnicas que cualquiera podía identificar. Un
parpadeo extraño, un movimiento de labios desincronizado, una iluminación que
no terminaba de cuadrar. Hoy, esa época parece prehistórica. En 2025, estamos
viendo videos falsos que engañan a ingenieros forenses, ejecutivos de empresas
y, francamente, a casi cualquiera. La pregunta ya no es si podemos crear videos
falsos convincentes, sino cómo demonios vamos a vivir cuando ya no podamos
confiar en nada de lo que vemos.
El problema no es solo
tecnológico. Es que nuestra sociedad entera se construyó sobre la premisa de
que "ver es creer". Los tribunales aceptan evidencia en video. Los
bancos verifican identidades por videollamada. Los medios publican grabaciones
como prueba irrefutable. Y ahora todo ese andamiaje se está viniendo abajo más
rápido de lo que podemos reconstruirlo.
Cuando lo falso se vuelve
indistinguible de lo real
La evolución de los deepfakes en
los últimos dos años ha sido exponencial. Modelos como SORA de OpenAI y
herramientas de código abierto cada vez más sofisticadas han democratizado una
tecnología que antes requería equipos especializados y semanas de trabajo.
Ahora, con una computadora decente y algo de paciencia, prácticamente
cualquiera puede crear un video falso que pase cualquier inspección visual
casual.
Pero lo realmente preocupante son
las herramientas que circulan en foros especializados y mercados de la red
oscura. Estas aplicaciones incorporan correcciones automáticas para los errores
que antes delataban a los deepfakes. ¿Parpadeos poco naturales? Resuelto.
¿Inconsistencias en la iluminación? Ajustadas automáticamente. ¿Artefactos en
los bordes del rostro? Limpiados con algoritmos de última generación.
Un investigador de seguridad
digital que prefiere mantener el anonimato me explicó que los modelos actuales
no solo copian rostros, sino que entienden la física de cómo se comporta la luz
en la piel humana, cómo se forman las microexpresiones, incluso cómo el tono
muscular afecta los gestos. "Es como si hubieran aprendido a ser humanos
en lugar de solo copiarlos", me dijo. Y tiene razón en estar inquieto.
Fraudes que están redefiniendo
el crimen
Los casos documentados de fraude
usando deepfakes han pasado de ser anécdotas aisladas a un problema sistémico.
En febrero de este año, una empresa multinacional de Hong Kong perdió 25
millones de dólares después de que un empleado del departamento de finanzas
participara en una videollamada con quien creía que era el director financiero
de la compañía. No lo era. Toda la llamada, con múltiples
"participantes", era una elaborada producción de deepfakes en tiempo
real.
Lo aterrador del caso no es solo
la cantidad robada, sino la sofisticación de la operación. Los estafadores no
usaron un video pregrabado. Respondían preguntas, reaccionaban a comentarios,
mantenían una conversación natural. La tecnología ya permite deepfakes en vivo
con latencias mínimas, lo que significa que alguien puede ponerse la cara de
otra persona y hablar como ella en tiempo real durante una videollamada.
En el ámbito político, la
situación es igualmente grave. Durante las elecciones parciales de varios
países europeos en 2024 y principios de 2025, circularon videos de candidatos
diciendo cosas que nunca dijeron. Algunos eran obviamente falsos, pensados para
la sátira o el comentario político. Otros eran indistinguibles de grabaciones
reales y claramente diseñados para engañar.
El caso más documentado fue el de
un candidato a alcalde en una ciudad del norte de Italia, donde apareció un
video de él aceptando un soborno, dos días antes de las elecciones. El video
era falso, pero el daño estaba hecho. Para cuando los forenses digitales
confirmaron que era un deepfake, las elecciones ya habían pasado y él había
perdido. Las investigaciones posteriores revelaron que el video costó menos de
mil euros producirlo, una inversión ridícula para cambiar el resultado de unas
elecciones.
La suplantación de identidad
llegó al video
Pero quizás donde más estamos
sintiendo el impacto es en algo mucho más personal y cotidiano: la suplantación
de identidad en videollamadas. Los bancos y las empresas financieras están en
pánico silencioso porque su sistema de verificación de identidad, que parecía
robusto hace apenas dos años, ahora es vulnerable.
El proceso típico de verificación
bancaria por video requería que el cliente mostrara su identificación y luego
su rostro, a veces realizando gestos específicos como girar la cabeza o
parpadear. Los criminales han encontrado formas de burlar esto usando deepfakes
en tiempo real alimentados con fotos robadas de redes sociales y documentos de
identidad obtenidos en filtraciones de datos.
Una empresa de seguridad
financiera en España reportó que detectó más de 300 intentos de apertura de
cuentas fraudulentas usando esta técnica solo en el primer trimestre de 2025. Y
esos son solo los que detectaron. ¿Cuántos pasaron desapercibidos? Nadie lo
sabe con certeza, y esa incertidumbre es parte del problema.
Los criminales también están
usando deepfakes para extorsión. Familias han recibido videos de sus hijos
"secuestrados" pidiendo rescates urgentes. Los videos son lo
suficientemente convincentes para provocar pánico inmediato, y en varios casos,
las víctimas han transferido dinero antes de verificar si sus familiares
estaban realmente en peligro. Basta con recopilar fotos y videos de redes
sociales para crear material suficientemente convincente.
La guerra interminable entre
creadores y detectores
Esta situación ha desatado lo que
algunos expertos llaman "la guerra de los deepfakes": una carrera
armamentista tecnológica entre quienes crean videos falsos y quienes intentan
detectarlos. Es una batalla que, por ahora, están perdiendo los detectores.
Cada vez que aparece una nueva
herramienta de detección, los creadores de deepfakes la estudian y ajustan sus
algoritmos para evadirla. Es un proceso iterativo que se acelera
constantemente. Algunas empresas especializadas en detectar deepfakes han reportado
que sus herramientas tienen una vida útil de apenas tres a seis meses antes de
que necesiten actualizaciones significativas.
El problema fundamental es que
muchos sistemas de detección y creación de deepfakes usan tecnologías similares
basadas en redes neuronales. En esencia, están entrenando a las inteligencias
artificiales para que se combatan entre sí, y el resultado es que ambas se
vuelven mejores en sus respectivas tareas. Esto crea una espiral donde los
deepfakes son cada vez más convincentes y los detectores cada vez más
sofisticados, pero la ventaja siempre parece estar del lado de los creadores.
Además, los detectores tienen un
problema de escala. Analizar un video en busca de señales de manipulación
requiere recursos computacionales significativos. Facebook, TikTok y YouTube no
pueden pasar cada video subido a sus plataformas por análisis forenses
profundos. Sería técnica y económicamente inviable. Así que dependen de
sistemas automatizados que evalúan videos de forma superficial, y esos sistemas
son relativamente fáciles de engañar.
Vivir en un mundo sin verdad
visual
La consecuencia de todo esto es
que estamos entrando en una era donde el escepticismo visual no es paranoia,
sino prudencia básica. Y eso tiene implicaciones que apenas estamos comenzando
a entender.
Para empezar, erosiona la
confianza social de maneras fundamentales. Si no puedes confiar en que un video
de alguien es realmente esa persona, ¿cómo verificas cualquier cosa? El
concepto de "prueba visual" está muriendo frente a nuestros ojos, y
no tenemos un reemplazo claro.
Los sistemas judiciales están
lidiando con esto en tiempo real. Los abogados defensores ahora pueden
argumentar, con cierta credibilidad, que prácticamente cualquier evidencia en
video podría ser un deepfake. Esto no significa que todos los videos sean falsos,
pero introduce una duda razonable donde antes había certeza. Varios países
están modificando sus códigos procesales para establecer estándares más
estrictos sobre la autenticación de evidencia digital.
Los medios de comunicación
enfrentan un dilema similar. La verificación de videos antes de publicarlos
siempre fue importante, pero ahora requiere un nivel de análisis técnico que
muchas redacciones simplemente no tienen. Hemos visto casos donde medios reputados
publicaron videos que resultaron ser deepfakes, no por negligencia, sino porque
la tecnología de verificación disponible no fue suficiente.
Y luego está el impacto en las
relaciones interpersonales. Ya hay casos documentados de personas que reciben
videos de sus parejas en situaciones comprometedoras que nunca ocurrieron. La
suplantación sexual mediante deepfakes es un problema creciente que las
legislaciones están apenas comenzando a abordar, pero el daño psicológico y
social ya está hecho.
Las tecnologías de
autenticación que intentan salvarnos
Frente a este panorama, han
surgido varias propuestas tecnológicas para restaurar algo de confianza en el
contenido visual. Ninguna es perfecta, pero algunas son prometedoras.
La más desarrollada es la
autenticación criptográfica en el origen. La idea es simple: si tu cámara firma
digitalmente cada foto o video que toma usando criptografía, podrías verificar
que ese contenido no ha sido alterado desde el momento de la captura. Empresas
como Canon, Sony y Nikon están incorporando chips especializados en sus cámaras
profesionales que hacen exactamente esto.
El problema es la adopción. Los
miles de millones de teléfonos que ya existen no tienen esta capacidad, y
reemplazar toda la infraestructura de captura de imágenes del mundo llevará
años, quizás décadas. Mientras tanto, seguimos en un estado de vulnerabilidad.
Otra aproximación es el uso de
blockchain para crear registros inmutables de contenido verificado.
Organizaciones de verificación de hechos y medios de comunicación están
experimentando con sistemas donde los videos autenticados se registran en
cadenas de bloques públicas, creando un historial verificable de su origen y
modificaciones. Pero esto solo funciona si confías en quien hace el registro
inicial, lo que nos lleva de vuelta al problema de la verificación.
Algunas plataformas están
explorando sistemas de "prueba de humanidad" más sofisticados. En
lugar de simplemente verificar que eres quien dices ser una vez, estos sistemas
requieren verificaciones continuas usando patrones biométricos complejos que
son difíciles de falsificar incluso con deepfakes avanzados. Análisis de
patrones de escritura, cadencia de voz a lo largo del tiempo, incluso
microexpresiones involuntarias que son extremadamente difíciles de replicar
artificialmente.
La empresa británica iProov ha
desarrollado un sistema que analiza cómo la luz se refleja en diferentes partes
del rostro durante una videollamada, buscando inconsistencias que serían
invisibles para el ojo humano pero detectables algorítmicamente. Afirman una
tasa de detección del 99.7%, aunque reconocen que es solo cuestión de tiempo
antes de que los creadores de deepfakes encuentren formas de evadir estos
controles.
El concepto de prueba de
humanidad y sus dilemas
La "prueba de
humanidad" se está convirtiendo en uno de los conceptos más discutidos en
círculos de tecnología y seguridad. La idea básica es establecer sistemas que
puedan verificar, más allá de duda razonable, que estás interactuando con un humano
real y no con una inteligencia artificial o un deepfake.
Esto suena razonable en teoría,
pero en la práctica plantea preguntas incómodas. ¿Qué nivel de verificación es
aceptable? ¿Escaneos de iris constantes? ¿Análisis de ADN? ¿Chips implantados?
Cada nivel adicional de seguridad es también un nivel adicional de invasión de
privacidad.
Algunos proponen sistemas
descentralizados donde la prueba de humanidad se establece a través de redes de
confianza social. Si cinco personas que conoces verifican que eres real,
entonces el sistema te considera humano. Pero esto tiene sus propios problemas:
¿qué pasa con personas nuevas en una comunidad? ¿Cómo evitas que grupos
criminales simplemente se verifiquen entre sí?
Worldcoin, el proyecto
controversial de Sam Altman, intentó abordar esto mediante escaneos de iris
únicos almacenados de forma criptográfica. Recibió críticas intensas por
preocupaciones de privacidad y por su implementación en países en desarrollo
donde la gente aceptaba los escaneos a cambio de pequeñas sumas de dinero. El
proyecto sigue operando, pero se ha convertido en símbolo de los dilemas éticos
que enfrentamos.
¿Hacia dónde vamos desde aquí?
La realidad es que probablemente
nunca volveremos a tener el nivel de confianza visual que teníamos hace cinco
años. Esa época terminó. La pregunta ahora es cómo nos adaptamos a una realidad
donde los videos pueden ser falsos y necesitamos asumir eso como punto de
partida.
Algunas adaptaciones ya están
ocurriendo. Las empresas están volviendo a métodos de autenticación que
parecían obsoletos: contraseñas secretas compartidas previamente, preguntas de
seguridad personales, verificaciones telefónicas con números conocidos. Es
irónico que la tecnología nos haya llevado de vuelta a métodos casi analógicos
de verificación de identidad.
El sector financiero está
liderando cambios importantes. Varios bancos europeos están implementando
sistemas de autenticación multifactor que combinan biometría, verificación de
dispositivos conocidos, análisis de patrones de comportamiento y, cuando hay
transacciones significativas, confirmaciones presenciales en sucursales. Es
menos conveniente, pero más seguro.
Los gobiernos están comenzando a
legislar, aunque van varios pasos detrás de la tecnología. La Unión Europea
está trabajando en regulaciones sobre el uso de deepfakes que requerirían
marcas de agua digitales obligatorias en contenido sintético. Estados Unidos
está considerando leyes similares a nivel federal, aunque varios estados ya
tienen sus propias regulaciones.
Pero la legislación tiene
limitaciones obvias. Las herramientas para crear deepfakes son de código
abierto y están disponibles globalmente. Puedes prohibir su uso malicioso, pero
no puedes evitar que existan. Es como intentar legislar contra el conocimiento
mismo.
Aprendiendo a navegar la
incertidumbre
Quizás lo más importante que
necesitamos desarrollar no es mejor tecnología, sino mejor criterio. Una forma
actualizada de alfabetización digital que asuma que cualquier contenido visual
puede ser falso y que nos enseñe a verificar de múltiples formas antes de
creer.
Esto significa cuestionar videos
que confirman nuestros prejuicios tanto como aquellos que los desafían.
Significa buscar múltiples fuentes antes de aceptar algo como cierto. Significa
reconocer que el escepticismo saludable no es lo mismo que el nihilismo donde
nada es verdad.
Algunas organizaciones educativas
están comenzando a enseñar "higiene digital" en escuelas, incluyendo
cómo identificar posibles deepfakes y, más importante, cómo verificar
información antes de compartirla. Es un inicio, pero insuficiente frente a la
magnitud del problema.
También necesitamos aceptar que
habrá un período de caos mientras la sociedad se ajusta. Ya lo estamos
viviendo. Fraudes exitosos, daños reputacionales injustos, confusión
generalizada sobre qué es real. Es el costo de una transición tecnológica que
llegó más rápido de lo que podíamos prepararnos.
La ironía es que la solución
probablemente no vendrá de una única tecnología milagrosa, sino de una
combinación de muchas aproximaciones imperfectas: autenticación criptográfica,
análisis forense mejorado, verificación social, escepticismo educado, marco
legal más robusto. Ninguna de estas cosas resolverá el problema por sí sola,
pero juntas pueden crear un sistema donde la verdad visual, aunque más difícil
de establecer que antes, sigue siendo posible de verificar.
El futuro inmediato
Mirando hacia adelante, es
probable que los próximos dos o tres años sean especialmente turbulentos. La
tecnología de deepfakes seguirá mejorando más rápido que nuestra capacidad de
detectarlos o regularlos. Veremos más fraudes, más desinformación, más caos
antes de que las defensas comiencen a alcanzar a los ataques.
Pero eventualmente llegaremos a
un nuevo equilibrio. No será un mundo donde podamos confiar ciegamente en lo
que vemos, pero sí uno donde tengamos herramientas y procesos suficientemente
robustos para verificar lo que importa. Las videollamadas importantes tendrán
autenticación en múltiples capas. Los videos utilizados como evidencia legal
requerirán certificación forense. El contenido sintético llevará marcas
obligatorias identificándolo como tal.
Será un mundo más complicado, más
lleno de verificaciones y pasos adicionales, menos espontáneo en algunos
aspectos. Pero quizás también sea un mundo donde pensamos más cuidadosamente
antes de creer, donde desarrollamos músculos críticos que habíamos dejado
atrofiar en la era de la confianza visual ciega.
La crisis de confianza visual de
2025 no es temporal. Es el inicio de una nueva normalidad que apenas estamos
comenzando a comprender. Y aunque da miedo, también nos está forzando a ser más
sofisticados, más cuidadosos, más críticos en cómo procesamos información
visual. Eventualmente, eso podría ser algo bueno. Mientras tanto, toca navegar
la incertidumbre lo mejor que podamos.
Actor. Director. Escritor. Acting Coach.
Instagram: @culturageneralconBarcala
Facebook: http://facebook.com/culturageneralparatodos
Blog: http://culturageneralconbarcala.blogspot.com
Comentarios
Publicar un comentario
¿Te gustó el artículo? ¿Hay algo que quisieras agregar? ¡Únete a la conversación!