Los deepfakes, las imágenes falsas generadas por modelos de IA generativa, son cada vez más convincentes. Nos hicieron pensar que quizás el Papa iba vestido con un anorak de lo más moderno o que a Donald Trump le arrestaban a la fuerza. Cada vez hay que estar más atento a las imágenes que vemos en redes sociales, pero no solo a las que son falsas, sino a las que son verdaderas,
Persiguiendo la desinformación. Elliot Higgins es un analista de OSINT (Inteligencia Open Source). Hace unos años comenzó a reunir sus descubrimientos en un sitio web llamado Bellingcat, y desde entonces su agencia se ha convertido en referente en este campo. Investiga todo tipo de eventos, y en los últimos tiempos sabe que el reto actual en el ámbito de la desinformación lo pone la inteligencia artificial.
Engañando a dos bandas. Como afirmaba en una reciente entrevista en Wired, "cuando la gente piensa en la IA, piensa: «Oh, va a engañar a la gente para que crea cosas que no son ciertas». Pero lo que realmente está haciendo es dar permiso a la gente para no creer cosas que son verdad. O sea, justo lo contrario.
Ya no nos fiamos ni de lo que es cierto. Con tanta desinformación, los deepfakes y la IA también pueden acabar logrando que no nos creamos lo que estamos viendo y pensemos que "ah, es otra imagen generada por IA" cuando en realidad es que se trata de una imagen de y una situación legítima.

¿Real o artificial? Lo demostraba hace poco al republicar una imagen singular. Un sitio web que teóricamente detecta imágenes generadas por IA afirmaba que esa foto del periodista asediado por decenas de personas estaba probablemente generada por inteligencia artificial. Pero el problema es que la imagen era real (hay otras de ese suceso), así que ese servicio de detección fallaba.
El peligro de las máquinas identificando fotos. Estos sistemas de detección de fotos nos condicionan porque nos podemos fiar de sus conclusiones. Es lo que denunciaba recientemente una fotógrafa que manda sus fotos a Instagram y que está viendo como fotos convencionales que envía al servicio son detectadas como generadas por IA.
Pero también nosotros podemos equivocarnos. No parece que los sistemas automáticos de detección funcionen en estos casos, pero nuestros ojos también pueden engañarnos: la evolución de plataformas como Midjourney ha demostrado que el fotorrealismo que pueden conseguir estos modelos de IA generativa es asombroso, y cada vez es más difícil distinguir realidad de ficción.
Y espera, que nos queda el vídeo. En realidad las imágenes son solo parte del problema: la generación de deepfakes de personas que dicen cosas coherentes, mueven los labios de forma coherente cuando los dicen y que parecen ciertamente legítimos están perfeccionándose. Si el vídeo es falso pero razonable, podremos creerlo. Y eso hará que incluso cuando el vídeo sea real, quizás no nos lo creamos.
Imagen | Almal3003.01 con Midjourney
En Xataka | Los deepfakes que triunfan en China no son de famosos. Son de los seres queridos que murieron
Ver 10 comentarios
10 comentarios
fertaka
al final ni los videos servirán de prueba de delito.. de momento se nota, pero si que hay imagenes IA que son perfectas en luz, contrastes. Esperar solo 5 años que pasan volando... ni me imagino
xato
Bueno, un matiz. Distinguir una foto real de una imagen IA es fácil. El problema es cuando comparas una foto real RETOCADA con una imagen IA. Ahi el mundo se vuleve turbio y oscuro, y puede que seamos solo simples conejos que aun no han salido de la madriguera.
Dyvap
Ya iba siendo hora de que la gente aprendiese de una vez a pensar en lugar de creerse cualquier cosa que les enseñan.
alexnin
Solución: blockchain.
Next
t_r_a
pues anda que no se nota que no son reales, la perfección de la imagen no es tan elevada en las imagenes reales, es como la batería eléctronica comparada con la real, pues no hay diferencia por dios 🤣
franciscobravofernandez1
Es de una intrascendencia e insignificancia atroz todo este espanto por la desinformación. Como si no viviéramos ya completamente desinformados desde hace lustros... Lo mejor que nos puede pasar es que nadie crea nada, a ver si así no se le da crédito ninguno a la panda de los politicastros con sus paripés y sus falsos idearios decimonónicos que no se creen ni ellos. Por otro lado, veo que hay gente que no sabe ni dónde está. Hace ya bastantes meses que si quieres sacar una imagen indistinguible de la realidad, lo haces. No hay que esperar lustros, la beta de Midjourney 6 de hace 3 o 4 meses ya lo hacía