www.media-tics.com

Falsificaciones profundas con Inteligencia Artificial es una tecnología de aterrador poder que supone un nuevo desafío para la mermada credibilidad de los medios de comunicación.

¿INFOCALIPSIS?
Ampliar

¿INFOCALIPSIS?

En Internet está todo, lo mejor y lo peor, pero esto último está creciendo exponencialmente y algunos expertos ya advierten sobre un cercano y posible "Infocalipsis", una contaminación profunda de la información. Las falsificaciones digitales hiperrealistas, conocidas como "falsificaciones profundas", es una tecnología que se está haciendo muy rápidamente accesible. Son una amenaza que los gobiernos de todo el mundo y las grandes plataformas dominantes deben tomarse en serio. Antes de que dejen de ser una curiosidad viral y pasen a ser una amenaza muy real y terrible.

Podemos ver un video falso de la famosa política americana Nancy Pelosi borracha como una cuba, que se ha hecho viral en Facebook. O celebridades en videos pornográficos. O a Nicolas Cage en imágenes que nunca rodó. O a escuchar un audio con la voz de Joe Rogan, un podcaster muy conocido por sus audaces y polémicas opiniones, con palabras aún más polémicas, que, claro está, él nunca pronunció. El realismo es tal que no lo distinguiría su madre.

Hace unos días, la empresa canadiense Dessa dio a conocer una nueva Inteligencia Artificial que imita cualquier voz, ha desarrollado un sistema de aprendizaje profundo llamado RealTalk, que produce un discurso al exacta manera de una persona real. Es un audio profundo falso, que puede mantener una conversación e incluso recitar complicados trabalenguas. La empresa alerta de los peligros de esta tecnología y anuncia que no publicará su investigación, ni los modelos y conjuntos de datos que la hacen posible. Advierten que alguien podría hacerse pasar por un funcionario del gobierno para ingresar en una instalación de alta seguridad, que podría suplantar a un político para manipular una elección. "Es una de las cosas más geniales y más aterradoras que he visto hasta ahora en Inteligencia Artificial", ha dicho Alex Krizhevsky, principal arquitecto de aprendizaje automático de Dessa. "La síntesis de voz pronto será una realidad en todas partes", advirtió.

Recientemente, tres miembros de Congreso de EEUU dirigieron una carta a Daniel Coats, Director de Inteligencia Nacional, expresándole sus temores ante estas "falsificaciones profundas", que desdibujan las fronteras entre realidad y ficción. "Se pueden usar videos, imágenes y audios falsificados para fines nefastos", escribieron. Expertos de la célebre y discreta agencia DARPA debatieron sobre la posibilidad de que un video falso de un líder mundial pueda desencadenar una alerta nuclear. ¿Se imaginan a Putin advirtiendo en un video a la población rusa de un posible ataque nuclear?

La Guerra Fría en comparación fue un juego de niñatos poderosos.

La tecnología puede llevarnos a atizar el miedo como palanca de poder global. ¿Debemos tener miedo al discurso de miedo?. Huyamos de todo lo que nos acerque al infocalipsis. Los periodistas tenemos aquí también una responsabilidad y los medios de comunicación un desafío inédito.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)
Compartir en Meneame


Normas de uso

Esta es la opinión de los internautas, no de media-tics.com

No está permitido verter comentarios contrarios a la ley o injuriantes.

La dirección de email solicitada en ningún caso será utilizada con fines comerciales.

Tu dirección de email no será publicada.

Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.

Portada | Hemeroteca | Búsquedas | [ RSS - XML ] | Política de privacidad y cookies | Aviso Legal
Copyright ©2011 Ecointeligencia Editorial, S.L.B85911758
Doménico Scarlatti, 9 , 28003 Madrid. T. 91-5449091
[email protected] Contacto
Cibeles.net, Soluciones Web, Gestor de Contenidos, Especializados en medios de comunicación.