Press "Enter" to skip to content

Las imgenes generadas por IA tendrn etiqueta identificativa en Instagram y Facebook

Actualizado

A mediados de este ao, las imgenes generadas por inteligencias artificiales generativas que se compartan en Instagram y Facebook mostrarn una etiqueta que identificar su origen, un «sello» que dejar claro que no se trata de fotografas reales. En la etiqueta se podr leer, simplemente, «AI Info» bajo el nombre de la persona que publica la imagen, aunque la compaa an estn considerando otras formas de destacar el origen de una imagen.

Con ese texto Meta se une a varias grandes empresas tecnolgicas, como Adobe o Microsoft, que estn tratando de crear sistemas de identificacin universales que ayuden a frenar campaas de desinformacin que se apoyen en imgenes generadas con motores generativos como Midjourney o Stable Diffusion. «A medida que la diferencia entre el contenido humano y el sinttico se difumina, la gente quiere saber dnde estn los lmites», explica Nick Clegg, responsable de asuntos globales de Meta.

El problema es complejo de solucionar porque requiere de la participacin activa de todas las partes implicadas en la generacin de las imgenes. Meta, por ejemplo, mostrar esta etiqueta en fotos que provengan de motores generativos de Google, Microsoft, OpenAI, Adobe, Midjourney y Shutterstock, pero necesita que esas empresas aadan los cdigos necesarios en los metadatos (informacin adicional que se adjunta al archivo grfico) de la foto.

Eliminar informacin de los metadatos de una imagen, en cualquier caso, no resulta complejo, as que esta forma de etiquetado no puede ser el nico ingrediente de una poltica efectiva para frenar intentos de manipulacin.

Meta asegura que est estudiando otras tcnicas para identificar imgenes que hayan sido creado con motores que no identifiquen claramente el origen y ha creado tambin una herramienta para que los autores voluntariamente confiesen que las imgenes han sido generadas mediante IA. «Exigiremos que se utilice cuando se publique un vdeo fotorrealista o un audio de sonido realista que haya sido creado o alterado digitalmente», explica Clegg, que deja abierta la puerta a castigos y penalizaciones en caso de no hacerlo.

La decisin tiene especial relevancia en un ao marcado por las elecciones presidenciales de EEUU, donde se espera que imgenes y audios manipulados circulen por las redes sociales para tratar de alterar el voto.

Ya ha pasado, de hecho. En las ltimas primarias del partido demcrata en el estado de New Hampshire, miles de votantes recibieron llamadas telefnicas con un mensaje generado mediante inteligencia artificial y con la voz del presidente de los EEUU, Joe Biden, en el que se peda la abstencin. El mensaje daba a entender que un voto en las elecciones primarias impedira el voto en las elecciones generales del mes de noviembre.