Los usuarios de Facebook e Instagram comenzarán a ver etiquetas en imágenes generadas por inteligencia artificial que aparecen en sus redes sociales, como parte de una iniciativa más amplia de la industria tecnológica para distinguir entre lo que es real y lo que no.
Meta señaló el martes que trabaja con socios de la industria en estándares técnicos que facilitarán la identificación de imágenes y, eventualmente, videos y audio generados por herramientas de IA.
Lo que está por verse es qué tan bien funcionará en un momento en que es más fácil que nunca crear y distribuir imágenes generadas por IA que pueden causar daño —desde información errónea sobre elecciones hasta desnudos falsos no consensuados de celebridades.
“Es una especie de señal de que están tomando en serio el hecho de que la generación de contenido falso en internet es un problema para sus plataformas”, explicó Gili Vidan, profesora adjunta de ciencias de la información en la Universidad de Cornell. Podría ser “bastante eficaz” para marcar una gran parte del contenido generado por IA creado con herramientas comerciales, pero probablemente no lo captará todo, afirmó.
El presidente de asuntos globales de Meta, Nick Clegg, no especificó el martes cuándo empezarán a aparecer las etiquetas, pero dijo que será “en los próximos meses” y en diferentes idiomas, señalando que “se están llevando a cabo varias elecciones importantes en todo el mundo”.
“Conforme la diferencia entre el contenido humano y el sintético se torna menos clara, la gente quiere saber dónde está el límite”, dijo en una publicación de blog.
Meta ya coloca una etiqueta con la frase “Imaginado con IA” en imágenes fotorrealistas creadas por su propia herramienta, pero la mayor parte del contenido generado por IA que inunda sus servicios de redes sociales proviene de otras partes.
Commentaires