YouTube vai exigir que usuários identifiquem vídeos feitos com inteligência artificial

Ao publicar um vídeo, usuário deve informar se conteúdo altera registro visual ou gera cena realista que não existiu

Legenda: YouTube fez atualização para sinalizar uso de inteligência artificial em vídeos
Foto: Shutterstock

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu.

Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo publicado. O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo.

Entretanto, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

Veja também

A medida, implementada nesta segunda-feira (18), foi anunciada em novembro de 2023 como uma atualização das políticas do YouTube para conteúdos baseados em IA.

Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso anunciado em novembro pela plataforma, mas que ainda não foi implementado, é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.