
O YouTube começou a requerer que os criadores adicionem um aviso ao publicar conteúdo realista gerado por inteligência artificial (IA). Isso é feito com o objetivo de evitar a confusão entre vídeos manipulados e fictícios com eventos, lugares e pessoas reais.
Durante a publicação de vídeos, os criadores devem agora indicar, com "sim" ou "não", se o conteúdo envolve uma pessoa real fazendo ou dizendo algo que ela não fez, se há alterações em registros visuais, eventos reais ou lugares, e se é gerada uma cena realista que nunca existiu. Se selecionado "sim", um aviso de que o conteúdo é sintético ou alterado será exibido na descrição do vídeo.
O sistema depende da sinceridade do usuário ao declarar o conteúdo de seu vídeo. No entanto, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão aplicados em vídeos com conteúdos sensíveis, como saúde, eleições e finanças.
Essa medida, implementada na segunda-feira (18), foi anunciada inicialmente em novembro de 2023 como uma atualização das políticas do YouTube para conteúdos gerados por IA. Vídeos gerados por IA que não utilizam a aparência ou a voz de uma pessoa real, nem alteram eventos ou locais reais, não são afetados por essa medida.
Um recurso mencionado em novembro, porém ainda não incorporado na última atualização da plataforma, é a capacidade de um indivíduo comum solicitar uma avaliação em vídeos de deepfake que utilizam sua imagem.
Receba as principais notícias do Brasil pelo WhatsApp. Clique aqui para entrar na lista VIP do WK Notícias.
*Com informações Agência Estado