Vídeos criados com inteligência artificial (IA) precisarão ser marcados no YouTube. A plataforma de vídeos começou a implementar a mudança na terça-feira (19), de acordo com a nova política de IA do Google.
A partir de agora, os criadores deverão informar quando usaram ferramentas generativas para a criação de seus conteúdos.
YouTube quer transparência com IA
O aumento da rigidez das regras contra IA não é novidade. Ela segue uma tendência mais ampla da indústria que, por sua vez, responde aos anseios de legisladores em várias partes do mundo.
SponsoredO próprio Google, por exemplo, atualizou sua política de desinformação com IA em novembro de 2023, quando prometeu implementar mudanças.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
E estas mudanças finalmente chegaram. As regras do YouTube exigem que os criadores “revelem ao público quando um conteúdo realista – que este público possa confundir com uma pessoa, lugar ou evento real – é feito com mídia sintética ou alterada, incluindo IA generativa”.
Além disso, a gigante de buscas deu exemplos de conteúdos que os criadores precisarão sinalizar. Eles incluem, por exemplo:
- Usar a aparência de uma pessoa realística, alterando digitalmente o conteúdo para substituir o rosto de uma pessoa por outra ou gerar uma voz sintética para narrar um vídeo;
- Alterar vídeos de eventos ou lugares reais;
- Gerar cenas realistas, incluindo mostrar reproduções realista de grandes eventos fictícios.
Guerra contra desinformação
A pressa do Google tem um nome e se chama eleição. Legisladores e empresas de todo o mundo estão preocupados com o uso malicioso de ferramentas de IA generativa em pleitos de todo o mundo, incluindo a eleição presidencial nos EUA.
Por isso, big techs e redes sociais se uniram para criar um protocolo único de como agir para remover conteúdo falso criado por IA antes que eles causem (muito) estrago.
O próprio Google, aliás, já impediu que seu modelo de linguagem Gemini (ex-Bard) respondesse a perguntas sobre a eleição americana. A rival OpenAI, por outro lado, alterou sua política de uso para proibir o uso de seus softwares para a criação de conteúdo político.
No Brasil, o TSE determinou que é necessário informar todo o conteúdo criado por IA para o eleitor. Além disso, o Tribunal proibiu o uso de deepfakes em campanhas.
Resta saber se essas medidas serão o suficiente.