Voltar

Agora é necessário informar se vídeos no YouTube foram feitos com IA

author avatar

Escrito por
Júlia V. Kurtz

editor avatar

Editado por
Bruna Brambatti

20 março 2024 09:00 BRT
Trusted
  • O YouTube implementa nova política exigindo marcação de vídeos criados com IA.
  • O Google atualizou suas políticas em resposta a preocupações com desinformação.
  • Legislações e iniciativas visam combater uso malicioso de IA, especialmente em períodos eleitorais.
Promo

Vídeos criados com inteligência artificial (IA) precisarão ser marcados no YouTube. A plataforma de vídeos começou a implementar a mudança na terça-feira (19), de acordo com a nova política de IA do Google.

A partir de agora, os criadores deverão informar quando usaram ferramentas generativas para a criação de seus conteúdos.

YouTube quer transparência com IA

O aumento da rigidez das regras contra IA não é novidade. Ela segue uma tendência mais ampla da indústria que, por sua vez, responde aos anseios de legisladores em várias partes do mundo.

Sponsored
Sponsored

O próprio Google, por exemplo, atualizou sua política de desinformação com IA em novembro de 2023, quando prometeu implementar mudanças.

Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude

E estas mudanças finalmente chegaram. As regras do YouTube exigem que os criadores “revelem ao público quando um conteúdo realista – que este público possa confundir com uma pessoa, lugar ou evento real – é feito com mídia sintética ou alterada, incluindo IA generativa”.

Além disso, a gigante de buscas deu exemplos de conteúdos que os criadores precisarão sinalizar. Eles incluem, por exemplo:

  • Usar a aparência de uma pessoa realística, alterando digitalmente o conteúdo para substituir o rosto de uma pessoa por outra ou gerar uma voz sintética para narrar um vídeo;
  • Alterar vídeos de eventos ou lugares reais;
  • Gerar cenas realistas, incluindo mostrar reproduções realista de grandes eventos fictícios.

Guerra contra desinformação

A pressa do Google tem um nome e se chama eleição. Legisladores e empresas de todo o mundo estão preocupados com o uso malicioso de ferramentas de IA generativa em pleitos de todo o mundo, incluindo a eleição presidencial nos EUA.

Por isso, big techs e redes sociais se uniram para criar um protocolo único de como agir para remover conteúdo falso criado por IA antes que eles causem (muito) estrago.

O próprio Google, aliás, já impediu que seu modelo de linguagem Gemini (ex-Bard) respondesse a perguntas sobre a eleição americana. A rival OpenAI, por outro lado, alterou sua política de uso para proibir o uso de seus softwares para a criação de conteúdo político.

No Brasil, o TSE determinou que é necessário informar todo o conteúdo criado por IA para o eleitor. Além disso, o Tribunal proibiu o uso de deepfakes em campanhas.

Resta saber se essas medidas serão o suficiente.

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.