Ver mais

Agora é necessário informar se vídeos no YouTube foram feitos com IA

2 mins
Atualizado por Bruna Brambatti

EM RESUMO

  • O YouTube implementa nova política exigindo marcação de vídeos criados com IA.
  • O Google atualizou suas políticas em resposta a preocupações com desinformação.
  • Legislações e iniciativas visam combater uso malicioso de IA, especialmente em períodos eleitorais.
  • promo

Vídeos criados com inteligência artificial (IA) precisarão ser marcados no YouTube. A plataforma de vídeos começou a implementar a mudança na terça-feira (19), de acordo com a nova política de IA do Google.

A partir de agora, os criadores deverão informar quando usaram ferramentas generativas para a criação de seus conteúdos.

YouTube quer transparência com IA

O aumento da rigidez das regras contra IA não é novidade. Ela segue uma tendência mais ampla da indústria que, por sua vez, responde aos anseios de legisladores em várias partes do mundo.

O próprio Google, por exemplo, atualizou sua política de desinformação com IA em novembro de 2023, quando prometeu implementar mudanças.

Leia mais: Bitcoin e mais 3 criptomoedas que podem atingir novos recordes em maio

E estas mudanças finalmente chegaram. As regras do YouTube exigem que os criadores “revelem ao público quando um conteúdo realista – que este público possa confundir com uma pessoa, lugar ou evento real – é feito com mídia sintética ou alterada, incluindo IA generativa”.

Além disso, a gigante de buscas deu exemplos de conteúdos que os criadores precisarão sinalizar. Eles incluem, por exemplo:

  • Usar a aparência de uma pessoa realística, alterando digitalmente o conteúdo para substituir o rosto de uma pessoa por outra ou gerar uma voz sintética para narrar um vídeo;
  • Alterar vídeos de eventos ou lugares reais;
  • Gerar cenas realistas, incluindo mostrar reproduções realista de grandes eventos fictícios.

Guerra contra desinformação

A pressa do Google tem um nome e se chama eleição. Legisladores e empresas de todo o mundo estão preocupados com o uso malicioso de ferramentas de IA generativa em pleitos de todo o mundo, incluindo a eleição presidencial nos EUA.

Por isso, big techs e redes sociais se uniram para criar um protocolo único de como agir para remover conteúdo falso criado por IA antes que eles causem (muito) estrago.

O próprio Google, aliás, já impediu que seu modelo de linguagem Gemini (ex-Bard) respondesse a perguntas sobre a eleição americana. A rival OpenAI, por outro lado, alterou sua política de uso para proibir o uso de seus softwares para a criação de conteúdo político.

No Brasil, o TSE determinou que é necessário informar todo o conteúdo criado por IA para o eleitor. Além disso, o Tribunal proibiu o uso de deepfakes em campanhas.

Resta saber se essas medidas serão o suficiente.

Melhores plataformas de criptomoedas | Maio de 2024

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados