Trusted

Especialistas em IA exigem legislação contra deepfakes

2 mins
Atualizado por Thiago Barboza

Especialistas da comunidade de inteligência artificial (IA) divulgaram uma carta aberta exigindo leis mais rigorosas para punir deepfakes. Eles estão preocupados com o impacto que vídeos falsos possam gerar no futuro.

A preocupação surge em seguida a diversos usos ilegais de deepfakes na internet, um problema que só tende a se agravar no futuro.

Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude

Comunidade quer legislação contra deepfakes

Ao todo, mais de 688 pessoas que trabalham no ramo de IA assinaram a carta. O texto diz que “deepfakes se tornaram um grande problema para a sociedade e governos impor obrigações em toda a cadeia de produção para evitar sua proliferação”.

Além disso, eles querem que conteúdos que mostrem abuso sexual de crianças sejam criminalizados, independente de mostrarem pessoas reais ou fictícias. Outras sugestões incluem, por exemplo, penas para quem criar ou espalhar deepfakes que causem danos.

Uma pessoa da OpenAI e duas do Google DeepMind assinaram a carta. Ela é mais um exemplo de como a indústria de IA está preocupada com as formas danosas com que é possível usar suas ferramentas. E, claro, com as repercussões legais para elas no futuro.

Deepfakes causam danos

Um exemplo de como deepfakes poderão impactar no futuro ocorreu no Twitter (X), nos últimos dias de janeiro de 2024. Na época, um usuário da rede social postou diversos vídeos pornográficos criados por IA com a cantora Taylor Swift.

Mas esse uso não é o único a preocupar a comunidade. A proximidade das eleições presidenciais dos EUA fez com que empresas como a OpenAI proibissem o uso de suas ferramentas de IA para a criação de conteúdo político.

A empresa, assim como diversas outras do setor, tem medo de que seus modelos de linguagem sejam usados para espalhar informações falsas. Há poucos dias, ela se reuniu com a Microsoft, Google, Meta, Twitter (X) e várias outras para a criação de um protocolo de combate comum aos deepfakes.

A ideia é evitar que o episódio Taylor Swift se repita. Na época, o tuíte com os deepfakes originais ficou mais de 12h no ar antes de sua remoção. Mas aí o estrago já estava feito e várias cópias do material continuavam disponíveis no microblog.

A Meta também sofre com problemas semelhantes. A política de desinformação da empresa era vaga demais, o que fez com que ela permitisse que um vídeo editado do presidente americano Joe Biden com informações falsas permanecesse meses no ar.

Melhores plataformas de criptomoedas | Novembro de 2024
Melhores plataformas de criptomoedas | Novembro de 2024
Coinbase Coinbase Explorar
Margex Margex Explorar
BYDFi BYDFi Sem KYC
Chain GPT Chain GPT Explorar
Melhores plataformas de criptomoedas | Novembro de 2024

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora do BeInCrypto Brasil, a jornalista é especializada em dados e participa ativamente da comunidade de Criptoativos, Web3 e NFTs. Formada pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui mais de 10 anos de experiência na cobertura de tecnologia, tendo passado por veículos como Globo, Gazeta do Povo e UOL.
READ FULL BIO
Patrocinados
Patrocinados