Ver mais

E se os áudios vazados de Mauro Cid fossem deepfakes? Advogados opinam

4 mins
Atualizado por Thiago Barboza

EM RESUMO

  • O vazamento de áudios atribuídos a Mauro Cid agitou Brasília.
  • O que aconteceria se esses áudios fossem deepfakes?
  • Advogados opinam sobre o tema.
  • promo

O vazamento de áudios atribuído ao Capitão Mauro Cid, na noite de quinta-feira (21), levantou mais uma vez o ânimo em Brasília devido à sua capacidade de tumultuar o processo político.

Em meio a esse debate, o BeInCrypto fez uma pergunta: o que aconteceria se esses arquivos fossem, na verdade, deepfakes criados por Inteligência Artificial?

Em tempo: o próprio Mauro Cid admitiu que os áudios eram seus. O objetivo deste artigo não é pôr em dúvida a veracidade do material, e sim explorar uma hipótese que, certamente, pode se tornar comum no futuro.

Por que deepfakes são perigosos?

Em primeiro lugar, é importante saber sobre o que exatamente estamos falando. Um deepfake é um conteúdo de mídia – como vídeo, áudio ou imagem – alterados ou gerados digitalmente, normalmente com IA. O objetivo é criar algo que possa se confundir com conteúdos verdadeiros e enganar o público.

“Essa tecnologia utiliza algoritmos avançados de aprendizado de máquina, especialmente redes neurais, para analisar e replicar padrões de movimento, expressões faciais e vozes. Embora possam ter aplicações legítimas, como na indústria do entretenimento e na educação, os deepfakes ganharam notoriedade pelo potencial de uso mal-intencionado, incluindo a disseminação de desinformação e a invasão de privacidade”, explica o advogado Guilherme Guidi.

Leia mais: Inteligência artificial e ética: 6 questões que precisamos enfrentar

Os deepfakes não são novidade e já existem há muitos anos, mas só agora estão sendo tratados com seriedade por legisladores, não só no Brasil como no mundo. O que mudou?

A resposta é simples: a popularização da IA. Até agora, para criar um deepfake com qualidade suficiente para enganar pessoas, era necessária uma quantidade grande de conhecimento técnico.

Fazer com que um vídeo mostre uma pessoa falando algo que não disse ou aja de forma que não agiu requer habilidades de edição de vídeo, edição de áudio e, acima de tudo, tempo.

Com a IA, não só o processo ficou mais rápido como mais acessível ao usuário comum da Internet.

Por que empresas estão preocupadas com deepfakes?

Ainda não há um caso emblemático do uso de deepfakes para manipular eleições. O exemplo mais próximo de como um conteúdo falso pode causar confusão é o que aconteceu no Twitter (X).

Em janeiro, um usuário do microblog postou deepfakes pornográficos da cantora Taylor Swift. O conteúdo logo se espalhou, mais rápido do que a resposta da rede social.

Muito mais rápido, na verdade. A equipe do Twitter (X) só removeu o tuíte original cerca de 12 horas depois. Mas, nesse ponto, o estrago já estava feito: várias e várias cópias dos vídeos já infectavam a plataforma.

A única solução restante para a rede social foi bloquear a busca pelo nome da cantora até que fosse possível solucionar o problema.

Leia mais: Como a Inteligência Artificial está mudando o futuro das criptomoedas

No fim de 2023, no Facebook, um usuário postou um deepfake do presidente americano Joe Biden, candidato à reeleição no pleito de 2024. A plataforma não removeu o conteúdo, alegando que ele não violara sua política de conteúdo.

Tudo isso ocorreu graças a uma tecnicalidade: o conteúdo não foi criado com IA e apenas o vídeo sofreu alterações, não o áudio. O incidente mostrou que as big techs precisam rever suas políticas.

Diante disso, empresas e startups de todo o mundo se uniram para criar um protocolo em comum de como responder a esses casos.

A OpenAI, por exemplo, mudou sua política de uso para impedir o uso de suas ferramentas de IA – como o ChatGPT e o Dall-E – para fins políticos. Seu rival Google, por outro lado, modificou seu modelo de linguagem Gemini (ex-Bard) para que ele não fale sobre eleições.

No Brasil, as autoridades já estão de olho no tema. O TSE, por exemplo, decidiu que campanhas eleitorais só poderão usar conteúdo criado por IA se ele for marcado como tal. O uso de deepfakes, em todas as suas concepções, é proibido.

Como deepfakes influenciam a Justiça?

O uso de deepfakes está intrinsicamente ligado à política, o que se torna evidente ao perceber a preocupação de órgãos relacionados. Mas, como a Justiça trataria esse tipo de material caso ele seja usado para falsificar o vazamento de provas?

A resposta, entretanto, é muito simples: ele seria apenas mais um caso de fake News, disse o advogado Antônio Carlos de Almeida Castro, o Kakay, ao BeInCrypto.

“Seria uma fake News e, portanto, deveria ser tratada como tal, mesmo que seja criada por inteligência artificial. [O conteúdo criado por] IA não existe sem que esteja representando o interesse de um grupo ou uma pessoa”, explica.

Dito isso, apesar da resolução do TSE, ainda não há uma legislação atualizada no Brasil para tratar especificamente do uso de deepfakes e IA.

“O uso da inteligência artificial no campo do crime é uma ameaça relativamente recente e em constante evolução, o que resulta em lacunas nas regulamentações existentes”, aponta a advogada Larissa Pigão, especializada em Direito Digital e Proteção de Dados Pessoais.

Por outro lado, embora o arcabouço judiciário brasileiro não tenha leis específicas para tratar de deepfakes, já há legislação em vigor que ajuda a abordar esses casos. A tipificação, entretanto, depende do tipo específico de conteúdo. “Em termos de tipo penal, isso poderia se enquadrar em crimes contra a honra, falsificação de documento, estelionato, entre outros, dependendo do caso específico”, lembra Guidi. Ele complementa:

“A Justiça poderia reagir com a abertura de investigações separadas para apurar as responsabilidades civis e criminais dos envolvidos na criação e disseminação do deepfake. Ações poderiam incluir a reparação de danos, tanto morais quanto materiais, e a aplicação de sanções penais apropriadas”, conclui.

Por fim, os especialistas consultados pelo BeInCrypto concordam que há a necessidade de atualizar o texto legal e, acima de tudo, conscientizar a população da existência desse tipo de conteúdo. Além disso, precisa-se explicar como o mau uso de inteligência artificial causa danos ao processo jurídico.

“Os riscos da inteligência artificial no crime são uma realidade complexa, perigosa e em constante mudança, apresentando grandes dificuldades para a aplicação da lei, requerendo ações imediatas. Somente com esforço e medidas proativas podemos enfrentar essa ameaça e garantir um ambiente mais seguro para a sociedade”, diz Pigão.

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados