Trusted

Google proíbe Gemini de falar sobre eleições

3 mins
Atualizado por Thiago Barboza

EM RESUMO

  • Google proíbe IA Gemini de abordar eleições, afetando pleitos de 2024 em países como Índia, África do Sul e EUA.
  • Medidas similares são adotadas por empresas como a Meta e o Tribunal Superior Eleitoral (TSE) no Brasil
  • Deepfakes desafiam empresas de tecnologia como Twitter e Meta, destacando a necessidade de protocolos para combater desinformação gerada por IA.
  • promo

Em um raro momento de sensatez, o Google decidiu que sua ferramenta de inteligência artificial (IA) Gemini (ex-Bard) não vai mais falar sobre eleições. A decisão afeta todos os pleitos marcados para 2024.

Há muitos motivos que a gigante de buscas poderia alegar que a inspiraram a tomar essa decisão. Entretanto, na terça-feira (12), ela optou pelo mais sensato e disse que quer “evitar erros no uso da tecnologia”, disse a Reuters.

Não se mistura IA com política

A decisão do Google afeta eleições em países como, por exemplo, Índia, África do Sul e, claro, os EUA.

O desenvolvimento crescente da tecnologia, que acelerou nos últimos anos, terá um papel fundamental para desempenhar nas eleições de 2024. Esses pleitos serão os primeiros em que a IA, por exemplo, já está difundida o suficiente para atingir o público em geral.

“A IA traz, certamente, novas possibilidades para a criação de conteúdo em diversos campos. Mas, infelizmente, também potencializa os riscos de produção de conteúdo falso. E quando estamos diante de conteúdo falso em um processo tão relevante quanto as eleições, é natural que haja um cuidado maior para evitar que elas sejam contaminadas”, explicou o advogado Guilherme Guidi, especializado em Direito Digital, ao BeInCrypto.

Uma das capacidades de IA que mais deixa políticos preocupados é a capacidade de criar conteúdo falso, especialmente na forma de deepfakes. Eles são vídeos que usam a imagem e a voz de uma pessoa e os modifica para fazer com que ela faça ou fale coisas que jamais ocorreram.

A criação desse tipo de conteúdo não é nova, mas ficou mais fácil e acessível com IA. Um exemplo é o que aconteceu no Twitter (X), no final de janeiro de 2024, quando usuários postaram deepfakes pornôs da cantora Taylor Swift.

Demorou 12h para que a equipe da rede social começasse a administrar o incidente. Isso foi o suficiente para mostrar que as empresas de internet ainda não estão preparadas para lidar com conteúdo falso.

Outro exemplo semelhante ocorreu quando a Meta concluiu que um vídeo falso do presidente americano Joe Biden não violava a política de conteúdo do Facebook. Isso ocorreu não porque o vídeo não fosse editado e sim porque as regras da plataforma eram insuficientes para a situação.

Esses exemplos demonstram porque tanto o Twitter (X) quanto a Meta se uniram a outras empresas, como Google, Microsoft e OpenAI, para a criação de um protocolo em comum para casos de desinformação gerada por IA.

Decisão afeta eleições no Brasil

A decisão do Google vai ao encontro de atitudes semelhantes de empresas como a própria OpenAI, que proibiu o uso de suas ferramentas de IA em campanhas políticas.

No Brasil, o Tribunal Superior Eleitoral (TSE) achou melhor limitar o uso de inteligência artificial nas eleições municipais de 2024. Em uma decisão do dia 28 de fevereiro, a corte obrigou as campanhas a identificarem conteúdos criados por IA, além de proibir os deepfakes.

É claro que essas medidas não são o suficiente para impedir a criação de conteúdo proibido, mas podem ajudar a reduzir a disseminação de desinformação no processo eleitoral.

“O processo de combate a deepfakes não é novo e é necessário proibir o seu uso. Mas, como se tem pouco resultado e pouca efetividade no combate à desinformação, também o combate ao uso de IA vai enfrentar dificuldades”, completa Guidi.

Melhores plataformas de criptomoedas | Novembro de 2024
Melhores plataformas de criptomoedas | Novembro de 2024
Coinbase Coinbase Explorar
Margex Margex Explorar
BYDFi BYDFi Sem KYC
Chain GPT Chain GPT Explorar
Melhores plataformas de criptomoedas | Novembro de 2024

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora do BeInCrypto Brasil, a jornalista é especializada em dados e participa ativamente da comunidade de Criptoativos, Web3 e NFTs. Formada pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui mais de 10 anos de experiência na cobertura de tecnologia, tendo passado por veículos como Globo, Gazeta do Povo e UOL.
READ FULL BIO
Patrocinados
Patrocinados