Em um raro momento de sensatez, o Google decidiu que sua ferramenta de inteligência artificial (IA) Gemini (ex-Bard) não vai mais falar sobre eleições. A decisão afeta todos os pleitos marcados para 2024.
Há muitos motivos que a gigante de buscas poderia alegar que a inspiraram a tomar essa decisão. Entretanto, na terça-feira (12), ela optou pelo mais sensato e disse que quer “evitar erros no uso da tecnologia”, disse a Reuters.
Não se mistura IA com política
A decisão do Google afeta eleições em países como, por exemplo, Índia, África do Sul e, claro, os EUA.
O desenvolvimento crescente da tecnologia, que acelerou nos últimos anos, terá um papel fundamental para desempenhar nas eleições de 2024. Esses pleitos serão os primeiros em que a IA, por exemplo, já está difundida o suficiente para atingir o público em geral.
“A IA traz, certamente, novas possibilidades para a criação de conteúdo em diversos campos. Mas, infelizmente, também potencializa os riscos de produção de conteúdo falso. E quando estamos diante de conteúdo falso em um processo tão relevante quanto as eleições, é natural que haja um cuidado maior para evitar que elas sejam contaminadas”, explicou o advogado Guilherme Guidi, especializado em Direito Digital, ao BeInCrypto.
Uma das capacidades de IA que mais deixa políticos preocupados é a capacidade de criar conteúdo falso, especialmente na forma de deepfakes. Eles são vídeos que usam a imagem e a voz de uma pessoa e os modifica para fazer com que ela faça ou fale coisas que jamais ocorreram.
A criação desse tipo de conteúdo não é nova, mas ficou mais fácil e acessível com IA. Um exemplo é o que aconteceu no Twitter (X), no final de janeiro de 2024, quando usuários postaram deepfakes pornôs da cantora Taylor Swift.
Demorou 12h para que a equipe da rede social começasse a administrar o incidente. Isso foi o suficiente para mostrar que as empresas de internet ainda não estão preparadas para lidar com conteúdo falso.
Outro exemplo semelhante ocorreu quando a Meta concluiu que um vídeo falso do presidente americano Joe Biden não violava a política de conteúdo do Facebook. Isso ocorreu não porque o vídeo não fosse editado e sim porque as regras da plataforma eram insuficientes para a situação.
Esses exemplos demonstram porque tanto o Twitter (X) quanto a Meta se uniram a outras empresas, como Google, Microsoft e OpenAI, para a criação de um protocolo em comum para casos de desinformação gerada por IA.
Decisão afeta eleições no Brasil
A decisão do Google vai ao encontro de atitudes semelhantes de empresas como a própria OpenAI, que proibiu o uso de suas ferramentas de IA em campanhas políticas.
No Brasil, o Tribunal Superior Eleitoral (TSE) achou melhor limitar o uso de inteligência artificial nas eleições municipais de 2024. Em uma decisão do dia 28 de fevereiro, a corte obrigou as campanhas a identificarem conteúdos criados por IA, além de proibir os deepfakes.
É claro que essas medidas não são o suficiente para impedir a criação de conteúdo proibido, mas podem ajudar a reduzir a disseminação de desinformação no processo eleitoral.
“O processo de combate a deepfakes não é novo e é necessário proibir o seu uso. Mas, como se tem pouco resultado e pouca efetividade no combate à desinformação, também o combate ao uso de IA vai enfrentar dificuldades”, completa Guidi.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.