O Google Deep Mind, a divisão de pesquisa e desenvolvimento de inteligência artificial da gigante de buscas, vai criar uma equipe de segurança e alinhamento de IA. O objetivo é estudar formas de evitar que a tecnologia seja usada para desinformação.
A preocupação da empresa se alinha a outras da indústria de IA, como, por exemplo, a OpenAI, que estão preocupadas com o impacto de suas ferramentas em ambientes políticos.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
Indústria preocupada com desinformação
O avanço no desenvolvimento de inteligência artificial se acelerou nos últimos anos e novas ferramentas chegaram às mãos do público. Só que, por mais úteis que elas sejam, há quem as use para otimizar processos criminosos.
As empresas de IA estão de olho nessas possibilidades. Isso levou a OpenAI, por exemplo, a mudar seus termos de uso para proibir o uso de suas ferramentas para propagandas políticas.
É claro que a indústria sabe que isso não é o suficiente. Por isso, um consórcio de empresas surgiu para criar um protocolo em comum de como lidar com conteúdo de desinformação. Microsoft, Meta, Google, OpenAI e Twitter (X) integram a lista.
Um exemplo de como conteúdo gerado por IA pode causar problemas é o recente caso da publicação de deepfakes pornôs da cantora Taylor Swift no Twitter (X).
Google quer lidar com a desinformação
A nova divisão do Google visa implementar esse pensamento em seu processo de desenvolvimento de IA. A equipe será responsável por desenvolver e incorporar travas de segurança no Google Gemini.
Essas travas estão relacionadas não só à criação de conteúdo político como também a evitar que a ferramenta de IA dê respostas erradas.
“Nosso trabalho [com a equipe de segurança] visa permitir que modelos entendam valores e preferências humanas melhor. Para saber o que eles não sabem, para trabalhar com pessoas que entendam suas necessidades e evidenciar erros de informação, para ser mais robusto contra ataques adversos e levar em conta a pluralidade e a natureza dinâmica das opiniões e da natureza humana”, disse a professora e pesquisadora Anca Dragan, que vai liderar a equipe, ao TechCrunch.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.