Trusted

Google cria divisão de segurança para suas ferramentas de IA

2 mins
Atualizado por Thiago Barboza

O Google Deep Mind, a divisão de pesquisa e desenvolvimento de inteligência artificial da gigante de buscas, vai criar uma equipe de segurança e alinhamento de IA. O objetivo é estudar formas de evitar que a tecnologia seja usada para desinformação.

A preocupação da empresa se alinha a outras da indústria de IA, como, por exemplo, a OpenAI, que estão preocupadas com o impacto de suas ferramentas em ambientes políticos.

Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude

Indústria preocupada com desinformação

O avanço no desenvolvimento de inteligência artificial se acelerou nos últimos anos e novas ferramentas chegaram às mãos do público. Só que, por mais úteis que elas sejam, há quem as use para otimizar processos criminosos.

As empresas de IA estão de olho nessas possibilidades. Isso levou a OpenAI, por exemplo, a mudar seus termos de uso para proibir o uso de suas ferramentas para propagandas políticas.

É claro que a indústria sabe que isso não é o suficiente. Por isso, um consórcio de empresas surgiu para criar um protocolo em comum de como lidar com conteúdo de desinformação. Microsoft, Meta, Google, OpenAI e Twitter (X) integram a lista.

Um exemplo de como conteúdo gerado por IA pode causar problemas é o recente caso da publicação de deepfakes pornôs da cantora Taylor Swift no Twitter (X).

Google quer lidar com a desinformação

A nova divisão do Google visa implementar esse pensamento em seu processo de desenvolvimento de IA. A equipe será responsável por desenvolver e incorporar travas de segurança no Google Gemini.

Essas travas estão relacionadas não só à criação de conteúdo político como também a evitar que a ferramenta de IA dê respostas erradas.

“Nosso trabalho [com a equipe de segurança] visa permitir que modelos entendam valores e preferências humanas melhor. Para saber o que eles não sabem, para trabalhar com pessoas que entendam suas necessidades e evidenciar erros de informação, para ser mais robusto contra ataques adversos e levar em conta a pluralidade e a natureza dinâmica das opiniões e da natureza humana”, disse a professora e pesquisadora Anca Dragan, que vai liderar a equipe, ao TechCrunch.

Melhores plataformas de criptomoedas | Novembro de 2024
Melhores plataformas de criptomoedas | Novembro de 2024
Coinbase Coinbase Explorar
Margex Margex Explorar
BYDFi BYDFi Sem KYC
Chain GPT Chain GPT Explorar
Melhores plataformas de criptomoedas | Novembro de 2024

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora do BeInCrypto Brasil, a jornalista é especializada em dados e participa ativamente da comunidade de Criptoativos, Web3 e NFTs. Formada pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui mais de 10 anos de experiência na cobertura de tecnologia, tendo passado por veículos como Globo, Gazeta do Povo e UOL.
READ FULL BIO
Patrocinados
Patrocinados