Ver mais

Google cria divisão de segurança para suas ferramentas de IA

2 mins
Atualizado por Thiago Barboza

O Google Deep Mind, a divisão de pesquisa e desenvolvimento de inteligência artificial da gigante de buscas, vai criar uma equipe de segurança e alinhamento de IA. O objetivo é estudar formas de evitar que a tecnologia seja usada para desinformação.

A preocupação da empresa se alinha a outras da indústria de IA, como, por exemplo, a OpenAI, que estão preocupadas com o impacto de suas ferramentas em ambientes políticos.

Leia mais: 4 criptomoedas que podem atingir novas máximas em abril

Indústria preocupada com desinformação

O avanço no desenvolvimento de inteligência artificial se acelerou nos últimos anos e novas ferramentas chegaram às mãos do público. Só que, por mais úteis que elas sejam, há quem as use para otimizar processos criminosos.

As empresas de IA estão de olho nessas possibilidades. Isso levou a OpenAI, por exemplo, a mudar seus termos de uso para proibir o uso de suas ferramentas para propagandas políticas.

É claro que a indústria sabe que isso não é o suficiente. Por isso, um consórcio de empresas surgiu para criar um protocolo em comum de como lidar com conteúdo de desinformação. Microsoft, Meta, Google, OpenAI e Twitter (X) integram a lista.

Um exemplo de como conteúdo gerado por IA pode causar problemas é o recente caso da publicação de deepfakes pornôs da cantora Taylor Swift no Twitter (X).

Google quer lidar com a desinformação

A nova divisão do Google visa implementar esse pensamento em seu processo de desenvolvimento de IA. A equipe será responsável por desenvolver e incorporar travas de segurança no Google Gemini.

Essas travas estão relacionadas não só à criação de conteúdo político como também a evitar que a ferramenta de IA dê respostas erradas.

“Nosso trabalho [com a equipe de segurança] visa permitir que modelos entendam valores e preferências humanas melhor. Para saber o que eles não sabem, para trabalhar com pessoas que entendam suas necessidades e evidenciar erros de informação, para ser mais robusto contra ataques adversos e levar em conta a pluralidade e a natureza dinâmica das opiniões e da natureza humana”, disse a professora e pesquisadora Anca Dragan, que vai liderar a equipe, ao TechCrunch.

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados