Ver mais

Regulamentação de inteligência artificial não deve sufocar inovação, diz executivo do Google

2 mins
Atualizado por Thiago Barboza

O presidente de Global Affairs do Google e de sua empresa-mãe Alphabet, Kent Walker, acredita que as regras sobre o uso de inteligência artificial (IA) devem apoiar a inovação.

Essa opinião surge em meio a debates sobre como regulamentar a tecnologia, garantindo que ela seja usada de forma ética e que não assuste Vitalik Buterin.

É preciso equilíbrio na regulamentação, diz Google

Para Walker, que participou da Cimeira Empresarial Europeia, embora a regulamentação da tecnologia seja importante, também é necessário garantir que as leis não impeçam seu desenvolvimento.

“A liderança tecnológica exige um equilíbrio entre inovação e regulação. Não microgerir o progresso, mas responsabilizar os intervenientes quando estes violam a confiança pública”, disse.

A União Europeia, no momento, debate qual a melhor forma de fazer a regulamentação de IA. As discussões ocorrem em seguida à aprovação da Lei MiCA, que fez o mesmo com o mercado de criptomoedas.

Isso demonstra que o bloco está interessado em garantir uma estrutura legal antes que a tecnologia saia do controle. Mas, para Walker, é mais importante garantir que a regulamentação seja correta em vez de apressada:

“Há muito que dizemos que a IA é demasiado importante para não ser regulamentada  — e bem regulamentada. A corrida deve ser pelas melhores regulamentações de IA, não pelas primeiras regulamentações de IA”.

O executivo publicou um post de blog em meados de novembro falando sobre o assunto. Nele, Walker fala sobre os compromissos do Google em suas pesquisas sobre a tecnologia:

“Nossos esforços sobre IA precisam incluir seguranças para mitigar riscos potenciais e iniciativas para maximizar o progresso – promovendo produtividade econômica e resolvendo grandes desafios sociais. Vamos focar não só em riscos a evitar ou mitigar, como também em oportunidades para conquistar”, escreveu.

IA em perigo

A proteção da humanidade contra os riscos da inteligência artificial é um desafio que consome as maiores empresas da área. E o que aconteceu com a OpenAI em novembro é um exemplo de como a perda de equilíbrio pode resultar em problemas.

A empresa – líder na corrida pela tecnologia no momento – possui um conselho de diretores escolhidos explicitamente com a missão de garantir que a companhia continue desenvolvendo IA de forma ética.

Uma das atribuições desses diretores é acabar com a própria OpenAI caso ela perca o controle. O conselho disparou este gatilho em meados de novembro, com a demissão do CEO Sam Altman.

A ação, entretanto, resultou em uma revolta de funcionários e acionistas da empresa contra o conselho diretor até que Altman voltasse ao cargo. Até a Microsoft se envolveu na confusão.

Melhores plataformas de criptomoedas | Maio de 2024

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados