Voltar

Criadora do ChatGPT, OpenAI vai financiar pesquisa de segurança cibernética

author avatar

Escrito por
Júlia V. Kurtz

editor avatar

Editado por
Thiago Barboza

02 junho 2023 14:25 BRT
Trusted
  • A OpenAI lançou um Programa de Concessão de Segurança Cibernética de US$ 1 milhão para aprimorar os recursos de segurança cibernética da IA.
  • A empresa visa capacitar os defensores, promover o discurso sobre IA e segurança cibernética.
  • No entanto, o fundo pode parecer pequeno para uma empresa que projeta US$ 1 bilhão em receita até 2024.
Promo

A OpenAI, criadora do ChatGPT, anunciou um programa de US$ 1 milhão para aprimorar os recursos de segurança cibernética de inteligência artificial (IA). A novidade surge enquanto o mundo sofre com ansiedade sobre o risco de extinção apresentado pela tecnologia.

A mudança indica que a empresa deseja adicionar uma face responsável à tecnologia em rápido crescimento. Apesar disso, o fundo é escasso para uma empresa que projeta US$ 1 bilhão em receita até 2024.

Sponsored
Sponsored

Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude

US$ 1 milhão é suficiente para segurança cibernética?

A OpenAI quer “capacitar defensores” – entidades que protegem os sistemas e redes de computadores contra atividades maliciosas. A empresa também pretende incentivar discussões aprofundadas sobre a interseção de IA e segurança cibernética.

Vários caminhos estão sendo avaliados. Eles incluem a identificação de problemas de segurança no código-fonte, a criação de tecnologia de engano para desviar os invasores e o auxílio de engenheiros reversos na detecção de malware.

Criadora do ChatGPT, OpenAI vai financiar pesquisa de segurança cibernética
Fonte: Statistica

A OpenAI é uma das operadoras mais renomadas na área e foi pioneira ao criar o ChatGPT. De acordo com o UBS, citando dados da empresa de análise Similarweb, o chatbot de IA é o “aplicativo de consumidor que mais cresce na história”.

Sem dúvida, alguns verão essa intervenção como um gesto simbólico para uma empresa que domina o espaço da IA.

Risco de extinção decorrente da adoção da IA

O anúncio ocorre dias depois de a empresa assinar uma carta aberta com o Center for AI Safety. O texto alerta que a IA poderia causar um evento de nível de extinção.

Além disso, outros signatários incluíam acadêmicos proeminentes, especialistas em IA, políticos, tecnólogos e Bill Gates.

Sponsored
Sponsored

“Mitigar o risco de extinção provocado pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o comunicado.

Esta não é a primeira concessão da OpenAI. Em maio, a empresa anunciou seu programa de recompensas, convocando especialistas para procurar por “vulnerabilidades, bugs ou falhas de segurança” em seus sistemas.

A explosão de ferramentas de IA desde 2022 foi recebida, no começo, como algo maravilhoso. A primeira onda foi dominada por geradores de imagem de IA como, por exemplo, o DALL-E (também de propriedade da OpenAI), cujas criações eram frequentemente estranhas e distorcidas.

No entanto, o lançamento do ChatGPT no final daquele ano explodiu a popularidade e a visibilidade da tecnologia. Desde então, o crescimento exponencial da tecnologia e os perigos potenciais ficaram à vista.

Governos em todo o mundo estão correndo para regulamentar esta indústria nascente e colocar barreiras em uma tecnologia que poucos pensavam na virada da década.

  • Não entendeu algum termo do universo Web3? Confira no nosso Glossário!
  • Quer se manter atualizado em tudo o que é relevante no mundo cripto? O BeInCrypto tem uma comunidade no Telegram em que você pode ler em primeira mão as notícias relevantes e conversar com outros entusiastas em criptomoedasConfira!
  • Você também pode se juntar a nossas comunidades no Twitter (X)Instagram e Facebook.

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.