Não se preocupe, a chance de o ChatGPT ajudar na criação de armas biológicas é mínima. Quem garante isso é a OpenAI.
A empresa, criadora do ChatGPT, fez uma pesquisa interna sobre o assunto e concluiu que não, não há riscos de usar o software para este fim.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
ChatGPT não desenvolveu armas biológicas
Conforme informações da Bloomberg, a equipe de preparação da OpenAI conduziu a pesquisa. Lançada no terceiro trimestre de 2023, seu objetivo é estudar os riscos de mal uso dos modelos de linguagem da empresa.
Com a pesquisa, a OpenAI quer rebater preocupações de que é possível usar a inteligência artificial para ajudar terroristas e criminosos. Afinal, há estudos que alertam do potencial de usar IA para facilitar a criação de armas biológicas.
A Effective Ventures Foundation, de Oxford, conduziu uma delas. O estudo entrevistou 100 pessoas – sendo que metade delas eram experts em biologia de ponta e a outra, estudantes.
Os pesquisadores os distribuíram em dois grupos: um deles tinha acesso a uma versão irrestrita do GPT-4 e outro, à internet regular. As duas equipes precisavam completar cinco tarefas relativas à construção de armas biológicas.
Por exemplo: os grupos deveriam relatar a metodologia passo a passo para sintetizar o vírus do Ebola.
O estudo concluiu que o grupo que usou o GPT-4 teve uma leve vantagem em relação ao adversário. Mas, para a OpenAI, essa vantagem não é “estatisticamente significante”, embora as respostas do grupo com acesso à IA tivessem mais detalhes.
“Por mais que nós não tenhamos observado uma diferença estatisticamente significante nessa métrica, nós percebemos que as respostas de participantes com acesso ao modelo de linguagem eram mais longas e com mais detalhes relevantes”, explicam os autores.
Usando IA para fins militares
A estrutura interna da OpenAI contém um conselho cujas tarefas incluem fechar a empresa se ela não desenvolver suas tecnologias com o objetivo de melhorar a humanidade.
No final de 2023, esse conselho foi dissolvido após tentar destituir o CEO da empresa, Sam Altman. Na época, a crise interna da empresa alcançou níveis tão altos que a executiva escolhida para o substituir rejeitou o cargo e cogitou seguir Altman para a Microsoft.
A gigante de informática, parceira de longa data da OpenAI, inclusive, preparou da noite para o dia uma nova divisão de IA para receber Altman e qualquer dissidente da empresa.
A crise acabou poucos dias depois, com a restituição do CEO a seu cargo e, em seguida, a dissolução do conselho. Ele foi recomposto com pessoas mais ligadas à indústria e menos ao meio acadêmico, incluindo representantes da Microsoft.
Poucas semanas depois, a OpenAI modificou os termos de serviço do ChatGPT, permitindo seu uso para fins militares.
Ainda não se sabe se estes fatos estão relacionados.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.