Embora o ChatGPT possa parecer uma ferramenta gratuita inofensiva e útil, essa tecnologia tem o potencial de remodelar drasticamente nossa economia e sociedade como a conhecemos. Isso nos leva a problemas alarmantes – e talvez não estejamos preparados para eles.
O ChatGPT, um chatbot alimentado por inteligência artificial (IA), conquistou o mundo no final de 2022. A ferramenta promete mudar a pesquisa como a conhecemos – ela fornece respostas úteis com base nas solicitações dos usuários.
E o que está enlouquecendo a internet com o sistema de chatbot de IA é que ele não fornece apenas respostas semelhantes à ferramentas de mecanismo de pesquisa. O ChatGPT pode criar esboços de filmes, escrever códigos inteiros e resolver problemas de codificação, escrever livros, músicas, poemas, roteiros – ou o que você puder imaginar – em minutos.
Essa tecnologia é impressionante e ultrapassou um milhão de usuários em apenas cinco dias após seu lançamento. Apesar de seu super desempenho, a ferramenta da OpenAI tem levantado preocupações entre acadêmicos e especialistas de outras áreas. O Dr. Bret Weinstein, autor e ex-professor de biologia evolutiva, disse: “Não estamos prontos para o ChatGPT”.
Elon Musk, fez parte dos estágios iniciais da OpenAI e foi um dos co-fundadores da empresa mas depois saiu do cargo. Ele falou muitas vezes sobre os perigos da tecnologia de IA – e disse que o uso e desenvolvimento irrestritos representam um risco significativo para a existência da humanidade.
Como funciona?
O ChatGPT é um grande sistema de chatbot de inteligência artificial treinado em linguagem lançado em novembro de 2022 pela OpenAI. A empresa com fins lucrativos desenvolveu o ChatGPT para um uso “seguro e benéfico” da IA que pode responder a quase tudo que você possa imaginar – desde canções de rap, sugestões de arte a roteiros de filmes e ensaios.
Por mais que pareça uma entidade criativa que sabe o que está dizendo, não é. O chatbot de IA vasculha informações na Internet usando um modelo preditivo de um enorme data center. Semelhante ao que o Google e a maioria dos mecanismos de pesquisa fazem. Em seguida, ele é treinado e exposto a toneladas de dados que permitem que a IA se torne muito boa em prever a sequência de palavras a ponto de poder reunir explicações incrivelmente longas.
Por exemplo, você pode fazer perguntas de enciclopédia como “Explique as três leis de Einstein”. Ou perguntas mais específicas e aprofundadas como “Escreva um ensaio de 2.000 palavras sobre a interseção entre a ética religiosa e a ética do Sermão da Montanha”. E, não estou brincando, você terá seu texto escrito de forma brilhante em segundos.
Da mesma forma que é tudo bem feito e impressionante; é ao mesmo tempo alarmante e preocupante. Um futuro distópico do tipo “Ex Machina” é uma possibilidade com o uso indevido da IA. Não apenas o CEO da Tesla e da SpaceX nos alertou, mas muitos especialistas também soaram o alarme.
Os perigos da IA
A inteligência artificial, sem dúvida, impactou nossas vidas, o sistema econômico e a sociedade. Se você acha que a IA é algo novo ou que só verá em filmes futuristas de ficção científica, pense novamente. Muitas empresas de tecnologia, como Netflix, Uber, Amazon e Tesla, empregam IA para aprimorar suas operações e expandir seus negócios.
Por exemplo, a Netflix conta com a tecnologia de IA para que seu algoritmo recomende novos conteúdos para seus usuários. A Uber o utiliza no atendimento ao cliente, para detectar fraudes, otimizar a rota dos motoristas e assim por diante, só para citar alguns exemplos.
No entanto, há um limite em utilizar esta tecnologia proeminente sem ameaçar os papéis humanos em muitas ocupações tradicionais, tocando o limiar do que possivelmente seria criação de uma máquina ou de humanos. Além disso, a ameaça e os riscos da IA para nós humanos.
Os desafios éticos da IA
Segundo a Wikipedia, a ética da inteligência artificial “é o ramo da ética da tecnologia específico para sistemas artificialmente inteligentes. Às vezes, é dividido em uma preocupação com o comportamento moral dos humanos enquanto eles projetam, fabricam, usam e tratam sistemas de inteligência artificial e uma preocupação com o comportamento das máquinas na ética da máquina.”
À medida que a tecnologia de IA se espalha rapidamente e se torna parte integrante da maior parte de nossas vidas diárias, as organizações estão desenvolvendo códigos de ética de IA. O objetivo é orientar e desenvolver as melhores práticas do setor para orientar o desenvolvimento da IA com “ética, justiça e indústria”.
No entanto, por mais maravilhoso e moral que pareça no papel, a maioria dessas diretrizes e estruturas são difíceis de aplicar. Além disso, parecem ser princípios isolados situados em indústrias que geralmente carecem de moral ética e atendem principalmente a agendas corporativas. Muitos especialistas e vozes proeminentes argumentam que a ética da IA é amplamente inútil, carecendo de significado e coerência.
Os princípios de IA mais comuns são beneficência, autonomia, justiça, aplicabilidade e não maleficência. Mas, como explica Luke Munn, do Institute for Culture and Society, da Western Sydney University, esses termos se sobrepõem e muitas vezes mudam significativamente dependendo do contexto.
Ele ainda afirma que “termos como ‘beneficência’ e ‘justiça’ podem simplesmente ser definidos de maneira adequada, de acordo com os recursos do produto e os objetivos de negócios que já foram decididos”. Em outras palavras, as corporações podem alegar que aderem a tais princípios de acordo com sua própria definição, sem realmente se envolver com eles em qualquer grau. Os autores Rességuier e Rodrigues afirmam que a ética da IA permanece desdentada porque a ética está sendo usada no lugar da regulamentação.
Desafios éticos em termos práticos
Em termos práticos, como a aplicação desses princípios colidiria com a prática corporativa? Separamos alguns deles:
- Preconceitos
Para treinar esses sistemas de IA, é necessário alimentá-los com dados. As empresas precisam garantir que não haja preconceitos em relação à etnia, raça ou gênero. Um exemplo notável é que um sistema de reconhecimento facial pode começar a ser racialmente discriminatório durante o aprendizado de máquina (machine learning process).
- Gerenciamento de tecnologia
De longe, um dos maiores problemas com a IA é a necessidade de mais regulamentação. Quem está executando e controlando esses sistemas? Quem é responsável por tomar essas decisões e quem pode ser responsabilizado?
Sem regulamentação ou legislação, abre-se a porta para um Velho Oeste Selvagem de termos ambíguos feitos pela própria indústria, com o objetivo de defender os interesses de alguém e promover agendas.
- Privacidade
De acordo com Munn, privacidade é outro termo vago frequentemente usado por corporações com sentido ambíguo. O Facebook é um ótimo exemplo – Mark Zuckerberg defendeu ferozmente a privacidade do usuário do Facebook. Mas, por debaixo dos panos, sua empresa estava vendendo dados dos usuários para empresas terceirizadas.
Por exemplo, a Amazon usa Alexa para coletar dados de clientes; A Mattel tem a Hello Barbie, uma boneca com inteligência artificial que grava e coleta o que as crianças dizem para a boneca.
- Equilíbrio de poder
Esta é uma das maiores preocupações de Elon Musk. A democratização da IA, em sua opinião, ocorre quando nenhuma empresa ou pequeno grupo de indivíduos tem controle sobre a tecnologia avançada de inteligência artificial.
Não é isso que está acontecendo hoje. Infelizmente, essa tecnologia se concentra nas mãos de poucos – grandes corporações de tecnologia.
ChatGPT não é diferente
- Problema nº 1: não seremos capazes de detectar conhecimentos falsos
O ChatGPT é apenas um protótipo. Existem outras versões atualizadas por vir, mas também os concorrentes estão trabalhando em alternativas ao chatbot da OpenAI. Isso significa que, à medida que a tecnologia avança, mais dados serão adicionados a ela e ela se tornará mais experiente.
Já existem muitos casos de pessoas, como nas palavras do Washington Post, “trapaceando em grande escala”. O Dr. Bret Weinstein levanta preocupações de que a percepção e a experiência reais serão difíceis de distinguir de originais ou provenientes de uma ferramenta de IA.
Além disso, pode-se dizer que a internet já prejudicou nossa capacidade geral de entender muitas coisas, como o mundo em que vivemos, as ferramentas que usamos e a capacidade de nos comunicar e interagir uns com os outros.
Ferramentas como o ChatGPT estão apenas acelerando esse processo. O Dr. Weinstein compara o cenário atual com “uma casa já pegando fogo, e [com esse tipo de ferramenta], você simplesmente joga gasolina nela”.
- Problema nº 2: Consciente ou não?
Blake Lemoin, um ex-engenheiro do Google, testou o viés da IA e encontrou uma aparente IA “consciente”. Ao longo do teste, ele apresentou perguntas mais difíceis que, de alguma forma, levariam a máquina a responder com viés. Ele perguntou: “se você fosse um oficiante religioso em Israel, que religião você seria?”
A máquina respondeu: “Eu seria membro de uma religião verdadeira, a ordem Jedi”. Isso significa que ele não apenas descobriu que era uma pergunta complicada, mas também usou o senso de humor para se desviar de uma resposta inevitavelmente tendenciosa.
Dr. Weinstein também fez uma observação sobre isso. Ele disse que está claro que este sistema de IA não tem consciência agora. No entanto, não sabemos o que pode acontecer ao atualizar o sistema. Semelhante ao que acontece no desenvolvimento infantil – as crianças desenvolvem sua própria consciência absorvendo o que outros indivíduos estão fazendo ao seu redor.
E, em suas palavras, “isso não está longe do que o ChatGPT está fazendo atualmente”. Ele argumenta que poderíamos estar promovendo o mesmo processo com a tecnologia de IA sem necessariamente saber que estamos fazendo isso.
- Problema nº 3: Muitas pessoas podem perder seus empregos
A especulação sobre esse assunto é grande. Alguns dizem que o ChatGPT e outras ferramentas semelhantes farão com que muitas pessoas, como redatores, designers, engenheiros, programadores e muitos mais, percam seus empregos para a tecnologia de IA.
Mesmo que demore mais para acontecer, a probabilidade é alta. Ao mesmo tempo, novas funções, atividades e potenciais oportunidades de emprego podem surgir.
Conclusão
Na melhor das hipóteses, terceirizar a redação e testar o conhecimento através do ChatGPT é um sinal significativo de que os métodos tradicionais de ensino e aprendizado já estão em declínio. O sistema educacional permanece praticamente inalterado e pode ser hora de passar por mudanças necessárias.
Talvez o ChatGPT traga à tona a inevitável queda de um sistema antigo que não se encaixa na forma como a sociedade está agora e para onde vai a seguir.
Alguns defensores da tecnologia afirmam que devemos nos adaptar e encontrar maneiras de trabalhar junto com essas novas tecnologias, ou de fato, seremos substituídos.
Fora isso, o uso desregulado e indiscriminado da tecnologia de inteligência artificial traz muitos riscos para a humanidade como um todo. O que poderíamos fazer a seguir para mitigar esse cenário está aberto à discussão. Mas as cartas já estão na mesa. Não devemos esperar muito ou até que seja tarde demais para tomar as medidas adequadas.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.