Voltar

ChatGPT viola LGDP da União Europeia, diz autoridade italiana

author avatar

Escrito por
Júlia V. Kurtz

editor avatar

Editado por
Thiago Barboza

29 janeiro 2024 16:00 BRT
Trusted

A autoridade de proteção de dados da Itália (Garante) acredita que o ChatGPT viola as leis de privacidade da União Europeia. Ela notificou a criadora da ferramenta de inteligência artificial (IA), a OpenAI, após uma investigação que durou meses.

Com isso, a empresa tem 30 dias para entregar sua defesa as alegações. O órgão não divulgou ao público quais as conclusões da investigação.

Sponsored
Sponsored

Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude

Europa cética com ChatGPT

O Garante acredita que a ferramenta da OpenAI não obedece a Regulação de Proteção de Dados Gerais (GDPR) da União Europeia. A lista de reclamações, que data de março de 2023, inclui, por exemplo, falta de base legal para a coleta e uso de dados pessoais para o treinamento de modelos de linguagem.

O órgão regulador acrescentou a tendência de ferramentas de IA de produzir informações incorretas sobre pessoas e problemas de segurança infantil.

Ao todo, suspeita-se que o ChatGPT fere os artigos 5, 6, 8, 13 e 25 da GDPR.

Caso as acusações se confirmem, a OpenAI pode ser multada em até € 20 milhões, o que equivale a 4% de sua receita anual. Além disso, ela pode ser obrigada a mudar seu modo de operações ou encerrar suas operações na Europa.

IA gera controvérsias

Sponsored
Sponsored

Desde que se tornou popular, em novembro de 2022, o ChatGPT se tornou o assunto central em várias áreas, como cultura, política e legislação.

Há vários debates sobre como ferramentas de IA podem mudar o mundo. Uma das que mais preocupa legisladores é a relação dos modelos de linguagem grande (LLM) com material protegido por direitos autorais.

O caso mais simples é o uso de material protegido por lei para treinamento de IA. É necessário abastecer as ferramentas com uma quantidade enorme de informações para poderem operar.

Já há casos de processos judiciais em andamento por supostas violações de material protegido. Por exemplo, o jornal The New York Times processou a OpenAI e a Microsoft por supostamente terem usado seus textos para treinamento sem autorização.

Mas, e do outro lado da questão? O que ocorre quando os LLMs criam qualquer tipo de conteúdo?

Um caso semelhante já foi parar nas cortes do Reino Unido. A justiça do país decidiu, em seguida, que o software não é o criador de algo, até porque ele só age em resposta a um prompt do usuário.

O país, inclusive, foi um dos que se adiantou na tentativa de regular o setor de IA.

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.