Ver mais

ChatGPT viola LGDP da União Europeia, diz autoridade italiana

2 mins
Atualizado por Thiago Barboza

A autoridade de proteção de dados da Itália (Garante) acredita que o ChatGPT viola as leis de privacidade da União Europeia. Ela notificou a criadora da ferramenta de inteligência artificial (IA), a OpenAI, após uma investigação que durou meses.

Com isso, a empresa tem 30 dias para entregar sua defesa as alegações. O órgão não divulgou ao público quais as conclusões da investigação.

Leia mais: Bitcoin e mais 3 criptomoedas que podem atingir novos recordes em maio

Europa cética com ChatGPT

O Garante acredita que a ferramenta da OpenAI não obedece a Regulação de Proteção de Dados Gerais (GDPR) da União Europeia. A lista de reclamações, que data de março de 2023, inclui, por exemplo, falta de base legal para a coleta e uso de dados pessoais para o treinamento de modelos de linguagem.

O órgão regulador acrescentou a tendência de ferramentas de IA de produzir informações incorretas sobre pessoas e problemas de segurança infantil.

Ao todo, suspeita-se que o ChatGPT fere os artigos 5, 6, 8, 13 e 25 da GDPR.

Caso as acusações se confirmem, a OpenAI pode ser multada em até € 20 milhões, o que equivale a 4% de sua receita anual. Além disso, ela pode ser obrigada a mudar seu modo de operações ou encerrar suas operações na Europa.

IA gera controvérsias

Desde que se tornou popular, em novembro de 2022, o ChatGPT se tornou o assunto central em várias áreas, como cultura, política e legislação.

Há vários debates sobre como ferramentas de IA podem mudar o mundo. Uma das que mais preocupa legisladores é a relação dos modelos de linguagem grande (LLM) com material protegido por direitos autorais.

O caso mais simples é o uso de material protegido por lei para treinamento de IA. É necessário abastecer as ferramentas com uma quantidade enorme de informações para poderem operar.

Já há casos de processos judiciais em andamento por supostas violações de material protegido. Por exemplo, o jornal The New York Times processou a OpenAI e a Microsoft por supostamente terem usado seus textos para treinamento sem autorização.

Mas, e do outro lado da questão? O que ocorre quando os LLMs criam qualquer tipo de conteúdo?

Um caso semelhante já foi parar nas cortes do Reino Unido. A justiça do país decidiu, em seguida, que o software não é o criador de algo, até porque ele só age em resposta a um prompt do usuário.

O país, inclusive, foi um dos que se adiantou na tentativa de regular o setor de IA.

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados