A autoridade de proteção de dados da Itália (Garante) acredita que o ChatGPT viola as leis de privacidade da União Europeia. Ela notificou a criadora da ferramenta de inteligência artificial (IA), a OpenAI, após uma investigação que durou meses.
Com isso, a empresa tem 30 dias para entregar sua defesa as alegações. O órgão não divulgou ao público quais as conclusões da investigação.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
Europa cética com ChatGPT
O Garante acredita que a ferramenta da OpenAI não obedece a Regulação de Proteção de Dados Gerais (GDPR) da União Europeia. A lista de reclamações, que data de março de 2023, inclui, por exemplo, falta de base legal para a coleta e uso de dados pessoais para o treinamento de modelos de linguagem.
O órgão regulador acrescentou a tendência de ferramentas de IA de produzir informações incorretas sobre pessoas e problemas de segurança infantil.
Ao todo, suspeita-se que o ChatGPT fere os artigos 5, 6, 8, 13 e 25 da GDPR.
Caso as acusações se confirmem, a OpenAI pode ser multada em até € 20 milhões, o que equivale a 4% de sua receita anual. Além disso, ela pode ser obrigada a mudar seu modo de operações ou encerrar suas operações na Europa.
IA gera controvérsias
Desde que se tornou popular, em novembro de 2022, o ChatGPT se tornou o assunto central em várias áreas, como cultura, política e legislação.
Há vários debates sobre como ferramentas de IA podem mudar o mundo. Uma das que mais preocupa legisladores é a relação dos modelos de linguagem grande (LLM) com material protegido por direitos autorais.
O caso mais simples é o uso de material protegido por lei para treinamento de IA. É necessário abastecer as ferramentas com uma quantidade enorme de informações para poderem operar.
Já há casos de processos judiciais em andamento por supostas violações de material protegido. Por exemplo, o jornal The New York Times processou a OpenAI e a Microsoft por supostamente terem usado seus textos para treinamento sem autorização.
Mas, e do outro lado da questão? O que ocorre quando os LLMs criam qualquer tipo de conteúdo?
Um caso semelhante já foi parar nas cortes do Reino Unido. A justiça do país decidiu, em seguida, que o software não é o criador de algo, até porque ele só age em resposta a um prompt do usuário.
O país, inclusive, foi um dos que se adiantou na tentativa de regular o setor de IA.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.