A rede social X, de Elon Musk, está coletando os dados de seus usuários para treinar seu assistente de IA generativa, Grok. Assim, a Autoridade Nacional de Proteção de Dados (ANPD) abriu um processo de fiscalização e solicitou explicações ao X.
Os desenvolvedores implementaram o novo procedimento na calada da noite e notificaram os usuários apenas como sendo uma atualização da plataforma.
ANPD solicita explicações da rede social
Nesta segunda-feira (29), a coluna Tilt do UOL, informou que a ANPD abriu um processo de fiscalização para apurar o procedimento do X. A plataforma, portanto, adotou o mesmo procedimento de coleta de dados que a Meta, para treinar sua IA Grok.
As empresas de tecnologias que não enxergam mal algum em coletar dados públicos de seus usuários adotam a prática. No entanto, a ANPD veta a prática e também questionou a Meta anteriormente.
Assim, a atitude da autarquia gerou debate entre os especialistas de privacidade de dados no Brasil. Eles entendem que ANPD deve instaurar o mesmo procedimento contra outras Big Techs que utilizam a mesma prática.
O X informa que utiliza os dados coletados para “treinamento e ajustes finos” da sua IA. Os usuários da plataforma ainda podem desabilitar a coleta de dados, porém, apenas através do computador.
Para isso basta acessar “Configurações” => “Privacidade e Segurança” => “Grok” e desabilitar o “Compartilhamento de dados”.
Corrida por IA coloca em risco a privacidade de dados
A ANPD notificou a Meta no início de julho após a ação do Instituto de Defesa de Consumidores (Idec). Na ocasião, a autarquia alegou que a Meta não forneceu informações claras sobre como coleta, processa e utiliza os dados para treinar seus modelos de IA.
Além disso, a autoridade também questionou a legalidade do uso de dados sensíveis, como informações de saúde e biometria, e estipulou multa de R$ 50.000 por dia.
Leia mais: Inteligência artificial e ética: 6 questões que precisamos enfrentar
Em nota publicada em sua página oficial, o Idec manifestou indignação ao ver “mais uma big tech explorando consumidores para fins de crescimento de seu poder econômico”. O instituto destacou também a importância de haver maior transparência por parte das Big Techs:
“Concretamente, vemos um design malicioso: há uma pré-seleção da opção de que os consumidores aceitariam o uso de seus dados para fins de tratamento de IA. Esse consentimento não deveria ser pressuposto e, sim, explícito – além de ter de ser livre e informado.”
Além disso, o Idec demonstrou preocupação com os métodos utilizados para evoluir essas tecnologias e frisou que seguirá
“É preocupante a maneira como querem avançar essas tecnologias às custas de direitos e de dados pessoais dos usuários.(…)O Idec continuará lutando para que consumidores possam usufruir do benefício das tecnologias e que quaisquer abusos sejam prevenidos ou repreendidos.”
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.