Ver mais

“Internet não pode ameaçar direitos individuais”, diz advogada

8 mins
Atualizado por Júlia V. Kurtz

EM RESUMO

  • Legislação brasileira ainda está atrás em relação à europeia.
  • Crimes na internet tem os mesmos tipos penais já existentes na legislação.
  • É preciso criar uma regulamentação para o uso de algoritmos.
  • promo

O advento da inteligência artificial promete mudar a forma como a sociedade interage e se organiza de várias formas. Uma delas é o cruzamento da tecnologia com o os direitos dos cidadãos e o arcabouço legal desenvolvido para protegê-lo.

Afinal, o que acontece quando um modelo de linguagem é treinado usando, por exemplo, um banco de dados com informações que deveriam ser privadas? Nossa legislação é equipada para tratar desses casos?

  • Não entendeu algum termo do universo Web3? Confira no nosso Glossário!
  • Quer se manter atualizado em tudo o que é relevante no mundo cripto? O BeInCrypto tem uma comunidade no Telegram em que você pode ler em primeira mão as notícias relevantes e conversar com outros entusiastas em criptomoedasConfira!
  • Você também pode se juntar a nossas comunidades no Twitter (X)Instagram e Facebook.

A advogada especialista em LGPD Eliane Keller conversou com o BeInCrypto sobre isso. Confira a entrevista:

O judiciário acompanha de perto da questão do ChatGPT. A discussão que se faz é se a tecnologia vai substituir o trabalho do advogado, do juiz. Eu não tenho essa preocupação e nem acho que ela é plausível nesse momento.

Eu penso assim por que a máquina, na verdade, vem para ajudar a sociedade com agilidade, automação e mais informação. Por outro lado, nós ainda precisamos do ser humano. Especialmente quando falamos de direito, que é uma área de humanas.

Há coisas que a máquina não vai conseguir fazer por mais que seja ensinada. Ela não consegue ter bom senso ou sensibilidade para determinadas situações. Então, pra mim, é claro que todo o processo de criação é, e ainda vai ser, domínio da mente humana.

A criação de doutrinas é um exemplo. A doutrina é a beleza do direito. E isso a máquina não pode fazer. Essa preocupação, para mim, é inocente, porque ela vai fazer só aquele trabalho manual e isso é ótima.

No trabalho de advocacia, por exemplo, há as petições iniciais que são pura repetição. Eu tenho muitos casos que eu já conheço o tema e já sabe o que precisa ser escrito. Você só vai mudar o nome do autor, o valor da causa e ajustar os fatos. Mas a doutrina e a legislação serão exatamente as mesmas.

Isso não é nadada criativo. É uma automação, portanto nada melhor que usar uma máquina para isso. Essas ferramentas são boas porque facilitam nossa vida, mas a pessoa que está realmente interessada na ciência não vai fazer um trabalho só baseado em resultados do Google, da mesma forma que não vai se basear só nas respostas do ChatGPT.

Há, também, a questão de que se as informações sempre estão corretas. O ChatGPT facilita o trabalho de pesquisa. Entretanto, ainda é necessário conhecer algo, porque ele só aglomera informações disponíveis na rede e retorna um texto que pode estar certo mas também pode estar errado.

Ou seja, se você não é um estudioso no tema, pode comprar gato por lebre e ser induzido a escrever algo que está mal fundamentado.

É do interesse do ser humano pesquisar, ser criativo. E isso máquina nenhuma vai substituir.

  • Como a lei trata a responsabilização nos casos em que uma ferramenta de IA retornar uma informação falsa?

Embora se diga que uma ferramenta de IA não seja programada para responder com desinformação, é difícil confiar 100% nisso. É um problema que reflete ao dilema que nós já enfrentamos nas redes sociais, que é a transparência no uso de algoritmos.

Eu não consigo confiar neles porque não sei a base de pesquisa que ele usa. Portanto, como ele pode me garantir total segurança? Para isso, eu precisaria de mais transparência, saber como esse algoritmo funciona. Esse é o grande calcanhar de Aquiles na tecnologia. E é isso que as empresas fazem. A inteligência artificial precisa deixar transparente qual o método usado para fazer buscas.

O direito, por sua vez, pontua muito bem a responsabilidade civil e criminal de atos. Então, se eu uso uma fonte, qual é o objetivo de eu usar ela? Se eu fizer um trabalho acadêmico, eu tenho que dizer quem é o autor da fonte, de onde eu a tirei. Eu não posso simplesmente transcrever. Eu tenho a obrigação de fazer isso, ou se torna um caso de plágio.

Um profissional sério sempre vai identificar quando um pensamento ou uma doutrina não é dele. Então é necessário que ele cite a fonte.

  • Essa análise também é válida para transparência em redes sociais?

Eu sou favorável à regulamentação de redes sociais. Exatamente porque elas operam com algoritmos, que são sistemas automatizados em que não há mais preocupação com a qualidade da informação e sim com a quantidade de views que ela obtém.

Nós estamos entrando em um campo muito perigoso. Não se fala mais em qualidade, e sim em quantidade. Então, para fazer para ter quantidade, eu faço uma manchete que chama muito a atenção, que não tem nada a ver com o conteúdo. Isso não deixa de ser uma forma de desinformação.

Não há mais uma preocupação em levar ao público um serviço, uma informação coerente com a realidade. Você está mais focado em visibilidade digital e isso é muito preocupante.

Ou seja, os algoritmos são a grande chave da questão. Se nós não temos transparência de como eles são utilizados, como eles impulsionam conteúdo, eu não consigo criar uma regulamentação.

Para legislar, é preciso, de alguma forma, responsabilizar as plataformas e fazer com que elas sejam obrigadas a dar transparência de como seus algoritmos trabalham.

Uma maneira de fazer isso é, se eu escrever uma desinformação, eu tenho que citar de onde ela veio. Se eu disser que se você pega AIDS se tomar uma vacina, eu tenho que dizer de onde tirei essa informação ou eu vou responder civil e criminalmente por ela.

Isso diminui o impacto da desinformação, porque as pessoas vão começar a ter medo de reproduzir. Claro que isso é muito difícil quando isso ocorre em um volume muito grande. Mas, se você cria uma sistematização nesse sentido, é uma forma de tentar coibir a desinformação.

Em primeiro lugar, você obriga a plataforma a dar transparência de como seus algoritmos trabalham. Em segundo lugar, obrigando os usuários a exibir suas fontes.

  • Os modelos de linguagem são programados para evitar temas controversos. Por outro lado, nós temos o exemplo do Elon Musk, que quer criar um rival do ChatGPT sem restrições. Como você vê essa questão?

Nesse ponto, nós voltamos para a ideia de regulamentação das mídias. O que nós temos, hoje, é o império das big techs. Elas acham que o que vale, hoje, é a soberania delas e não a dos países. Esse é um campo minado porque a própria União Europeia trata isso de forma avançada. O Brasil, por outro lado, precisa avançar.

Eu já vi casos em que uma pessoa se apropriou de dados da vítima, criou um perfil falso para disseminar informações falsas e excluiu a conta. Aí, para enfrentar isso, você precisa entrar na justiça com base no Marco Civil da Internet, que obriga as plataformas a dizerem quem é o dono do perfil falso.

Só que aí a plataforma diz que o perfil já foi excluído e que não guardou essas informações. E aí é preciso contestar, porque eles guardam essas informações nos Estados Unidos e estão usando a lei americana para não divulgar os dados. Nesse caso, o juiz aplica uma multa, mas você continua sem a informação, o dano já está causado e a vítima não recebe reparações.

As empresas precisam entender que aqui não é terra de ninguém. O Elon Musk não pode tratar o Twitter ou sua plataforma de inteligência artificial como se fosse terra de ninguém. Nós temos uma legislação que criminaliza a misoginia, violência e outros.

A partir do momento que alguém esteja usando uma plataforma sem ser coibido, a plataforma tem que ser responsabilizada tão logo ela seja informada sobre isso. É preciso fazer valer a soberania nacional da legislação brasileira, não a das big techs do exterior.

  • Nossas informações estão cada vez mais sendo adicionadas a bancos de dados sem o nosso controle. O que fazer se essas informações que deveriam ser privadas forem incorporadas a um modelo de linguagem e tornadas públicas?

Isso não pode acontecer e, aí, nós voltamos a falar da transparência dos algoritmos. De onde saiu essa informação? Ela foi encontrada, por exemplo, na deep web, em uma base pública? Eu não sei! E não sei por que não tenho transparência.

De acordo com a LGPD, as minhas informações não podem ser acessadas sem que haja uma determinação, uma finalidade. Se isso ocorrer, a lei não está sendo usada corretamente. E essa é uma discussão que já deveria ter começado no Brasil. A Europa, por sua vez, já criou uma comissão de ética.

É preciso trazer as plataformas para essa discussão, criar um comitê para discutir essas questões. Elas também não podem ser decididas apenas pelo governo. Se isso ocorre, nós caímos naquela falácia de que é censura. Nós não podemos ter nossas liberdades individuais ameaçadas pelo advento da internet.

A tecnologia surgiu para facilitar nossa vida. O que seria de nós se não tivéssemos internet na época da pandemia? Em contrapartida, é preciso que isso tenha limites bem pontuados para que não se torne uma anarquia.

Nós temos leis justamente para evitar isso. Portanto, se temos leis no mundo físico, não podemos permitir que o Elon Musk bagunce tudo no mundo virtual.

O ministro Flávio Dino já disse: se é crime fora da internet, é crime dentro dela. Se você olhar na devida proporção, ao se falar de crimes da internet, não estamos falando de crimos novos e sim de coisas que já existiam antes.

Um estelionato, por exemplo, tem a mesma natureza e o mesmo modus operandi se ele for feito dentro ou fora da internet.

Os golpes com criptomoedas, por exemplo, são coisas que já ocorriam antes. Pirâmides financeiras não são novidade. Elas só usam o que é mais novo porque as pessoas não entendem como funciona. Antes de cripto, já existia pirâmide de cabeça de gado, por exemplo. Nós só as transportamos para o mundo digital, mas os ilícitos penais já existiam.

Eles precisam, na verdade, se subordinar à legislação brasileira. As pessoas usam a internet como desculpa para escapar de tudo.

Na internet, você também tem o imediatismo. Em um clique, você resolveu tudo e, às vezes, nesse clique, as pessoas fazer uma grande besteira, como o golpe do PIX. Você só percebe que caiu em um golpe depois de cair.

Antigamente, você tinha um tempo para as coisas, até tempo de refletir melhor. Na internet, há o imediatismo emocional, que é um fator muito negativo para as pessoas.

  • Por que o Brasil é lento para atualizar sua legislação?

Na verdade, eu acho que é falta de vontade política. Nós passamos por um governo que não tinha nenhum interesse em tornar a internet mais transparente e condizente com a legislação brasileira. Até porque havia ali uma militância que usava discurso de ódio e de desinformação.

Nós temos, agora, um governo que está interessado em avançar na legislação. Meu único temor é o governo achar que essa tem que ser uma decisão monocrática e que só eles podem legislar sobre isso. Eu entendo o contrário. Se nós não tivermos uma discussão ampla, inclusive com o setor privado e suas entidades, nós podemos entender que isso é censura.

Para evitar isso, é preciso que a base seja bem sedimentada e ela só vai ser fortalecida se todos os players interessados na discussão participarem.

Censura e lá na frente é a gente tem um novo governo que derrube ou que acabe com todo esse trabalho. Então, para a gente evitar isso, é preciso que essa base seja bem sedimentada, que elas é que nasça, é, é bastante, é, é fortalecida e só vai nascer fortalecida se todos os Steak holders envolvidos nessa discussão estiverem participando.

Melhores plataformas de criptomoedas | Abril de 2024

Trusted

Isenção de responsabilidade

Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.

Julia.png
Júlia V. Kurtz
Editora-chefe do BeInCrypto Brasil. Jornalista de dados com formação pelo Knight Center for Journalism in the Americas da Universidade do Texas, possui 10 anos de experiência na cobertura de tecnologia pela Globo e, agora, está se aventurando pelo mundo cripto. Tem passagens na Gazeta do Povo e no Portal UOL.
READ FULL BIO
Patrocinados
Patrocinados