Riscos da alucinação da Inteligência Artificial e da manipulação de números por políticos

Quando a tecnologia erra e a política engana

Advertisement
Receba notícias no WhatsApp
Imagem gerada por Inteligência Artificial

O avanço da Inteligência Artificial (IA) tem revolucionado diversas áreas. No entanto, com os benefícios, vêm também desafios e riscos. Um dos fenômenos mais intrigantes e preocupantes no uso da IA é a “alucinação”, termo que se refere a momentos em que a IA gera respostas errôneas ou inventa informações, levando a sérias consequências, especialmente em contextos sensíveis como o Direito.

A alucinação da IA acontece quando o modelo generativo, como o ChatGPT, cria respostas que não estão fundamentadas em dados reais. Isso pode ocorrer devido à maneira como o algoritmo é treinado, muitas vezes em grandes volumes de dados da internet que podem conter informações imprecisas.

A sigla ChatGPT significa Chat Generative Pre-trained Transformer. Vamos detalhar cada parte:

  • Chat: Refere-se à capacidade do modelo de realizar interações em linguagem natural, ou seja, conversas em formato de bate-papo, referindo-se à interação em tempo real.
  • Generative: Indica que o modelo pode gerar texto, ou seja, criar respostas a partir das solicitações que recebe. Um gerador, que aponta para a criação de textos e respostas.
  • Pre-trained: Significa que o modelo foi pré-treinado com uma grande quantidade de dados textuais, o que lhe permite reconhecer padrões e contextos.
  • Transformer: Refere-se à arquitetura de rede neural chamada Transformer (transformador), que é uma tecnologia altamente eficiente em entender e gerar linguagem natural.

O ChatGPT é um sistema de inteligência artificial desenvolvido pela OpenAI, baseado no modelo GPT (Generative Pre-trained Transformer). Ele foi treinado com vastas quantidades de dados textuais, como livros, artigos e informações da internet, permitindo que entenda perguntas e gere respostas coerentes e contextuais.

O ChatGPT pode ser utilizado em diversas áreas, como:

  1. Atendimento ao cliente: Automatizando respostas a perguntas frequentes.
  2. Assistentes virtuais: Ajudando os usuários com informações e agendamentos.
  3. Educação: Apoiando em pesquisas, explicações e tarefas acadêmicas.
  4. Traduções: Facilitando traduções entre diferentes idiomas.

Antes que me perguntem, informo que uma rede neural é um tipo de arquitetura de aprendizado de máquina inspirada no funcionamento do cérebro humano. Ela é composta por “nós” ou “neurônios” artificiais que processam informações. Em uma rede neural, esses nós estão organizados em camadas e são interconectados, permitindo que o sistema aprenda padrões e realize previsões ou classificações com base nos dados de entrada.

No contexto do ChatGPT, a rede neural utilizada é do tipo Transformer, que é capaz de lidar com grandes volumes de dados textuais e processar informações de maneira muito eficiente. Essa arquitetura é o que possibilita ao ChatGPT gerar respostas em linguagem natural de forma coerente, ao reconhecer padrões complexos e entender contextos em uma ampla gama de temas.

Em português, ChatGPT poderia ser traduzido como: “Transformador Pré-Treinado Gerador de Conversas”.

Portanto, ChatGPT é uma IA projetada para interagir com os usuários em linguagem natural, realizando uma variedade de tarefas, como gerar textos, responder perguntas e fornecer explicações. A tecnologia de rede neural (mais especificamente a arquitetura Transformer) é o componente central que torna possível o entendimento e a geração de textos de maneira eficiente e precisa.

Mas saindo dessa parte conceitual e entrando no tema principal deste artigo, volto a falar da Alucinação da Inteligência Artificial.

Um exemplo famoso envolve o caso do advogado Steven A. Schwartz, nos Estados Unidos, que, ao utilizar o ChatGPT para elaborar uma petição contra a Avianca, acabou inserindo seis precedentes jurídicos completamente falsos no documento. O advogado alegou que não sabia que o ChatGPT poderia gerar informações incorretas, mas o tribunal não aceitou a desculpa, gerando uma repercussão negativa e levantando questões sobre o uso indiscriminado de IA no Direito.

Outro exemplo ocorreu no Brasil, onde um juiz federal da 1ª Região utilizou o ChatGPT como assistente em uma decisão judicial. A ferramenta forneceu uma jurisprudência inexistente, o que levou a questionamentos sobre a veracidade dos dados gerados pela IA.

O advogado da parte derrotada, ao verificar as inconsistências nas jurisprudências citadas, questionou a decisão e acionou a Corregedoria Regional da Justiça Federal da 1ª Região. O caso ganhou destaque, levando o desembargador Néviton Guedes, corregedor da 1ª Região, a emitir uma circular alertando sobre o uso inadequado de IA nas decisões judiciais.

O juiz responsável pelo erro disse singelamente que foi um “mero equívoco”. Ele atribuiu o uso do ChatGPT à sobrecarga de trabalho, argumentando que parte da sentença foi elaborada por um servidor.

O CNJ decidiu investigar o incidente. A Corregedoria Regional da Justiça Federal da 1ª Região recomendou que a IA não fosse usada para pesquisa de jurisprudência sem supervisão humana rigorosa.

A prática de culpar assessores por erros cometidos por seus superiores é um fenômeno recorrente no setor público ou privado e até na política. Essa tática de delegar a culpa não é nova; governantes e líderes frequentemente se esquivam de suas responsabilidades, transferindo os erros para os subordinados quando algo sai errado.

Durante meu tempo na Prefeitura e no Legislativo municipal, observei essa dinâmica em diversas situações. Em tom de brincadeira, eu costumava dizer que havia uma “cláusula oculta” nos contratos de trabalho dos assessores que determinava que, em caso de erro do chefe, o assessor assumia a culpa. Essa transferência de responsabilidade enfraquece a liderança, já que um verdadeiro líder deve reconhecer seus próprios erros e responder por suas decisões, ao invés de buscar culpados entre aqueles que o serve.

Mas, voltando de novo ao tema deste artigo, informo que minha própria experiência ao utilizar o ChatGPT para pesquisas jurídicas ilustra os riscos mencionados anteriormente. Como Fiscal de Rendas e assessorando os Prefeitos de nossa cidade junto à Câmara Municipal do Rio de Janeiro (CMRJ), por muitos anos, desenvolvi um “cacoete de ofício”: checar de forma atenta tudo o que chega às minhas mãos.

Isso se tornou essencial tanto no meu trabalho como Fiscal de Rendas, onde a atenção aos mínimos detalhes era fundamental, quanto no meu papel de assessor dos prefeitos. Eu e minha eficiente equipe éramos responsáveis pela produção final dos projetos de leis, sanções e vetos a serem assinados pelo Prefeito, e não podíamos, de maneira nenhuma, encaminhar textos com informações incorretas para o senhor Prefeito os assinar.

Esse rigor, por vezes, me causava problemas com alguns Secretários e Dirigentes municipais, cujos materiais eu devolvia para correção. Um deles, para me criticar, chegou a dizer que eu me preocupava demais com vírgulas. De fato, vírgulas podem alterar o sentido de um texto, mas estas eu corrigia por conta própria.

No entanto, quando eles reclamavam comigo por aquele meu zelo profissional, eu respondia dizendo que fossem reclamar de mim com o Prefeito. Se reclamavam ou não, eu não sei, pois os Prefeitos nunca questionaram essa minha diligência com os documentos a serem assinados por eles.

Foi com essa mesma cautela que certa vez, ao buscar jurisprudência nos Tribunais Superiores sobre um tema específico, o ChatGPT me forneceu alguns números de acórdãos. Como de costume, decidi verificar esses acórdãos nos sítios dos tribunais. Para minha surpresa, não consegui encontrar nenhum deles. Então, questionei o ChatGPT sobre a veracidade dos números fornecidos. A resposta do ChatGPT foi, no mínimo, inusitada, mas educada:

“Peço desculpas pelo mal-entendido, mas o acórdão citado no texto, referente ao RE 209.582/SP, não existe. Utilizei exemplos fictícios para ilustrar o tema sobre isenção retroativa e remissão.

Caso você precise de informações sobre um acórdão específico ou uma decisão real, posso procurar por jurisprudência relacionada ao tema que você mencionou ou fornecer mais detalhes sobre decisões autênticas do Supremo Tribunal Federal e de outros tribunais superiores sobre isenção retroativa e remissão. Você gostaria de prosseguir com isso?”

Essa experiência pessoal revela claramente os riscos de confiar cegamente nas ferramentas de IA sem a devida verificação. Embora o ChatGPT tenha respondido de maneira cortês, a falha em fornecer informações precisas demonstra que a supervisão humana é essencial para garantir a confiabilidade das informações e evitar erros graves.

Para aqueles que desejam se aprofundar nos riscos e nas regulamentações da IA no setor público ou privado, recomendo estudar os quatro documentos fundamentais abaixo, que, embora se refiram ao Judiciário, possuem ensinamentos interessantes.

A Resolução nº 332/2020, do Conselho Nacional de Justiça (CNJ), é a principal norma que regulamenta o uso de Inteligência Artificial no Poder Judiciário brasileiro. Ela define as bases éticas, de transparência e governança para o desenvolvimento e aplicação de IA, priorizando a proteção de direitos fundamentais. Entre os pontos destacados, a resolução aborda a necessidade de uma IA que respeite os princípios da igualdade e não discriminação, exigindo que os sistemas sejam transparentes e auditáveis. A Resolução ainda alerta para a necessidade de garantir que a IA não crie vieses e sempre esteja submetida à revisão de uma autoridade competente, o que assegura a supervisão humana nos processos judiciais.

Acesse essa Resolução no seguinte sítio:

https://drive.google.com/file/d/1ZSvP8UTKloGxnu-7KEAAYaC3KLevEqSk

A Circular COGER nº 33/2023, emitida pelo Tribunal Regional Federal da 1ª Região, traz um alerta específico sobre o uso da Inteligência Artificial Generativa, especialmente em pesquisas jurisprudenciais. Ela recomenda que IA generativas abertas, como o ChatGPT, não sejam utilizadas para buscar precedentes jurídicos, devido ao risco de fornecer informações incorretas ou inventadas (alucinações). O documento reforça que a responsabilidade pela decisão judicial continua sendo do magistrado, mesmo com o auxílio de ferramentas de IA, e que a supervisão humana é essencial para evitar erros. A circular alerta ainda sobre a proteção de dados sensíveis e sigilosos.

Acesse essa Circular no seguinte sítio:

https://drive.google.com/file/d/1G3MOnN-PVbvmQ5W7aHlRb8tUjaoLI5i5

O Relatório de Pesquisa sobre o Uso da IA Generativa no Judiciário Brasileiro detalha os resultados de uma pesquisa conduzida pelo CNJ sobre o uso da IA generativa no Judiciário brasileiro. Ele destaca os potenciais benefícios, como o aumento da eficiência nas decisões judiciais, mas também os desafios e riscos, como a falta de transparência e os riscos de vieses discriminatórios. A pesquisa enfatiza a importância de uma governança robusta e de regulamentações específicas para mitigar os problemas associados à IA. O relatório também ressalta o interesse crescente dos magistrados em adotar essa tecnologia, mas com a ressalva de que é necessária uma capacitação adequada para lidar com seus riscos.

Acesse esse Relatório no seguinte sítio:

https://drive.google.com/file/d/1LXnyy7kjTdPpt_CgF38zTH66Mqoi2ODm

O Acórdão do Procedimento de Controle Administrativo (PCA) 0000416-89.2023.2.00.0000 trata da solicitação de proibição do uso de IA generativa, especificamente o ChatGPT, em decisões judiciais. O advogado Fábio de Oliveira Ribeiro entrou com um Procedimento de Controle Administrativo (PCA) pedindo que o CNJ proibisse o uso dessa tecnologia, argumentando que ela poderia comprometer a qualidade das decisões judiciais e violar o princípio do juízo natural. O CNJ indeferiu o pedido, destacando que a IA já é regulamentada pela Resolução nº 332/2020, e que o uso dessas ferramentas deve ser feito com cautela e sempre sob supervisão humana.

Acesse esse Acórdão no seguinte sítio:

https://drive.google.com/file/d/14QFjvIOJmq1s7Z9C8pivn95mNV0vmDQR

Por falar em confiar em números, é importante estender esse cuidado também para o que é divulgado por políticos em seus discursos durante campanhas eleitorais ou não. Muitas vezes, os números apresentados são deliberadamente manipulados ou exagerados.

Um exemplo clássico pôde ser visto num livro de um político que relatou como, em discursos públicos e debates, citava números com total confiança, mesmo sem a certeza de sua precisão. Ele admitiu que raramente as pessoas iriam verificar a exatidão das informações, e essa estratégia lhe conferia uma vantagem persuasiva, utilizando os números para fortalecer seus argumentos. Esse caso destaca a importância de sempre questionar e conferir os dados apresentados por figuras públicas, especialmente em discursos políticos.

Outro exemplo que vivenciei ao longo dos meus anos no Poder Legislativo envolve a fala de um parlamentar que comentou usar uma estratégia semelhante. Ele disse que, ao discursar no plenário para defender suas ideias, mencionava artigos, incisos e parágrafos do Regimento Interno da Casa Legislativa com grande ênfase e confiança, mesmo que esses dispositivos não existissem. Ele justificava essa prática afirmando que “ninguém confere mesmo”, o que o ajudava a sustentar seus argumentos com uma autoridade aparente, mas sem base real. Esse tipo de prática mostra também como é essencial verificar a veracidade das informações, não importa quão confiantes ou seguras elas pareçam no discurso.

O uso desse tipo de estratégia, seja por meio da manipulação de números ou referências inexistentes, é uma forma perigosa de distorcer a verdade. No contexto político, onde decisões importantes são tomadas com base em informações fornecidas ao público, a verificação rigorosa é imprescindível para garantir que eleitores, cidadãos e demais envolvidos tomem decisões conscientes e baseadas em fatos reais.

Seja ao lidar com informações fornecidas por ferramentas de IA, como o ChatGPT, ou ao ouvir números e dados citados por figuras públicas, a verificação cuidadosa deve ser sempre uma prioridade. Em um mundo onde a quantidade de dados e informações disponíveis cresce exponencialmente, a capacidade de discernir entre o verdadeiro e o falso, entre o preciso e o fabricado, torna-se essencial.

Ferramentas como a IA podem ser extremamente úteis quando utilizadas com responsabilidade e sob supervisão adequada. Da mesma forma, os discursos e dados apresentados por políticos devem sempre ser submetidos a uma análise crítica, evitando que sejam aceitos de forma acrítica e sem checagem.

Apesar do nome, a Inteligência Artificial não é tão “inteligente” quanto parece. No fundo, ela não passa de uma sofisticada máquina de calcular que processa enormes quantidades de dados disponíveis na internet, organizados em grandes redes de informações. A IA não “pensa” nem “compreende” como um ser humano; ela simplesmente identifica padrões e combina palavras ou números para produzir respostas baseadas no que já foi publicado.

Como bem destacou Noam Chomsky, em artigo publicado no dia 8 de março de 2023 no New York Times: “a mente humana não é, como ChatGPT e seus semelhantes, uma máquina estatística glutão para o reconhecimento de estruturas, que engole centenas de terabytes de dados e tira a resposta mais plausível a uma conversa ou a mais provável a uma pergunta científica. Ao contrário… a mente humana é um sistema surpreendentemente eficiente e elegante que opera com uma quantidade limitada de informações. Não tenta lesionar correlações não editadas a partir de dados, mas tenta criar explicações.” Ele complementa: “Vamos parar de lhe chamar inteligência artificial e chamá-lo pelo que é: ‘software de plágio’. […] Não cria nada, copia obras existentes de artistas existentes e altera o suficiente para escapar às leis de direitos autorais. É o maior roubo de propriedades desde que os colonos europeus chegaram a terras nativas americanas.”

A Inteligência Artificial, portanto, não vai substituir o ser humano, como alguns apregoam. Na realidade, ela vai exigir que os seres humanos se aperfeiçoem e aprendam a utilizar de forma produtiva esse novo instrumento, essa nova ferramenta de trabalho que foi criada. Tanto o mercado quanto a sociedade vão exigir que as pessoas estejam preparadas para saber usar a IA de maneira eficaz. Aqueles que souberem utilizá-la terão uma capacidade produtiva muito maior do que aqueles que não se preocuparem em adquirir esse conhecimento.

Como demonstrei mais acima, a supervisão humana será sempre fundamental. Revisar e avaliar os resultados gerados pela IA é essencial para garantir a precisão e identificar possíveis vieses no conteúdo. A tecnologia pode apresentar erros ou omissões que exigem correção. Assim, a capacidade de usar a Inteligência Artificial de maneira crítica e produtiva será o diferencial para o sucesso na nova era digital.

Dessa forma, a IA não substituirá o ser humano, mas exigirá que as pessoas aprimorem suas habilidades para utilizá-la de maneira eficaz. E quem dominar essa ferramenta certamente terá uma vantagem competitiva em um mercado cada vez mais tecnológico e dinâmico.

Advertisement
Receba notícias no WhatsApp
entrar grupo whatsapp Riscos da alucinação da Inteligência Artificial e da manipulação de números por políticos

Comente

Por favor digite seu comentário!
Por favor, digite seu nome aqui