Vamos começar esse artigo esclarecendo uma pegadinha semântica: inteligência artificial não é de fato inteligência. 💥
Segundo o jornalista de tecnologia Pedro Dória, o que chamamos de IA são, na verdade, sistemas que fazem o papel de calculadoras de probabilidades incapazes de pensar logicamente.
Por isso não podemos esperar dessa tecnologia algo que ela não foi treinada para fazer. O que uma IA do tipo Large Language Model (LLM) faz - a exemplo do ChatGPT - é compreender a pergunta que lhe foi feita e, a partir dali, escrever uma palavra, então encaixar a palavra mais provável de aparecer após aquela anterior, e assim sequencialmente.
Imperfeições ocorridas nesses processos dão origem ao que chamamos de alucinações de IA.
Conceitualmente falando, trata-se de situações em que algoritmos de IA e redes neurais de deep learning criam resultados que não são reais, não correspondem a nenhum dado no qual o algoritmo foi treinado ou não seguem nenhum outro padrão discernível.
Quer um exemplo prático? O fotógrafo brasileiro Jairo Goldflus digitou seu próprio nome no ChatGPT e perguntou quem ele é. O ChatGPT inventou para ele um alter-ego: o também fotógrafo paulistano de nome Jairo Goldflus - só que essa “versão” migrou para Los Angeles aos 18 anos e seguiu carreira na publicidade trabalhando em campanhas de Nike, Adidas e Apple. Ou seja, não é o Jairo real. 🙃
“Quando não tem informação o suficiente entre seus bilhões ou trilhões de parâmetros, o ChatGPT segue fazendo aquilo que sabe fazer. Encadeia palavras, uma após a outra, baseando-se na probabilidade que depreendeu a partir dos bancos de dados com os quais foi alimentado. Não tendo informação, inventa. Inventa sem saber que está inventando. Porque não pensa, não sabe, só lista palavras uma a uma calculando probabilidade”, explicou Pedro Dória no Meio, sua newsletter para assinantes.
A partir de agora, vamos investigar mais profundamente o que são alucinações de IA, como elas surgem e quais são as formas de identificá-las, com base em um artigo publicado no site MarTech Post.
O que é alucinação de IA?
O fenômeno conhecido como alucinação de inteligência artificial acontece quando um modelo de IA produz resultados que não são os previstos. (OBS: alguns modelos de IA foram ensinados a lançar outputs propositalmente sem conexão com inputs do mundo real.)
As alucinações de IA podem assumir muitas formas diferentes, desde a criação de fake news até afirmações ou documentos falsos sobre pessoas, eventos históricos ou fatos científicos. Por exemplo, um programa de IA como o ChatGPT pode fabricar uma figura histórica com uma biografia completa e realizações que nunca foram reais (algo como o que fez no caso do fotógrafo Jairo Goldflus).
⚠️ Na era atual de mídia social e comunicação imediata, onde um único tweet ou postagem no Instagram pode atingir milhões de pessoas em segundos, o potencial para que essas informações incorretas se espalhem rápida e amplamente é especialmente problemático.
Por que ocorrem as alucinações de IA?
As alucinações de IA podem ser causadas pelo que chamamos de exemplos adversários - dados de entrada (inputs) que enganam um programa de IA para classificá-los erroneamente.
Por exemplo, os desenvolvedores usam dados (como imagens, textos ou outros tipos) para treinar sistemas de IA; se os dados forem alterados ou distorcidos, o aplicativo interpreta o input de forma diferente e produz um resultado incorreto.
Alucinações podem ocorrer em grandes modelos baseados em linguagem como ChatGPT e seus equivalentes devido à decodificação inadequada do transformador (modelo de aprendizado de máquina). Usando uma sequência de codificador-decodificador (input-output), um transformador em IA é um modelo de deep learning que emprega self-attention (auto-atenção: conexões semânticas entre palavras em uma frase) para criar um texto que se assemelha ao que um humano escreveria.
Maneiras de identificar a alucinações da IA
A visão computacional (computer vision), um subcampo da inteligência artificial, visa ensinar os computadores a extrair dados úteis do input visual, como imagens, desenhos, filmes e a vida real. Serve para treinar computadores para perceber o mundo como uma pessoa o percebe.
Ainda assim, como os computadores não são pessoas, eles devem contar com algoritmos e padrões para “entender” as imagens, em vez de ter acesso direto à percepção humana. Como resultado, uma IA pode ser incapaz de distinguir entre batatas fritas e folhas em mudança de estação, por exemplo.
Se a inteligência artificial não estivesse sendo rapidamente incorporada ao cotidiano, tudo isso seria absurdo e engraçado. Acontece que automóveis autônomos, onde alucinações podem resultar em fatalidades, já empregam IA. Embora isso não tenha acontecido, identificar itens de forma errada ao dirigir no mundo real é um risco palpável.
Aqui estão algumas técnicas para identificar alucinações de IA ao utilizar aplicativos populares:
1. Grandes modelos de processamento de linguagem (LLMs)
Erros gramaticais em informações geradas por um LLM como o ChatGPT são incomuns, mas, quando ocorrem, você deve suspeitar de alucinações - assim como quando o texto não faz sentido, não se encaixa no contexto fornecido ou não corresponde aos dados de entrada.
2. Visão computacional
Alucinações ocorrerão se os padrões de dados visuais utilizados para o treinamento mudarem. Por exemplo, um computador pode reconhecer equivocadamente uma bola de tênis como verde ou laranja se ela ainda não tiver sido educada com imagens de bolas de tênis. Um computador também pode experimentar uma alucinação de IA se interpretar erroneamente um cavalo parado ao lado de uma estátua humana como um cavalo real.
3. Carros autônomos
Os carros autônomos estão ganhando força progressivamente na indústria automotiva graças à IA. Os pioneiros BlueCruise da Ford e o piloto automático da Tesla promoveram a iniciativa. Você pode aprender um pouco sobre como a IA alimenta os automóveis autônomos observando como e o que o Tesla Autopilot percebe.
Resumindo…
As alucinações de IA resultam de dados inadequados ou insuficientes usados para treinar e projetar o sistema.
Os riscos de alucinação de IA devem ser considerados, especialmente ao usar outputs de IA generativa para tomadas de decisão importantes.
Embora a IA possa ser uma ferramenta extremamente útil, ela deve ser vista como um primeiro rascunho que os humanos precisam revisar e validar cuidadosamente.
Estamos longe de podermos confiar cegamente nos outputs apresentados, e essa certeza deve aumentar de acordo com a seriedade do caso de uso da IA.
Por isso, siga essas dicas para evitar possíveis problemas:
Pense: será que a resposta que você precisa não seria obtida de forma mais satisfatória pelo bom e velho pensamento humano? (Cuidado com a atrofia mental!)
Cheque sempre os outputs apresentados pela IA (quanto mais sério o assunto, mais atenta e criteriosa deve ser a sua checagem).
Aprenda a elaborar prompts adequados (a qualidade do seu input de dados vai afetar diretamente a qualidade da resposta).
Enfim, é provável que a IA vai seguir alucinando por um tempo. O que você não pode fazer é, em caso de problema, se isentar da responsabilidade de ter usado o output sem checá-lo previamente. Se você já sabe que essa tecnologia ainda é falha, confiar 100% nela é, no mínimo, irresponsável.