Numa palestra na Universidade de Lund, em 1985, Steve Jobs imaginou um futuro em que seria possível ter uma conversa com Aristóteles através de um computador. Esta foi a extensão da sua ideia na epoca de que os computadores um dia podiam funcionar como “bicicletas para a mente humana”. Ele imaginou que os computadores um dia podiam vir a ser ferramentas que amplificariam a nossa capacidade intelectual, tal como uma bicicleta multiplica a nossa eficiência física.

Hoje, com o crescimento exponencial das ferramentas de Inteligência Artificial (IA) como o ChatGPT, Perplexity, Gemini e Bard, esta visão ganha uma nova forma e bastante relevo.

Nos últimos meses, tenho utilizado estas ferramentas com regularidade no meu trabalho e até no dia a dia, quando viajo, quando estou à procura de respostas velozes, ou até mesmo em research na minha área de especialização. Foi isto que me inspirou a pensar no tema e a deixar-vos aqui algumas linhas de pensamento.

A rapidez, capacidade de sintetizar informação, gerar textos, responder a perguntas e até ajudar na organização de ideias tem sido, por vezes, revolucionária. Inclusive, a forma como o conteúdo é entregue faz-me acreditar na total veracidade das palavras e próprio contexto.

No entanto, também tenho notado limitações preocupantes: respostas erradas dadas com confiança, fontes falsas citadas como se fossem fidedignas e uma tendência para reforçar determinadas narrativas sem contextualização crítica. Ao mesmo tempo que temos acesso a “conversas” com todo o conhecimento humano, enfrentamos uma ameaça crescente no campo da cibersegurança: o potencial destas tecnologias para amplificar e difundir desinformação.

Na senda da desinformação ...
Mais do que simples falhas, estamos a falar de padrões estruturais que levantam questões profundas sobre confiança, literacia digital e segurança da informação.

A ilusão de autoridade

Modelos de linguagem como o ChatGPT, Gemini, entres outros, foram desenhados para responder com fluidez e coerência. No entanto, a capacidade de articular frases de forma convincente pode ser enganadora. Estes modelos debitam a informação através de uma máscara de linguagem confiante e bem estruturada o que mascara frequentemente limitações, no meu entendimento graves no que toca a controlo da veracidade da informação. São como que uma autoridade para o utilizador final, e com o tempo de utilização, o “problema” entranha-se: “Ah! Vi no ChatGPT, e os bitaites até têm sido certos … Deixa-me só “humanizar” um pouco a escrita e está feito!“.

Estudos como o “Misinformation Has High Perplexity” (arXiv) mostram que as afirmações falsas tendem a apresentar maior perplexidade (ou seja, imprevisibilidade linguística), o que paradoxalmente pode passar despercebido por modelos treinados para dar respostas fluídas, mesmo quando erradas.

Confuso com o que o artigo diz? Vamos simplificar adiante.

Esta confiança cega tem raízes cognitivas e computacionais. Do ponto de vista psicológico, os utilizadores tendem a confiar em respostas apresentadas com confiança e em linguagem natural, mesmo sem verificarem a origem da informação e até a sua veracidade. O que não é novo, todos conhecemos a expressão “comprei gato por lebre”.

No entanto esta tendência tem sido amplificada por um fenómeno conhecido como o “Efeito de Fluência Cognitiva”, onde quanto mais fácil é processar uma informação, mais verdadeira ela nos parece.

Beber água com limão de manhã emagrece
apesar de não ter base científica, é fácil de entender, repetida frequentemente e escrita de forma direta leva muitas pessoas a aceitá-la como verdadeira sem sequer questionar.

O resultado?

Uma ilusão de autoridade: a IA parece saber do que fala, mesmo quando está somente a inventar e mandar bitaites …

Desinformação com aparência credível

A investigação “Stochastic Lies” publicada pela Harvard Misinformation Review (link aqui) demonstra como as ferramentas como o Perplexity, Bard e Bing Chat tendem em entregar temas politicamente sensíveis. O output das ferramentas varia consoante o prompt e a fonte usada no momento, abrindo espaço à propagação de narrativas tendenciosas ou falsas.

Este tema é ainda mais grave quando os sistemas produzem explicações bem articuladas, mas logicamente incorretas como demonstrado no estudo “Deceptive AI Systems” (arXiv). A confiança do utilizador cresce, enquanto a capacidade de avaliar criticamente o conteúdo, com tempo, raciocínio pessoal, diminui.

Se a base informativa é fraca, o resultado também o será. A investigação da Forbes (link) demonstrou que o Perplexity cita frequentemente conteúdos de baixa qualidade: posts gerados por outras IA, blogs de spam ou publicações comerciais mal fundamentadas.

Mais preocupante ainda é o estudo divulgado pela DeepMind (link), que mostra que motores de busca com IA têm taxas de erro elevadas. Em alguns casos, as ferramentas pagas apresentam pior desempenho do que as gratuitas. Isto significa que o modelo de negócio pode estar a privilegiar velocidade e volume em detrimento de qualidade e fiabilidade.

 

Ferramentas que te podem levar ao “local errado” sem aviso prévio

Além dos estudos académicos, existem múltiplos casos recentes que ilustram como as ferramentas de IA como GPT, Perplexity e Gemini podem enganar os utilizadores seja através de informações falsas ou redirecionamentos perigosos.

 

Redirecionamento para sites de phishing

A equipa de investigação da Netcraft analisou 50 marcas na industria e descobriram que mais de 34 % dos domínios sugeridos pelo GPT‑4.1 e Perplexity não pertenciam às marcas legítimas  incluindo URLs não registadas e páginas potencialmente maliciosas.

Um exemplo: ao procurar pelo site oficial do Wells Fargo (um banco online), o Perplexity recomendou uma página falsa alojada no Google Sites.

Referência: https://www.netcraft.com/blog/large-language-models-are-falling-for-phishing-scams

 

Ignorar protocolos “robots.txt” para scraping

Investigadores da Wired confirmaram que o Perplexity ignora instruções de exclusão como o robots.txt, e utiliza os endereços de IP ocultos para aceder a conteúdos bloqueados ou restritos. Mesmo quando confrontado com páginas de teste especificamente para o estudo, o sistema respondeu como se tivesse lido o conteúdo o que representa uma clara indicação de scraping não autorizado.

Referência: https://www.heise.de/en/news/Crawler-without-limits-Perplexity-ignores-robots-txt-9770682.html

 

Fabricação de citações e excertos plausíveis (hallucinations)

A BBC avaliou 100 perguntas sobre notícias e descobriu que mais de 50 % das respostas de assistentes de IA continham imprecisões graves  como datas erradas, citações inventadas ou contextos distorcidos. O estudo concluiu ainda que ferramentas como ChatGPT, Copilot, Gemini e Perplexity “ameaçam minar a confiança pública nos factos”.

Referência: https://www.theguardian.com/technology/2025/feb/11/ai-chatbots-distort-and-mislead-when-asked-about-current-affairs-bbc-finds?utm_source=chatgpt.com

 

Vamos deixar a IA substituir o cérebro humano?

Não estamos apenas a ser mal informados. Estamos também a ser moldados cognitivamente e de forma inconsciente por estas ferramentas. O Washington Post (link) reuniu evidências científicas que mostram que o uso repetido de IA pode levar a uma menor atividade cerebral e à redução do pensamento crítico.

Quando terceirizamos o raciocínio humano para uma máquina que nos responde de forma agradável, mesmo que errada,  estamos a reduzir a nossa capacidade de distinguir o verdadeiro do falso. Isso tem implicações profundas para a sociedade, a democracia e até a educação a longo prazo. Vamos perder a capacidade de ter espirito crítico? de criar inovação?

As ferramentas de IA vieram para ficar e agilizam aquelas tarefas rotineiras, mas o impacto depende da forma como as usamos. Não podemos delegar na totalidade o pensamento crítico a algoritmos, nem confiar cegamente em respostas bem formuladas.

Este é um artigo de opinião, e por isso digo que defendo a utilização da inteligência artificial mas sempre acompanhada e supervisionada pela humana de uma maneira ativa. A inteligência artificial deverá ser uma aliada e não uma fabrica de certezas falsas com voz agradável.


Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *