top of page

CeprevNews

Logo - Decod - Horizontal - Branco.png
sul previdencia
sinek

Você está programado para confiar cegamente na IA; Veja como lutar contra isso

Décadas de pesquisa mostram nossa tendência de tratar as máquinas como caixas de respostas mágicas

 

Dois jornais publicaram recentemente recomendações de leitura de verão que incluíam livros inventados. A lista foi criada usando chatbots de inteligência artificial (IA).

 

O Washington Post identificou, nos últimos dias, sinais reveladores de IA em um relatório de saúde da Casa Branca que citava pesquisas inexistentes. E os advogados continuam sendo repreendidos por usar IA que gera pesquisas jurídicas falsas em processos judiciais.

 

Você pode acreditar que nunca seria estúpido o suficiente para confiar demais na IA dessa forma. Você está enganado.

 

Há décadas de pesquisas que registram nossa tendência de confiar cegamente em softwares poderosos, mesmo quando sabemos que não é assim - como a pessoa que segue as instruções do Google Maps e cai em um penhasco. As novas formas de IA, que são ao mesmo tempo poderosas, aparentemente misteriosas, propensas a erros e excessivamente badaladas, turbinam esse problema.

 

Uma companhia necessária para usar a IA moderna, portanto, é a humildade de prever que você confiará na tecnologia mesmo quando souber que não deve. Veja como combater essa tendência:

 

Viés de automação

Muitas tecnologias de IA dizem que você não deve tratá-las como o evangelho. A caixa de texto do ChatGPT diz: “O ChatGPT pode cometer erros. Verifique informações importantes”. A Tesla diz que você deve estar sempre atento ao seu avançado sistema de controle de cruzeiro do carro, que ela chama de “Autopilot”. As empresas que vendem software de reconhecimento facial usado por departamentos de polícia dizem que as informações são para pistas de investigação e não são motivos para uma prisão.

 

O problema, dizem os pesquisadores de IA, é que esses avisos ignoram convenientemente a forma como realmente usamos a tecnologia - como máquinas que cospem a “resposta” certa.

 

Há décadas, os pesquisadores descrevem uma série de vieses humanos com recomendações computadorizadas, incluindo o que às vezes é chamado de viés de automação, ou uma tendência a aceitar as máquinas mesmo quando elas contradizem seu bom senso ou treinamento profissional.

 

Os sistemas de IA generativa, incluindo o ChatGPT e o Dall-E, da OpenAI, que gera imagens, amplificam essa tendência, disse Kate Crawford, professora da Universidade do Sul da Califórnia e autora do “Atlas of AI”. (O Washington Post tem uma parceria de conteúdo com a OpenAI.)

 

“Os sistemas de IA generativa têm um tom de autoridade e uma aura de conhecimento infinito, o que pode fazer com que os usuários sintam que todas as respostas estão corretas sem a necessidade de verificá-las”, disse Kate.

 

Meu exemplo favorito de viés de automação: durante anos, muitas pessoas que tentaram identificar a localização de um computador ou telefone usado por ladrões de identidade, crianças fugitivas e assediadores online encontraram a localização de uma única fazenda no Kansas. Foi uma falha de computador em um software comum de mapeamento online.

 

Americanos que, de outra forma, estariam sãos, dirigiram até o Kansas para confrontar a pessoa que eles acreditavam ter roubado seu telefone ou os assediado online - porque um computador deu a resposta errada.

 

Se você acha que nunca faria algo assim, você aprendeu a lição errada. Todos nós somos propensos ao viés da automação, especialmente quando estamos estressados ou preocupados.

 

O programador de computadores Simon Willison disse que é útil presumir que os chatbots e outras novas formas de IA estão errados até que você prove o contrário, uma abordagem que ele descreveu como “desconfie, mas verifique”.

 

Isso é diferente de como tratamos muitas outras tecnologias. As previsões do tempo não são 100% precisas, mas tendem a ser confiáveis o suficiente para não levarmos um guarda-chuva quando a previsão é de sol. As direções de mapas e a Siri cometem erros constantemente, mas costumam ser boas o suficiente ou, pelo menos, não são muito arriscadas quando estão erradas.

 

No entanto, a IA generativa inventa coisas constantemente, e isso está piorando em vez de melhorar. Esse conhecimento das falhas inerentes é um ponto de partida necessário quando você usa a IA para resumir informações, editar seus e-mails e fazer brainstorming.

 

Também é necessário reconhecer que o fator surpreendente de gerar frases ou imagens não torna a tecnologia inteligente.

 

“A IA generativa pode parecer inteligente porque tem uma interface de conversação, mas na verdade é o oposto de inteligente”, disse Meredith Broussard, professora de jornalismo de dados da Universidade de Nova York, que escreveu “Artificial Unintelligence: Como os computadores entendem mal o mundo”.

 

Frank Pasquale, professor da Cornell Law School, tem pesquisado os exemplos recentes de advogados pegos enviando citações legais falsas de chatbots. Os advogados são obrigados a se certificar de que tudo o que for enviado a um tribunal seja revisado por um ser humano previamente, mas, como todos nós, os advogados são tentados por atalhos de IA.

 

Pasquale disse que “repercussões concretas”, como multas pesadas ou a perda temporária das licenças dos advogados, podem ajudar a anular o apelo de usar a IA e não verificar seu trabalho.

A tentação descrita por Pasquale de economizar mostra que há um motivo mais amplo por trás das pessoas que estão produzindo material com falhas gerado por IA, disse Evan Selinger, professor do Rochester Institute of Technology, que se concentra na filosofia da tecnologia.

 

Quando seu chefe ou a escola de seu filho “esperam que a IA aumente a produtividade e os empregos parecem precários, a pressão inevitavelmente levará a uma dependência excessiva das ferramentas de IA”, disse Selinger. “Muitos estão fazendo o que acreditam ser necessário para sobreviver.”

 

 

Fonte: Estadão

Foto: Freepik

 
 
 

1 comentário


Eka nurcahya ningsih
Eka nurcahya ningsih
21 de nov. de 2025

Excelente provocação! É crucial discutir nossa tendência de confiança cega na IA; quais seriam os passos práticos mais eficazes para desenvolver um ceticismo saudável no uso diário dessas tecnologias? Cordialmente <a href="https://jakarta.telkomuniversity.ac.id/en/tips-for-maintaining-your-computers-health/">Telkom University Jakarta</a>

Curtir

- © CEPREV - 2022 - Todos os direitos reservados. - Desenvolvido por nagaito.com -

bottom of page