▲
- O economista Paul Romer criticou a confiança em inteligência artificial durante o evento Febraban Tech.
- Se você usa IA, esteja ciente dos riscos associados a respostas imprecisas.
- Romer destacou que áreas como ciência e jornalismo estão particularmente vulneráveis às falhas da IA.
- Ele recomenda cautela ao avaliar a aplicação da IA em setores críticos.
O economista e vencedor do Prêmio Nobel Paul Romer não está tão otimista em relação à inteligência artificial — e também não confia plenamente na tecnologia. Durante o evento Febraban Tech, o professor do Boston College questionou o entusiasmo excessivo em torno da IA e deu dois conselhos polêmicos: não ouvir cientistas da computação nem empresas desenvolvedoras dessas ferramentas.
Críticas aos entusiastas da IA
Romer argumenta que os cientistas da computação estão mais interessados nas novidades que podem criar, enquanto as empresas querem vender seus produtos. “Eles estão vendendo ferramentas nas quais a primeira coisa que você deveria perceber é quando há um erro”, disse. Segundo ele, esse tipo de alerta não tem acontecido na prática.
Os modelos de IA generativa, como os que impulsionam ferramentas populares, produzem respostas aparentemente confiáveis que mascaram erros. “Os modelos não estão melhorando no sentido de chegar a 100% de precisão. Eles estão estagnados, e nós os alimentamos com cada vez mais dados”, explicou Romer. Essa limitação matemática, inerente aos sistemas baseados em código, representa um desafio estrutural.
Riscos para instituições baseadas na verdade
O economista alerta que a capacidade da IA de gerar respostas imprecisas, porém convincentes, representa um perigo para instituições que dependem da busca pela verdade. Ciência, judiciário e jornalismo estariam entre as áreas mais vulneráveis. Ele destaca o sistema científico pós-Revolução Científica como uma das conquistas mais importantes da humanidade.
“O maior risco que enfrentamos agora é perder esse sistema que nos serviu tão bem nos últimos séculos”, afirmou Romer. Embora reconheça a utilidade potencial dos modelos de IA, ele defende uma avaliação mais crítica dos custos dos erros gerados por essas tecnologias, especialmente em aplicações críticas como controle de veículos e aeronaves.
Leia também:
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via InfoMoney