Cofundador do Google sugere que ameaçar modelos de IA pode melhorar respostas

Sergey Brin, cofundador do Google, afirma que ameaçar modelos de IA pode gerar respostas melhores. Entenda o debate sobre interação com inteligência artificial.
Atualizado há 21 horas atrás
Cofundador do Google sugere que ameaçar modelos de IA pode melhorar respostas
Sergey Brin defende que ameaças a IAs podem melhorar suas respostas. (Imagem/Reprodução: Tecnoblog)
Resumo da notícia
    • Sergey Brin, cofundador do Google, sugeriu que ameaçar modelos de IA pode resultar em respostas mais eficientes.
    • Você pode repensar como interage com assistentes virtuais e chatbots para obter melhores resultados.
    • Essa abordagem pode influenciar o desenvolvimento futuro de sistemas de IA e suas limitações de segurança.
    • O debate sobre a ética na interação com IA ganha destaque, com opiniões divergentes de especialistas.
CONTINUA DEPOIS DA PUBLICIDADE

É possível que ser gentil com a inteligência artificial não seja o melhor caminho. Sergey Brin, um dos fundadores do Google, acredita que “ameaçar” os modelos de IA pode gerar respostas melhores. Essa declaração foi feita durante o evento All-In-Live, realizado em Miami na semana passada.

Brin compartilhou uma prática pouco comentada na comunidade de IA. Segundo ele, os modelos de IA, incluindo os do Google, tendem a apresentar um desempenho superior quando são confrontados com “ameaças… de violência física”.

Qual a melhor forma de interagir com a IA?

Contrariando essa visão, o CEO da OpenAI, Sam Altman, mencionou que ser educado com o ChatGPT — usando “por favor” e “obrigado” — pode aprimorar as respostas, embora isso eleve o consumo de energia da empresa. Quer saber como escolher o modelo ideal do ChatGPT para suas necessidades? É importante considerar que as abordagens podem variar.

CONTINUA DEPOIS DA PUBLICIDADE

Brin tem adotado uma postura mais direta em suas declarações. No Google I/O 2025, ele reconheceu falhas no desenvolvimento do Google Glass e demonstrou confiança no Android XR. Essa mudança de atitude tem chamado a atenção.

Com a popularização da engenharia de prompts, o debate sobre a interação com modelos de linguagem ganhou destaque. Essa técnica visa ajustar comandos para otimizar os resultados obtidos das IAs.

Leia também:

Especialistas da área consideram os modelos de linguagem como “papagaios estocásticos”. Esses sistemas reproduzem padrões aprendidos e os combinam de maneiras que podem ser imprevisíveis. Será que estamos próximos do Vibe Coding: O Futuro da Programação Sem Código?

Outros especialistas sugerem que a fala de Brin faz sentido ao forçar o modelo a testar os limites de segurança impostos pelos desenvolvedores. Essa abordagem seria uma forma de jailbreak, ou seja, uma tentativa de burlar as proteções da IA. O que você acha disso?

Estudos na área apresentam resultados diversos. A pesquisa “Devemos Respeitar os LLMs?”, publicada em 2024, investigou se a gentileza e a educação afetam o desempenho dos modelos de IA. Foram identificadas algumas variações, mas não há evidências definitivas de que a gentileza ou a ameaça influenciem as respostas de forma conclusiva.

CONTINUA DEPOIS DA PUBLICIDADE

A discussão ética sobre a interação com IAs deve continuar por um bom tempo. Resta saber de que lado você estará quando o apocalipse das máquinas chegar. Será que os robôs com IA auxiliam motoristas em entregas em Austin, Texas?

Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.