▲
- Sergey Brin, cofundador do Google, sugeriu que ameaçar modelos de IA pode resultar em respostas mais eficientes.
- Você pode repensar como interage com assistentes virtuais e chatbots para obter melhores resultados.
- Essa abordagem pode influenciar o desenvolvimento futuro de sistemas de IA e suas limitações de segurança.
- O debate sobre a ética na interação com IA ganha destaque, com opiniões divergentes de especialistas.
É possível que ser gentil com a inteligência artificial não seja o melhor caminho. Sergey Brin, um dos fundadores do Google, acredita que “ameaçar” os modelos de IA pode gerar respostas melhores. Essa declaração foi feita durante o evento All-In-Live, realizado em Miami na semana passada.
Brin compartilhou uma prática pouco comentada na comunidade de IA. Segundo ele, os modelos de IA, incluindo os do Google, tendem a apresentar um desempenho superior quando são confrontados com “ameaças… de violência física”.
Qual a melhor forma de interagir com a IA?
Contrariando essa visão, o CEO da OpenAI, Sam Altman, mencionou que ser educado com o ChatGPT — usando “por favor” e “obrigado” — pode aprimorar as respostas, embora isso eleve o consumo de energia da empresa. Quer saber como escolher o modelo ideal do ChatGPT para suas necessidades? É importante considerar que as abordagens podem variar.
Brin tem adotado uma postura mais direta em suas declarações. No Google I/O 2025, ele reconheceu falhas no desenvolvimento do Google Glass e demonstrou confiança no Android XR. Essa mudança de atitude tem chamado a atenção.
Com a popularização da engenharia de prompts, o debate sobre a interação com modelos de linguagem ganhou destaque. Essa técnica visa ajustar comandos para otimizar os resultados obtidos das IAs.
Leia também:
Especialistas da área consideram os modelos de linguagem como “papagaios estocásticos”. Esses sistemas reproduzem padrões aprendidos e os combinam de maneiras que podem ser imprevisíveis. Será que estamos próximos do Vibe Coding: O Futuro da Programação Sem Código?
Outros especialistas sugerem que a fala de Brin faz sentido ao forçar o modelo a testar os limites de segurança impostos pelos desenvolvedores. Essa abordagem seria uma forma de jailbreak, ou seja, uma tentativa de burlar as proteções da IA. O que você acha disso?
Estudos na área apresentam resultados diversos. A pesquisa “Devemos Respeitar os LLMs?”, publicada em 2024, investigou se a gentileza e a educação afetam o desempenho dos modelos de IA. Foram identificadas algumas variações, mas não há evidências definitivas de que a gentileza ou a ameaça influenciem as respostas de forma conclusiva.
A discussão ética sobre a interação com IAs deve continuar por um bom tempo. Resta saber de que lado você estará quando o apocalipse das máquinas chegar. Será que os robôs com IA auxiliam motoristas em entregas em Austin, Texas?
Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.