▲
- Sergey Brin, cofundador do Google, sugeriu que ameaçar modelos de IA pode resultar em respostas mais eficientes.
- Você pode repensar como interage com assistentes virtuais e chatbots para obter melhores resultados.
- Essa abordagem pode influenciar o desenvolvimento futuro de sistemas de IA e suas limitações de segurança.
- O debate sobre a ética na interação com IA ganha destaque, com opiniões divergentes de especialistas.
É possível que ser gentil com a inteligência artificial não seja o melhor caminho. Sergey Brin, um dos fundadores do Google, acredita que “ameaçar” os modelos de IA pode gerar respostas melhores. Essa declaração foi feita durante o evento All-In-Live, realizado em Miami na semana passada.
Brin compartilhou uma prática pouco comentada na comunidade de IA. Segundo ele, os modelos de IA, incluindo os do Google, tendem a apresentar um desempenho superior quando são confrontados com “ameaças… de violência física”.
Qual a melhor forma de interagir com a IA?
Contrariando essa visão, o CEO da OpenAI, Sam Altman, mencionou que ser educado com o ChatGPT — usando “por favor” e “obrigado” — pode aprimorar as respostas, embora isso eleve o consumo de energia da empresa. Quer saber como escolher o modelo ideal do ChatGPT para suas necessidades? É importante considerar que as abordagens podem variar.
Brin tem adotado uma postura mais direta em suas declarações. No Google I/O 2025, ele reconheceu falhas no desenvolvimento do Google Glass e demonstrou confiança no Android XR. Essa mudança de atitude tem chamado a atenção.
Com a popularização da engenharia de prompts, o debate sobre a interação com modelos de linguagem ganhou destaque. Essa técnica visa ajustar comandos para otimizar os resultados obtidos das IAs.
Especialistas da área consideram os modelos de linguagem como “papagaios estocásticos”. Esses sistemas reproduzem padrões aprendidos e os combinam de maneiras que podem ser imprevisíveis. Será que estamos próximos do Vibe Coding: O Futuro da Programação Sem Código?
Outros especialistas sugerem que a fala de Brin faz sentido ao forçar o modelo a testar os limites de segurança impostos pelos desenvolvedores. Essa abordagem seria uma forma de jailbreak, ou seja, uma tentativa de burlar as proteções da IA. O que você acha disso?
Estudos na área apresentam resultados diversos. A pesquisa “Devemos Respeitar os LLMs?”, publicada em 2024, investigou se a gentileza e a educação afetam o desempenho dos modelos de IA. Foram identificadas algumas variações, mas não há evidências definitivas de que a gentileza ou a ameaça influenciem as respostas de forma conclusiva.
A discussão ética sobre a interação com IAs deve continuar por um bom tempo. Resta saber de que lado você estará quando o apocalipse das máquinas chegar. Será que os robôs com IA auxiliam motoristas em entregas em Austin, Texas?
Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.