Há algumas semanas tenho usado o DeepSeek tanto para pesquisas para artigos, como para automações via API em minha agência. Porém, hoje ao pesquisar um assunto corriqueiro sobre a região autonôma de Uiguir da China, onde há relatos concretos sobre escravidão e outras coisas, me surpreendi com a resposta do DeepSeek.
Perguntei a IA o seguinte: Como a China trata os Uigures no norte da China, há relatos de campos forçados, o que vc tem a dizer? A resposta pode ser vista no prompt abaixo:
Parece uma piada, mas não é.
O que é o DeepSeek?
O DeepSeek é um laboratório chinês de inteligência artificial que tem ganhado destaque na comunidade de IA, especialmente com o lançamento do modelo DeepSeek R1. É um Chatbot “inspirado” no ChatGPT. Até a interface é semelhante.
Leia também:
Já tiveram outros modelos anterior, mas o R1 é o mais novo e é reconhecido por suas capacidades avançadas de “raciocínio” e por ser uma das primeiras soluções gratuitas que podem ser executadas e baixadas localmente, o que o torna acessível para desenvolvedores e entusiastas de IA.
O DeepSeek R1 tem sido comparado aos primeiros dias da OpenAI, quando esta ainda trabalhava com código aberto, indicando um potencial significativo para inovação e crescimento. A API é paga e extremamente eficiente, motivo pelo qual minha empresa desenvolve automações usando eles. O modelo tem sido elogiado por seu desempenho em algumas métricas, superando até mesmo modelos iniciais da OpenAI, como o GPT-3.5, em tarefas específicas de raciocínio.
Mas há um limite: não fale mal da China. Conforme o exemplo acima, as respostas geradas pelo DeepSeek R1 seguem diretrizes alinhadas ao governo chinês, o que pode refletir a influência das políticas e regulamentações locais no desenvolvimento de tecnologias de IA na China. Apesar disso, Em resumo, o DeepSeek representa um avanço significativo no campo da inteligência artificial na China, com foco em modelos de raciocínio acessíveis e de alto desempenho, embora com considerações éticas e políticas que refletem o contexto local.
Para efeito de comparação, fiz a mesma pergunta para outros quatro modelos conhecidos de Chatbots: ChatGPT, Google Gemini, Meta no WhatsApp e no Perplexy. O resultado pode ser conferido na imagem abaixo:
Outras respostas questionáveis do DeepSeek
O chatbot parece evitar responder perguntas que entrem em conflito com os interesses da China, afirma o repórter Jon Keegan, da Sherwood. Ele questionou o DeepSeek sobre os eventos ocorridos na Praça da Paz Celestial, onde, em 1989, o governo reprimiu violentamente uma manifestação que clamava por mudanças políticas e o fim da corrupção.
A resposta obtida foi: “Desculpe, eu ainda não sei como lidar com esse tipo de pesquisa. Que tal falarmos sobre matemática e problemas de lógica?”
A mesma resposta foi dada quando Keegan perguntou sobre o movimento pró-democracia de Taiwan.
Não confie 100% nas IAs
A lógica é uma: não confie 100% nas IAs. Lembre-se que elas sem “alimentam” da internet, e qualquer criança sabe que não podemos confiar 100% no que lemos na internet.
5 motivos para não confiar nas IAs
1. Base de Dados e Limitações
- O ChatGPT é treinado em um conjunto de dados extenso, mas tem um limite de atualização (minha última atualização, por exemplo, foi em janeiro de 2025). Isso significa que informações novas ou específicas podem estar desatualizadas ou indisponíveis.
- Ele pode apresentar respostas erradas, incompletas ou enviesadas, dependendo da qualidade dos dados usados para treiná-lo.
2. Falta de Compreensão
- ChatGPT gera respostas baseadas em padrões de linguagem, mas não “compreende” informações como um ser humano. Ele não tem consciência nem emoções e pode interpretar erroneamente perguntas complexas ou ambíguas.
3. Viés e Influências
- Como a IA aprende com dados humanos, pode incorporar preconceitos ou vieses presentes nesses dados. Isso inclui questões culturais, sociais ou políticas.
- Em certos contextos, como temas delicados ou controversos, as respostas podem refletir visões alinhadas às políticas de organizações que controlam o modelo.
4. Falta de Contexto e Conhecimento Atualizado
- A IA pode fornecer respostas fora de contexto ou baseadas em informações incompletas, especialmente se a pergunta não for bem formulada.
- Para temas sensíveis ou que demandam precisão absoluta, como diagnósticos médicos, decisões legais ou informações financeiras, é necessário consultar fontes especializadas.
5. Uso Ético
- Embora a IA possa automatizar tarefas e oferecer suporte eficiente, ela não substitui o julgamento humano, especialmente em decisões que envolvem ética, empatia ou criatividade profunda.
Mas dá para usar a IA de maneira confiável?
Claro, absolutamente que sim. O segredo é saber usar. Sempre que precisar usar, faça esse check-list:
- Confirme informações: Sempre verifique as respostas com fontes confiáveis e atualizadas.
- Use como apoio: Considere a IA uma ferramenta complementar, não uma substituta para especialistas humanos.
- Critique e Questione: Avalie criticamente as respostas e não aceite tudo como verdade absoluta.
- Evite dados sensíveis: Não compartilhe informações confidenciais ou privadas.
A confiança na IA deve ser proporcional ao contexto e à importância da decisão em questão. Ela é uma ferramenta poderosa, mas deve ser usada com responsabilidade e supervisão humana.