Entendendo a censura no DeepSeek

Menos de duas semanas após o lançamento do modelo de IA de código aberto DeepSeek, a startup chinesa continua dominando as discussões sobre o futuro da inteligência artificial. Embora esteja à frente dos rivais dos EUA em termos de matemática e raciocínio, o DeepSeek censura agressivamente suas próprias respostas. Pergunte ao DeepSeek R1 sobre Taiwan ou Tiananmen, e provavelmente o modelo não dará uma resposta.

Níveis de censura no aplicativo

Usuários que acessaram o R1 através do site, aplicativo ou API do DeepSeek notaram rapidamente que o modelo se recusa a gerar respostas para tópicos considerados sensíveis pelo governo chinês. Essa censura é aplicada no nível do aplicativo, ou seja, só ocorre se o usuário interagir com o R1 por um canal controlado pelo DeepSeek.

O modelo de censura embutido também apresenta vieses integrados durante o processo de treinamento. Esses vieses podem ser removidos, mas o procedimento é mais complexo. Isso tem implicações significativas para o DeepSeek e para as empresas de IA chinesas em geral. Se os filtros de censura nos modelos de linguagem puderem ser facilmente removidos, é provável que os LLMs de código aberto da China se tornem ainda mais populares, pois os pesquisadores podem modificar os modelos conforme desejarem.

No entanto, se os filtros forem difíceis de contornar, os modelos podem se tornar menos úteis e competitivos no mercado global. A DeepSeek não respondeu ao pedido de comentário da WIRED.

Contornando a censura

Para contornar a censura, os usuários podem baixar o modelo e executá-lo localmente, o que significa que a geração de dados e respostas ocorre em seu próprio computador. Embora isso exija acesso a GPUs avançadas, a DeepSeek oferece versões menores que podem ser executadas em laptops comuns.

Outra solução é alugar servidores em nuvem fora da China de empresas como Amazon e Microsoft. Embora essa abordagem seja mais cara e exija mais conhecimento técnico, ela permite que o modelo seja utilizado sem as restrições do aplicativo ou site do DeepSeek.

Comparando como o DeepSeek-R1 responde à mesma pergunta quando o modelo é hospedado em diferentes plataformas, como Together AI e Ollama, nota-se que o modelo ainda pode apresentar sinais de censura, mesmo fora do controle direto da DeepSeek.

Implicações da censura

A censura embutida em modelos de IA chineses aponta para um problema maior na IA atual: todos os modelos são tendenciosos de alguma forma, devido ao seu treinamento pré e pós. Essas tendências podem ser difíceis de identificar e ajustar.

Eric Hartford, criador do LLM Dolphin, sugere que remover os vieses pós-treinamento pode ser feito ajustando os pesos do modelo ou criando um banco de dados de tópicos censurados para treinar novamente o modelo. Isso pode ajudar a superar as limitações impostas pela censura.

Embora a censura em modelos de IA chineses frequentemente faça manchetes, isso não impede que empresas adotem os modelos da DeepSeek. Muitas empresas optam por pragmatismo em vez de considerações morais, especialmente quando o objetivo é melhorar tarefas específicas, como codificação ou resolução de problemas matemáticos.

Leonard Lin, cofundador da Shisa.AI, destaca que modelos chineses como o DeepSeek são alguns dos melhores para tarefas em língua japonesa, apesar das preocupações com a censura. Ele acredita que todos os modelos são tendenciosos de alguma forma, mas a censura pró-China se torna um problema quando o modelo é adaptado para audiências fora da China.

Share:

administrator

Especialista em IA, inovação e estratégia de negócios. Founder Abre.bio, Co-Founder Growby.ai. Transformando tecnologia em impacto real. 🚀