Análise DeepSeek R1 vs OpenAI o1 - Preço vs Qualidade?
Os modelos Deepseek R1 e OpenAI o1 pertencem à família de modelos de raciocínio (ou reasoning em inglês), ou seja, estes modelos conseguem realizar processos por etapas e simular a capacidade de pensar, em vez de responder instantaneamente. Ambos os modelos atualmente representam o topo da evolução de raciocínio e potência de LLM no mercado, no entanto apresentam várias diferenças entre si.
OpenAI o1 – A aposta da OpenAI para o ChatGPT
O modelo OpenAI o1 foi o primeiro modelo da empresa conhecida por ter desenvolvido o ChatGPT que incorporou a capacidade de raciocínio, através do uso da técnica Chain-of-Thought para estruturar a resposta do modelo.
O raciocínio permite respostas melhores e mais acertadas, mas também escala bastante os preços de utilização do modelo por input e output. Conforme a imagem abaixo o modelo o1-2024-12-17 gasta:
-
- $15.00 por 1 milhão de tokens input
- $60.00 por 1 milhão de tokens output (que inclui os tokens gastos na geração do processamento).

Estes preços tornam os modelos caros para o desenvolvimento de aplicações com base neste modelo (chatbots IA, automações, agentes ou outros), o que pode levar à segmentação do serviço. Os utilizadores do plano grátis ou Plus (pago) podem testar a capacidade de raciocínio do modelo o1, mas a curva de aprendizagem exigida irá fazer com que os utilizadores gastem o limite de utilização várias vezes.
Deepseek R1 – Discreto e potente concorrente open-source
A Deepseek apresentou-se de forma discreta com um projeto open-source e capaz de fazer frente (e até mesmo superar) a sua competição mais forte com o Deepseek R1 (ou também conhecido como “Deepthink”). Nos testes abaixo está uma comparação lado-a-lado entre os modelos Deepkseek R1 e OpenAI o1.

No entanto, embora a capacidade do seu modelo seja impressionante, o maior trunfo da empresa chinesa é o custo dos seus tokens, custam uma infinidade do preço dos tokens do modelo o1. Os preços abaixo não deixam muito por dizer (pricing aqui):
-
- $0.14 por 1 milhão de tokens input
- $2.19 por 1 milhão de tokens output
O baixo custo de tokens do deepseek via API vão permitir o desenvolvimento e melhoramento de capacidade de serviços e produtos com base em inteligência artificial e com capacidade de raciocínio. As empresas vão poder manter os custos baixos para entregar mais qualidade aos seus clientes.
O utilizador “comum” pode também aproveitar os limites de utilização do modelo R1 da DeepSeek para testar a capacidade de raciocínio e desenvolver os seus casos de utilização.
Embora os benchmarks tenham indicações válidas sobre os desempenhos dos modelos de IA, como se comporta o DeepSeek R1 na prática?
Bastante bem!
Tabela de comparação Deepseek R1 vs OpenAI o1
A Deepseek foi fundada em Maio de 2023 e está presente no mercado há muito menos tempo que a OpenAI de Sam Altman. Foi fundada por Liang Wenfeng e desenvolve modelos de IA de código aberto (ao contrário da OpenAI).
Embora ambos os modelos possam ter aplicações diferentes, a tabela comparativa entre ambos permite tirar conclusões.
Característica | DeepSeek-R1 | OpenAI o1 |
---|---|---|
Arquitetura | Mixture-of-Experts (MoE) com 671B parâmetros (37B ativos por etapa) | Detalhes não divulgados, foco em “cadeia de pensamento” (C-o-T) privada |
Desempenho em Matemática | 79.8% no AIME 2024 | 83% em exames da Olimpíada Internacional de Matemática |
Performance em Programação | Percentil 96.3 no Codeforces | Percentil 89 no Codeforces |
Custo por 1M tokens (input) | US$ 0.14 (consultas em cache) / US$ 0.50 (padrão) | US$ 15 (o1-preview) / US$ 3 (o1-mini) |
Licenciamento | Código aberto (MIT) | Proprietário, acesso restrito |
Contexto máximo | 128 mil tokens | Não especificado |
Treino | 14.8B tokens, custo total de US$ 5.5 milhões | Dados de “raciocínio” científicos e reinforcement learning |
Capacidade de raciocínio | Utiliza Cadeia de Pensamento (CoT) | Processo deliberativo multi-etapas semelhante ao humano |
Segurança | Não especificado | 84% de resistência a jailbreak (vs 22% do GPT-4o) |
Disponibilidade | Acesso aberto via código fonte | ChatGPT Plus/Team (30 mensagens/semana) |
Vantagem principal | Custo 27.4x menor que o o1 com desempenho comparável | Performance superior em tarefas académicas complexas |
Limitações | Foco em raciocínio lógico/matemático | Sem navegação web ou análise de imagens |
Vantagens do DeepSeek R1
Embora o modelo o1 da OpenAI continue a ser mais eficaz para certas funções, o modelo DeepSeek R1 oferece algumas vantagens imediatas:
-
- Eficiência computacional – O uso do LLM requer menos recursos computacionais, o que resulta em menores custos de desenvolvimento face ao concorrente.
- Código aberto – O modelo R1 é totalmente open-source, o que permite que a comunidade possa aceder e melhorar o código desenvolvido e promove a transparência. No entanto o dataset (dados para treinar o modelo) não é open-source.
- Custo para o utilizador – O uso do DeepSeek R1 é bastante mais barato, seja na plataforma DeepSeek ou via API, o que permite uma adoção maior e mais fácil comparativamente ao OpenAi o1
- Mixture-of-Experts (MoE) – Este método de Machine Learning combina vários modelos especializados (Experts) para resolver problemas e permite tirar o melhor do modelo.
- Custo-benefício – Para projetos com orçamento limitado e necessidade de personalização, o DeepSeek pode oferecer uma relação custo-benefício maior.
Mixture-of-Experts (MoE)
Para além de ser uma vantagem do DeepSeek, a Mixture-of-Experts é um método de Machine learning que contribui para a eficiência dos modelos de raciocínio. Esta forma de aprendizagem divide um modelo de IA em vários “sub modelos”, cada um especializado num conjunto de dados. Quando o utilizador insere um problema, o problema é dividido em partes que serão entregues a um Expert para serem resolvidas especificamente.
A Mixture-of-Experts melhora a eficiência computacional ao identificar e usar os melhores modelos para cada tarefa, em vez de usar todos os parâmetros em cada prolema. O MoE tem sido aplicado em modelos de grande escala, como o Mixture of Million Experts (MoME) que usa um mecanismo para gerir milhões de especialistas e escalar a capacidade do modelo sem perder eficiência computacional.
Framework MoE
-
- Entrada de dados: O LLM recebe os dados (input)
- Análise: A rede de gating analisa a entrada de dados e escolhe os Experts a ativar
- Processamento: O expert (ou experts) escolhido processa a entrada de dados
- Combinação de resultados: os outputs dos experts são combinados para a resposta final
- Saída de resultado: o modelo produz e apresenta a resposta final