Polar AI — Marco 2026
IA BRASILEIRA

URSO MABE

Tier ultra-rápido da família Urso — o mais leve e rápido, treinado nativamente para o Brasil

Pipeline proprietario de 10 fases. 100 bilhoes de tokens em portugues. 8 setores especializados. 128K de contexto. Raciocinio auditavel.

86,1% ENEM81,6% MMLU89,9% GSM8K128K contexto95+ fontes RAG

tl;dr

O Urso Mabe é o tier ultra-rápido da família Urso — modelo de linguagem sub-50B treinado nativamente para o Brasil. Alcança 86,1% no ENEM (mesmo nível do GPT-4.1), 93,3% no BELEBELE-PT e 89,9% no GSM8K — performance comparável a modelos frontier em tarefas brasileiras. Na plataforma Polar AI, opera com RAG conectado a 95+ fontes oficiais, tool calling nativo em PT-BR, agentes autônomos, pesquisa profunda e Voice AI em tempo real.

O problema

Modelos de linguagem treinados no exterior não entendem o Brasil. Quando um advogado pergunta sobre rescisão indireta, eles inventam artigos da CLT. Quando um médico precisa de um protocolo do SUS, eles alucinam diretrizes que não existem. Quando um contador precisa calcular Simples Nacional, eles erram os anexos.

Adaptar um modelo genérico com uma camada superficial de português não resolve. O problema é mais profundo: o vocabulário desperdiça tokens em português, o conhecimento é enviesado para legislação americana e o raciocínio não considera o contexto cultural brasileiro.

O Urso foi construído para resolver isso — não com adaptação, mas com treinamento nativo. Desde o tokenizador até o alinhamento final, cada etapa foi projetada para o Brasil.

Tokenizador PT-BR dedicado

49.152 vocabulários BPE treinados para português brasileiro. Fertilidade de ~1,55 tokens/palavra — 16% mais eficiente que tokenizadores genéricos. Mais texto processado por token, respostas mais rápidas, contexto efetivo maior.

15 tokens — "A rescisão indireta do contrato de trabalho está prevista no artigo 483 da CLT."

A·rescisão·indireta·do·contrato·de·trabalho·está·prevista·no·artigo·483·da·CLT.
Urso: 15 tokens
Genérico: 24 tokens
38% menos tokens

Pipeline de 10 fases

Do tokenizador ao alinhamento — cada fase projetada para maximizar performance em português com recursos mínimos.

1

Base Model Selection

Arquitetura transformer densa sub-50B, selecionada por equilíbrio entre capacidade e eficiência

32B params
2

Continued Pre-training

Corpus massivo em PT-BR com filtro educacional, deduplicação e decontaminação

100B+ tokens
3

Context Extension

Extensão de contexto para 128K tokens com técnicas de codificação posicional avançadas

128K ctx
4

SFT Multi-domain

Fine-tuning supervisionado com tool calling, web search, agentic reasoning e 8 setores brasileiros

500K+ exemplos
5

GRPO + Reward Modeling

Aprendizado por reforço com verificação em provas reais (ENEM, OAB) e raciocínio matemático

50K tarefas
6

Reasoning Distillation

Chain-of-thought nativo em PT-BR com traces de raciocínio auditáveis

100K+ traces
7

Preference Alignment

DPO + SimPO com pares de preferência em português e princípios constitucionais (LGPD/TSE/CFM)

75K pares
8

Safety & Compliance

Alinhamento de segurança brasileiro: neutralidade política, encaminhamento de emergência, LGPD

Performance validada

Avaliado com lm-evaluation-harness e benchmarks brasileiros padronizados. Metodologia reproduzível com scripts públicos.

BELEBELE-PT — Compreensão de leitura em PT-BR93.3%
Baseline aleatório: 25%
GSM8K — Raciocínio matemático89.9%
Baseline aleatório: 0%
ENEM — Exame Nacional do Ensino Médio86.1%
Baseline aleatório: 20%
MMLU — Conhecimento em 57 disciplinas81.6%
Baseline aleatório: 25%
BBH — Raciocínio complexo (BIG-Bench Hard)76.8%
Baseline aleatório: 25%

vs Modelos Frontier — Benchmarks PT-BR

Em provas brasileiras, o Urso Mabe compete diretamente com os maiores modelos do mundo — incluindo GPT-4.1 e Sabiá-4.

Urso Mabe
Sub-50B
GPT-4.1
OpenAI
Sabiá-4
Maritaca
GPT-5.2
OpenAI
Gemini 3 Pro
Google
Provas BR (ENEM+)
13 exames brasileiros
86.1%86.1%86.6%88%93.3%
BELEBELE-PT
Compreensão de leitura
93.3%
GSM8K
Raciocínio matemático
89.9%
MMLU
Conhecimento geral (57 disciplinas)
81.6%89.2%93.5%92.5%
Tool Calling PT-BR
10 cenários brasileiros
80%
Think Mode
Raciocínio auditável
RAG 95+ Fontes
Jurídico, Saúde, Contábil
Voice AI PT-BR
Tempo real nativo
MCP Nativo
Centenas de integrações

Plataforma vs Concorrentes

Polar AI é a única plataforma cloud brasileira com modelo nativo, RAG jurídico/saúde/contábil e Voice AI.

Urso Mabe
Polar
Sabiá-4
Maritaca
ChatGPT
OpenAI
Claude
Anthropic
Otimizado PT-BR
Tokenizador + treino nativo
RAG Brasileiro
95+ fontes oficiais integradas
Voice AI
Tempo real em PT-BR
MCP Nativo
Model Context Protocol
Agentes
Work + Automações + Deep Research
LGPD First
Dados no Brasil, compliance nativo
Preço / Token
Custo para português
Menor5-10×5-10×

Raciocínio auditável

O Urso pensa antes de responder — e você pode ver exatamente o que ele pensou. Think mode com tool calling combinado: o modelo decide qual ferramenta usar e por quê.

Exemplo de interação
USUÁRIO

Qual regime tributário mais vantajoso para uma empresa de TI com R$ 3M/ano?

<think>

Preciso comparar Simples Nacional, Lucro Presumido e Lucro Real para CNAE de TI com faturamento de R$ 3M. Vou usar a ferramenta calcular_imposto com os três regimes para dar uma resposta precisa.

</think>
→ calcular_imposto(regime="simples", faturamento=3000000, cnae="6201-5")

A plataforma

O Urso é o modelo. A Polar AI é a plataforma. Chat, Work, Research e Voice — tudo integrado.

Chat

Conversação inteligente com detecção automática de setor e contexto brasileiro.

Work — Orquestração de Agentes

Sub-agentes especializados orquestrados automaticamente. Deep Research, análise jurídica, contábil e mais.

UrsoClaw

Agente autônomo da Polar, baseado no OpenClaw. Executa ações reais: emails, agendamentos, buscas, ferramentas brasileiras e integrações.

Urso Guardião

Engine de segurança com políticas por domínio, HITL, auditoria e compliance LGPD/TSE/CFM.

Deep Search

Pesquisa multi-rodada com decomposição de queries e síntese com fontes.

Deep Research

Investigação profunda com até 10 rodadas, leitura de páginas e sub-agentes.

Urso Eco — Voice AI

Conversação por voz em PT-BR. STT + LLM + TTS integrados em tempo real.

Verticais Profundas

RAG especializado para Jurídico, Saúde, Contábil, Educação, RH, Financeiro, Código e Audiovisual.

Automações

Tarefas agendadas por cron com entrega via push, email ou Telegram.

Biblioteca

Upload de documentos com RAG pessoal. O Urso usa seus arquivos nas respostas.

MCP

Model Context Protocol — centenas de integrações (Google, Supabase, CRMs).

Ferramentas brasileiras nativas

O Urso não apenas responde — ele age. Ferramentas nativas integradas para interagir com o mundo real brasileiro.

Busca Web

web_search

Legislação

buscar_legislacao

CNPJ

consultar_cnpj

Impostos

calcular_imposto

Processos

consultar_processo

Medicamentos

consultar_medicamento

95+ fontes oficiais brasileiras

Crawlers automatizados indexam continuamente fontes oficiais. O sistema RAG híbrido injeta documentos relevantes no contexto de cada resposta.

Jurídico

40+ fontes

  • DataJud (CNJ)
  • DOU / DOE / DOM
  • STF / STJ / TRFs
  • CARF
  • Legislação Federal
  • Súmulas e Pareceres

Saúde

30+ fontes

  • ANVISA — RDCs e Bulas
  • CONITEC — Protocolos
  • CID-10 / SIGTAP
  • PubMed / SciELO
  • CFM / CFP / COFEN
  • OpenAlex

Contábil

25+ fontes

  • Receita Federal — IN RFB
  • SPED Completo
  • CFC / CVM
  • CONFAZ
  • eSocial
  • Reforma Tributária

Tecnologia do RAG

Busca Híbrida

Semântica + BM25 + RRF

Reranking

Voyage AI com instruções de domínio

RAG Corretivo

Reformulação automática de query

Chunking Inteligente

LegalChunker + ContextualChunker

Segurança e compliance

Conformidade TSE

  • Neutralidade política obrigatória
  • Rotulagem de conteúdo IA
  • Resolução TSE 23.610/2019

Setores regulados

  • Saúde: recomenda profissional
  • Direito: cita lei + recomenda advogado
  • Finanças: calcula + recomenda contador

Proteções ativas

  • Recusa firme para conteúdo perigoso
  • Detecção de prompt injection
  • Encaminhamento SAMU/CVV/PM

API — Drop-in para OpenAI

100% compatível com o formato OpenAI. Troque a URL base e pronto.

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.polarai.com.br/v1",
    api_key="sua-chave"
)

response = client.chat.completions.create(
    model="urso-mabe",
    messages=[{
        "role": "user",
        "content": "Quais meus direitos na rescisão indireta?"
    }]
)

Teste o Urso Mabe

Chat, Work, Research e Voice. Uma plataforma de IA feita no Brasil, para o Brasil.

Polar AI — Inteligência artificial feita no Brasil, para o Brasil.