Modelos
Conheça a família de modelos Urso da Polar — desde edge/mobile até modelos de fronteira.
Família de Modelos Urso
A família Urso foi desenvolvida nativamente para português brasileiro, com arquitetura Mixture of Experts (MoE) que oferece alto desempenho com eficiência computacional. Todos os modelos possuem janela de contexto de 128K tokens (exceto Embed, com 8K) e variantes Think com raciocínio explícito.
Urso Lite (3B)
O modelo mais leve da família, ideal para aplicações edge, dispositivos móveis e cenários com restrição de custo.
- Parâmetros: 3B (denso)
- Contexto: 128K tokens
- Multimodal: Nao
- Model ID:
urso-lite - Think variant:
urso-lite-think
Indicado para chatbots simples, classificacao de texto, extração de entidades e aplicações embarcadas.
from openai import OpenAI
client = OpenAI(
base_url="https://api.polar-ai.com/v1",
api_key="pk-sua-chave-aqui"
)
response = client.chat.completions.create(
model="urso-lite",
messages=[
{"role": "user", "content": "Resuma este texto em uma frase."}
]
)
print(response.choices[0].message.content)Urso Base (30B MoE)
O modelo principal da API, equilibrando qualidade e custo. Usa arquitetura MoE com 30B de parametros totais e 6B ativos por inferencia.
- Parâmetros totais: 30B
- Parâmetros ativos: 6B
- Contexto: 128K tokens
- Multimodal: Sim (imagens, documentos, audio)
- Model ID:
urso-base - Think variant:
urso-base-think
Ideal para uso geral: chat, sumarizacao, analise de documentos, geracao de conteudo e function calling.
response = client.chat.completions.create(
model="urso-base",
messages=[
{"role": "system", "content": "Voce e um assistente juridico brasileiro."},
{"role": "user", "content": "Explique os direitos do consumidor no CDC."}
],
temperature=0.7,
max_tokens=2048
)import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.polar-ai.com/v1",
apiKey: "pk-sua-chave-aqui",
});
const response = await client.chat.completions.create({
model: "urso-base",
messages: [
{ role: "user", content: "Quais sao os principios da LGPD?" },
],
});
console.log(response.choices[0].message.content);Urso Pro (70B MoE)
Modelo enterprise de alta qualidade, com 70B de parametros totais e 14B ativos. Superior em raciocinio complexo, analise juridica e geracao de codigo.
- Parâmetros totais: 70B
- Parâmetros ativos: 14B
- Contexto: 128K tokens
- Multimodal: Sim
- Model ID:
urso-pro - Think variant:
urso-pro-think
Recomendado para aplicacoes enterprise que exigem alta qualidade: analise de contratos, redacao profissional, codigo complexo.
curl https://api.polar-ai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer pk-sua-chave-aqui" \
-d '{
"model": "urso-pro",
"messages": [
{"role": "user", "content": "Analise as clausulas deste contrato e identifique riscos."}
],
"temperature": 0.3,
"max_tokens": 4096
}'Urso Ultra (200B+ MoE)
O modelo de fronteira da Polar, com mais de 200B de parametros totais e 30B ativos. Maxima qualidade em todas as tarefas.
- Parâmetros totais: 200B+
- Parâmetros ativos: 30B
- Contexto: 128K tokens
- Multimodal: Sim
- Model ID:
urso-ultra - Think variant:
urso-ultra-think
Para tarefas que exigem a mais alta qualidade: pesquisa, raciocinio cientifico, geracao complexa e benchmarks de referencia.
response = client.chat.completions.create(
model="urso-ultra",
messages=[
{"role": "system", "content": "Voce e um pesquisador cientifico."},
{"role": "user", "content": "Analise os resultados deste estudo e proponha hipoteses alternativas."}
],
temperature=0.2,
max_tokens=8192
)Urso Embed
Modelo de embeddings otimizado para portugues brasileiro, com contexto de 8K tokens. Gera vetores densos para busca semantica, clustering e RAG.
- Contexto: 8K tokens
- Dimensoes: 1024
- Model ID:
urso-embed
response = client.embeddings.create(
model="urso-embed",
input=["A LGPD garante o direito a privacidade dos cidadaos brasileiros."]
)
embedding = response.data[0].embedding
print(f"Dimensoes: {len(embedding)}")const response = await client.embeddings.create({
model: "urso-embed",
input: ["Busca semantica em portugues brasileiro."],
});
console.log(response.data[0].embedding.length);Variantes Think
Todos os modelos de chat possuem variantes -think que habilitam raciocinio explicito via cadeia de pensamento (chain-of-thought). O modelo mostra seu raciocinio passo a passo antes de chegar a resposta final.
response = client.chat.completions.create(
model="urso-base-think",
messages=[
{"role": "user", "content": "Se um trem sai de Sao Paulo as 8h a 120km/h e outro sai do Rio as 9h a 150km/h, quando eles se encontram?"}
]
)Os modelos Think sao recomendados para:
- Problemas matematicos e logicos
- Analise de codigo
- Planejamento e decomposicao de tarefas
- Questoes que exigem raciocinio em multiplas etapas
Tabela de Precos
Precos por 1M de tokens em BRL:
| Modelo | Entrada (R$/1M tokens) | Saida (R$/1M tokens) |
|---|---|---|
urso-lite | R$ 0,50 | R$ 1,50 |
urso-lite-think | R$ 0,75 | R$ 2,25 |
urso-base | R$ 2,00 | R$ 6,00 |
urso-base-think | R$ 3,00 | R$ 9,00 |
urso-pro | R$ 6,00 | R$ 18,00 |
urso-pro-think | R$ 9,00 | R$ 27,00 |
urso-ultra | R$ 15,00 | R$ 45,00 |
urso-ultra-think | R$ 22,50 | R$ 67,50 |
urso-embed | R$ 0,25 | — |
IDs dos Modelos
Lista completa de model IDs disponiveis na API:
urso-lite— Lite 3Burso-base— Base 30B MoEurso-pro— Pro 70B MoEurso-ultra— Ultra 200B+ MoEurso-embed— Embeddingsurso-lite-think— Lite 3B com raciociniourso-base-think— Base 30B MoE com raciociniourso-pro-think— Pro 70B MoE com raciociniourso-ultra-think— Ultra 200B+ MoE com raciocinio