o3-mini

Rede Neural

GPT o3-mini é uma rede neural da OpenAI, lançada em 31 de janeiro de 2025. Ela é voltada para tarefas nas áreas de programação, matemática e análise. Os usuários obtêm respostas rápidas e precisas, mesmo em áreas complexas, economizando tempo e simplificando o processo de tomada de decisão.

100 000

Comprimento máximo de resposta

(em tokens)

200 000

Tamanho do contexto

(em tokens)

1,1 $

Custo do prompt

(por 1M tokens)

4,4 $

Custo da resposta

(por 1M tokens)

0 $

Prompt de imagem

(por 1K tokens)

Visão geral
Provedores
API
bothub
BotHub: Experimente o chat GPT grátisbot

Caps restantes: 0 CAPS
Provedores o3-miniNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Exemplo de código e API para o3-miniOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Como funciona o3-mini?

As principais vantagens do GPT o3-mini incluem uma janela de contexto de 200 mil tokens para diálogos profundos, três níveis de raciocínio (baixo, médio, alto) e um custo acessível em comparação com o GPT-4o. Em testes, o modelo é 24% mais rápido que o o1-mini e demonstra alta precisão em tarefas matemáticas e científicas. Seu manuseio integrado de estruturas JSON facilita a automação, e o recurso de ‘function calling’ simplifica a integração com aplicativos. No final, os usuários economizam recursos, solucionam problemas complexos rapidamente e aumentam a qualidade de seus projetos.