o3-mini

Rede Neural

GPT o3-mini é uma rede neural da OpenAI, lançada em 31 de janeiro de 2025. Ela é voltada para tarefas nas áreas de programação, matemática e análise. Os usuários obtêm respostas rápidas e precisas, mesmo em áreas complexas, economizando tempo e simplificando o processo de tomada de decisão.

100 000

Comprimento máximo de resposta

(em tokens)

200 000

Tamanho do contexto

(em tokens)

1,24 $

Custo do prompt

(por 1M tokens)

4,95 $

Custo da resposta

(por 1M tokens)

0 $

Prompt de imagem

(por 1K tokens)

*Preços ao usar a API.
Overview
Providers
API
bothub
BotHub: Try chat GPT for freebot

Caps remaining: 0 CAPS
Provedores o3-miniNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Code example and API for o3-miniWe offer full access to the OpenAI API through our service. All our endpoints fully comply with OpenAI endpoints and can be used both with plugins and when developing your own software through the SDK.Create API key
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://openai.bothub.chat/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Como funciona o3-mini?

As principais vantagens do GPT o3-mini incluem uma janela de contexto de 200 mil tokens para diálogos profundos, três níveis de raciocínio (baixo, médio, alto) e um custo acessível em comparação com o GPT-4o. Em testes, o modelo é 24% mais rápido que o o1-mini e demonstra alta precisão em tarefas matemáticas e científicas. Seu manuseio integrado de estruturas JSON facilita a automação, e o recurso de ‘function calling’ simplifica a integração com aplicativos. No final, os usuários economizam recursos, solucionam problemas complexos rapidamente e aumentam a qualidade de seus projetos.