o3-mini

Rede Neural

GPT o3-mini é uma rede neural da OpenAI, lançada em 31 de janeiro de 2025. Ela é voltada para tarefas nas áreas de programação, matemática e análise. Os usuários obtêm respostas rápidas e precisas, mesmo em áreas complexas, economizando tempo e simplificando o processo de tomada de decisão.

100 000

Comprimento máximo de resposta

(em tokens)

200 000

Tamanho do contexto

(em tokens)

1,24 $

Custo do prompt

(por 1M tokens)

4,95 $

Custo da resposta

(por 1M tokens)

0 $

Prompt de imagem

(por 1K tokens)

*Preços ao usar a API.
Aperçu
Fournisseurs
API
bothub
BotHub : Essayez le chat GPT gratuitementbot

Caps restants : 0 CAPS
Provedores o3-miniNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Exemple de code et API pour o3-miniNous offrons un accès complet à l'API OpenAI via notre service. Tous nos points de terminaison sont entièrement conformes aux points de terminaison OpenAI et peuvent être utilisés avec des plugins ainsi que lors du développement de votre propre logiciel via le SDK.Créer une clé API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Como funciona o3-mini?

As principais vantagens do GPT o3-mini incluem uma janela de contexto de 200 mil tokens para diálogos profundos, três níveis de raciocínio (baixo, médio, alto) e um custo acessível em comparação com o GPT-4o. Em testes, o modelo é 24% mais rápido que o o1-mini e demonstra alta precisão em tarefas matemáticas e científicas. Seu manuseio integrado de estruturas JSON facilita a automação, e o recurso de ‘function calling’ simplifica a integração com aplicativos. No final, os usuários economizam recursos, solucionam problemas complexos rapidamente e aumentam a qualidade de seus projetos.