o3-mini

Red Neuronal

GPT o3-mini es una red neuronal de OpenAI, lanzada el 31 de enero de 2025. Está orientada a tareas en programación, matemáticas y análisis. Los usuarios obtienen respuestas rápidas y precisas incluso en áreas complejas, ahorrando tiempo y simplificando el proceso de toma de decisiones.

Inicio

/

Modelos

/

o3-mini
100 000

Longitud máxima de respuesta

(en tokens)

200 000

Tamaño del contexto

(en tokens)

1,24 $

Costo del prompt

(por 1M tokens)

4,95 $

Costo de la respuesta

(por 1M tokens)

0 $

Prompt de imagen

(por 1K tokens)

*Precios al usar la API.
Aperçu
Fournisseurs
API
bothub
BotHub : Essayez le chat GPT gratuitementbot

Caps restants : 0 CAPS
Proveedores o3-miniEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Exemple de code et API pour o3-miniNous offrons un accès complet à l'API OpenAI via notre service. Tous nos points de terminaison sont entièrement conformes aux points de terminaison OpenAI et peuvent être utilisés avec des plugins ainsi que lors du développement de votre propre logiciel via le SDK.Créer une clé API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Cómo funciona o3-mini?

Las ventajas clave de GPT o3-mini incluyen una ventana de contexto de 200,000 tokens para diálogos profundos, tres niveles de razonamiento (bajo, medio, alto) y un coste asequible comparado con GPT-4o. En pruebas, el modelo es un 24% más rápido que o1-mini y muestra alta precisión en tareas matemáticas y científicas. Su manejo integrado de estructuras JSON facilita la automatización, y su función de ‘function calling’ simplifica la integración con aplicaciones. En definitiva, los usuarios ahorran recursos, resuelven tareas complejas rápidamente y mejoran la calidad de sus proyectos.