o3-mini

Red Neuronal

GPT o3-mini es una red neuronal de OpenAI, lanzada el 31 de enero de 2025. Está orientada a tareas en programación, matemáticas y análisis. Los usuarios obtienen respuestas rápidas y precisas incluso en áreas complejas, ahorrando tiempo y simplificando el proceso de toma de decisiones.

Inicio

/

Modelos

/

o3-mini
100 000

Longitud Máx. de Respuesta

(en tokens)

200 000

Tamaño del Contexto

(en tokens)

1,1 $

Costo de la Solicitud

(por 1M de tokens)

4,4 $

Costo de la Respuesta

(por 1M de tokens)

0 $

Imagen de prompt

(por 1k tokens)

Chat
Proveedores
API
bg
bg-shape
bothub
BotHub: Prueba la IA ahorabot

Caps restantes: 0
Proveedores o3-miniEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Ejemplo de código y API para o3-miniOfrecemos acceso completo a la API de OpenAI a través de nuestro servicio. Todos nuestros puntos finales cumplen completamente con los puntos finales de OpenAI y se pueden usar tanto con complementos como al desarrollar su propio software a través del SDK.Crear clave API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Cómo funciona o3-mini?

Las ventajas clave de GPT o3-mini incluyen una ventana de contexto de 200,000 tokens para diálogos profundos, tres niveles de razonamiento (bajo, medio, alto) y un coste asequible comparado con GPT-4o. En pruebas, el modelo es un 24% más rápido que o1-mini y muestra alta precisión en tareas matemáticas y científicas. Su manejo integrado de estructuras JSON facilita la automatización, y su función de ‘function calling’ simplifica la integración con aplicaciones. En definitiva, los usuarios ahorran recursos, resuelven tareas complejas rápidamente y mejoran la calidad de sus proyectos.