o3-mini

Red Neuronal

GPT o3-mini es una red neuronal de OpenAI, lanzada el 31 de enero de 2025. Está orientada a tareas en programación, matemáticas y análisis. Los usuarios obtienen respuestas rápidas y precisas incluso en áreas complejas, ahorrando tiempo y simplificando el proceso de toma de decisiones.

Inicio

/

Modelos

/

o3-mini
100 000

Longitud máxima de respuesta

(en tokens)

200 000

Tamaño del contexto

(en tokens)

1,24 $

Costo del prompt

(por 1M tokens)

4,95 $

Costo de la respuesta

(por 1M tokens)

0 $

Prompt de imagen

(por 1K tokens)

*Precios al usar la API.
Overview
Providers
API
bothub
BotHub: Try chat GPT for freebot

Caps remaining: 0 CAPS
Proveedores o3-miniEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Code example and API for o3-miniWe offer full access to the OpenAI API through our service. All our endpoints fully comply with OpenAI endpoints and can be used both with plugins and when developing your own software through the SDK.Create API key
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://openai.bothub.chat/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Cómo funciona o3-mini?

Las ventajas clave de GPT o3-mini incluyen una ventana de contexto de 200,000 tokens para diálogos profundos, tres niveles de razonamiento (bajo, medio, alto) y un coste asequible comparado con GPT-4o. En pruebas, el modelo es un 24% más rápido que o1-mini y muestra alta precisión en tareas matemáticas y científicas. Su manejo integrado de estructuras JSON facilita la automatización, y su función de ‘function calling’ simplifica la integración con aplicaciones. En definitiva, los usuarios ahorran recursos, resuelven tareas complejas rápidamente y mejoran la calidad de sus proyectos.