o3-mini

Red Neuronal

GPT o3-mini es una red neuronal de OpenAI, lanzada el 31 de enero de 2025. Está orientada a tareas en programación, matemáticas y análisis. Los usuarios obtienen respuestas rápidas y precisas incluso en áreas complejas, ahorrando tiempo y simplificando el proceso de toma de decisiones.

Inicio

/

Modelos

/

o3-mini
100 000

Longitud máxima de respuesta

(en tokens)

200 000

Tamaño del contexto

(en tokens)

1,1 $

Costo del prompt

(por 1M tokens)

4,4 $

Costo de la respuesta

(por 1M tokens)

0 $

Prompt de imagen

(por 1K tokens)

Шолу
Провайдерлер
API
bothub
BotHub: GPT чатын тегін сынап көріңізбот

Caps қалды: 0 CAPS
Proveedores o3-miniEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
o3-mini үшін API және код үлгісіБіз OpenAI API-іне толық қолжетімділікті ұсынамыз. Біздің барлық соңғы нүктелер OpenAI-мен толық сәйкес келеді, оларды плагиндермен де, SDK арқылы өз бағдарламаңызды әзірлегенде де қолдануға болады.API кілтін жасау
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Cómo funciona o3-mini?

Las ventajas clave de GPT o3-mini incluyen una ventana de contexto de 200,000 tokens para diálogos profundos, tres niveles de razonamiento (bajo, medio, alto) y un coste asequible comparado con GPT-4o. En pruebas, el modelo es un 24% más rápido que o1-mini y muestra alta precisión en tareas matemáticas y científicas. Su manejo integrado de estructuras JSON facilita la automatización, y su función de ‘function calling’ simplifica la integración con aplicaciones. En definitiva, los usuarios ahorran recursos, resuelven tareas complejas rápidamente y mejoran la calidad de sus proyectos.