o1-mini

Red Neuronal

GPT o1 mini es una red neuronal flexible y rápida, diseñada específicamente para tareas de matemáticas y programación. Funciona de manera excelente en entornos con recursos limitados, acelerando el análisis de datos y la automatización de procesos. Gracias a su capacidad para procesar consultas de forma ágil, el modelo es adecuado para aplicaciones móviles y sistemas donde la baja latencia es crucial.

Inicio

/

Modelos

/

o1-mini
65 536

Longitud Máx. de Respuesta

(en tokens)

128 000

Tamaño del Contexto

(en tokens)

1,1 $

Costo de la Solicitud

(por 1M de tokens)

4,4 $

Costo de la Respuesta

(por 1M de tokens)

0 $

Imagen de prompt

(por 1k tokens)

Chat
Fournisseurs
API
bg
bg-shape
bothub
BotHub: Essayez l'IA maintenantbot

Caps restants : 0
Proveedores o1-miniEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Exemple de code et API pour o1-miniNous offrons un accès complet à l'API OpenAI via notre service. Tous nos points de terminaison sont entièrement conformes aux points de terminaison OpenAI et peuvent être utilisés avec des plugins ainsi que lors du développement de votre propre logiciel via le SDK.Créer une clé API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o1-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o1-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Cómo funciona o1-mini?

Entre sus principales ventajas se encuentran la baja latencia en el procesamiento y su versatilidad: GPT o1 mini es un 80% más barato que la versión o1-preview, lo que lo hace especialmente atractivo para startups y empresas con presupuesto limitado. El modelo facilita la integración en sistemas existentes, acelera la resolución de tareas matemáticas y de ingeniería, y garantiza un acceso rápido incluso bajo alta carga.