o1-mini

Réseau Neuronal

GPT o1 mini est un réseau neuronal flexible et rapide, conçu spécialement pour les tâches mathématiques et de codage. Il fonctionne parfaitement dans des environnements aux ressources limitées, accélérant l’analyse des données et l’automatisation des processus. Grâce à sa capacité de traiter rapidement les requêtes, le modèle est adapté aux applications mobiles et aux systèmes où la faible latence est essentielle.

65 536

Longueur Max. de Réponse

(en jetons)

128 000

Taille du Contexte

(en jetons)

1,1 $

Coût de l'Invite

(par 1M de jetons)

4,4 $

Coût de la Réponse

(par 1M de jetons)

0 $

Image prompt

(por 1K de jetons)

Chat
Fournisseurs
API
bg
bg-shape
bothub
BotHub: Essayez l'IA maintenantbot

Caps restants : 0
Fournisseurs o1-miniSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Exemple de code et API pour o1-miniNous offrons un accès complet à l'API OpenAI via notre service. Tous nos points de terminaison sont entièrement conformes aux points de terminaison OpenAI et peuvent être utilisés avec des plugins ainsi que lors du développement de votre propre logiciel via le SDK.Créer une clé API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o1-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o1-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Comment ça marche o1-mini?

Parmi ses principaux avantages figurent une faible latence de traitement et sa polyvalence : GPT o1 mini coûte 80 % de moins que la version o1-preview, ce qui le rend particulièrement attractif pour les startups et les entreprises à budget limité. Le modèle facilite son intégration dans les systèmes existants, accélère la résolution des tâches mathématiques et d’ingénierie, et assure un accès rapide même en période de forte charge.