gpt-4o-mini

Réseau Neuronal

GPT-4o mini est un outil pratique pour traiter des textes et des images, permettant d’obtenir rapidement des réponses précises tout en économisant des ressources. Le modèle est conçu pour des tâches opérationnelles telles que l’analyse rapide, la génération de contenu, la classification de base et des descriptions simples. Grâce à l’optimisation de sa taille et de son coût, GPT-4o mini répond aux besoins quotidiens des utilisateurs sans alourdir le budget.

Accueil

/

Modèles

/

gpt-4o-mini
16 384

Longueur Max. de Réponse

(en jetons)

128 000

Taille du Contexte

(en jetons)

0,15 $

Coût de l'Invite

(par 1M de jetons)

0,6 $

Coût de la Réponse

(par 1M de jetons)

0 $

Image prompt

(por 1K de jetons)

Чат
Провайдеры
API
bg
bg-shape
bothub
BotHub: Попробуйте ИИ прямо сейчасbot

Осталось Caps: 0
Fournisseurs gpt-4o-miniSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Пример кода и API для gpt-4o-miniМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Comment ça marche gpt-4o-mini?

Le principal avantage de GPT-4o mini est son faible coût : 0,15 dollar par million de tokens en entrée et 0,60 dollar par million de tokens en sortie (détails, description). Sa large fenêtre contextuelle (128 000 tokens) permet au modèle de mieux comprendre les requêtes et de générer des réponses complètes jusqu’à 16 400 tokens à la fois. Lors du test MMLU (5-shot), GPT-4o mini obtient 82 % tout en traitant des données d’entrée multimodales. Avec une vitesse de 85,2 tokens par seconde, il permet d’accomplir des tâches quotidiennes sans perte de temps ni de qualité.