gpt-4o

Réseau Neuronal

GPT-4o est un modèle multimodal développé par OpenAI, lancé en mai 2024. Il traite avec aisance les textes, images et audio, en répondant en temps réel à une grande variété de demandes des utilisateurs.

4 096

Longueur Max. de Réponse

(en jetons)

128 000

Taille du Contexte

(en jetons)

1,33 $

Coût de l'Invite

(par 1M de jetons)

1,33 $

Coût de la Réponse

(par 1M de jetons)

0 $

Image prompt

(por 1K de jetons)

Chat
Fournisseurs
API
bg
bg-shape
bothub
BotHub: Essayez l'IA maintenantbot

Caps restants : 0
Fournisseurs gpt-4oSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Exemple de code et API pour gpt-4oNous offrons un accès complet à l'API OpenAI via notre service. Tous nos points de terminaison sont entièrement conformes aux points de terminaison OpenAI et peuvent être utilisés avec des plugins ainsi que lors du développement de votre propre logiciel via le SDK.Créer une clé API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Comment ça marche gpt-4o?

Parmi ses principaux atouts figurent une grande rapidité de réponse (en moyenne 320 ms) et une limite de requêtes cinq fois supérieure à celle des versions antérieures, ainsi qu’une performance doublée et un coût inférieur de 50 % comparé au GPT-4 Turbo. Le modèle supporte plus de 50 langues, dont le français, et offre une fenêtre contextuelle de 128 000 tokens, pratique pour de grands projets, tandis que sa multimodalité permet de travailler à la fois avec des images et de l’audio.