128 000
Longueur maximale de la réponse
(en tokens)
1 050 000
Taille du contexte
(en tokens)
33,75 $
Coût du prompt
(par 1M tokens)
202,5 $
Coût de la réponse
(par 1M tokens)
0 $
Invite d'image
(par 1K tokens)
BotHub: Try chat GPT for freebot
Fournisseurs gpt-5.4-proSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Code example and API for gpt-5.4-proWe offer full access to the OpenAI API through our service. All our endpoints fully comply with OpenAI endpoints and can be used both with plugins and when developing your own software through the SDK.Create API key
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: '<your bothub access token>',
baseURL: 'https://bothub.chat/api/v2/openai/v1'
});
// Sync - Text generation
async function main() {
const chatCompletion = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'gpt-5.4-pro',
});
}
// Async - Text generation
async function main() {
const stream = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'gpt-5.4-pro',
stream: true
});
for await (const chunk of stream) {
const part: string | null = chunk.choices[0].delta?.content ?? null;
}
}
main();
Comment ça marche gpt-5.4-pro?
Les bothubs recueillent des informations...