llama-3.1-lumimaid-8b
Réseau Neuronal
Bip-bup, écriture de texte pour vous...



10 813
Longueur Max. de Réponse
(en jetons)
131 072
Taille du Contexte
(en jetons)
0,09 $
Coût de l'Invite
(par 1M de jetons)
0,6 $
Coût de la Réponse
(par 1M de jetons)
0 $
Image prompt
(por 1K de jetons)

BotHub: Experimente IA agorabot
Fournisseurs llama-3.1-lumimaid-8bSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Exemplo de código e API para llama-3.1-lumimaid-8bOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: '<your bothub access token>',
baseURL: 'https://bothub.chat/api/v2/openai/v1'
});
// Sync - Text generation
async function main() {
const chatCompletion = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.1-lumimaid-8b',
});
}
// Async - Text generation
async function main() {
const stream = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.1-lumimaid-8b',
stream: true
});
for await (const chunk of stream) {
const part: string | null = chunk.choices[0].delta?.content ?? null;
}
}
main();
Comment ça marche llama-3.1-lumimaid-8b?
Les bothubs recueillent des informations...