llama-3.2-3b-instruct

Réseau Neuronal

Bip-bup, écriture de texte pour vous...
pc1pc2pc3pc4
Accueil

/

Modèles

/

llama-3.2-3b-instruct
16 384

Longueur Max. de Réponse

(en jetons)

131 072

Taille du Contexte

(en jetons)

0,02 $

Coût de l'Invite

(par 1M de jetons)

0,02 $

Coût de la Réponse

(par 1M de jetons)

0 $

Image prompt

(por 1K de jetons)

Чат
Провайдеры
API
bg
bg-shape
bothub
BotHub: Попробуйте ИИ прямо сейчасbot

Осталось Caps: 0
Fournisseurs llama-3.2-3b-instructSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
Пример кода и API для llama-3.2-3b-instructМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'llama-3.2-3b-instruct',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'llama-3.2-3b-instruct',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();

Comment ça marche llama-3.2-3b-instruct?

Les bothubs recueillent des informations...empty