cogito-v2-preview-llama-109b-moe

Réseau Neuronal

Bip-bup, écriture de texte pour vous...
pc1pc2pc3pc4
Accueil

/

Modèles

/

cogito-v2-preview-llama-109b-moe
10 813

Longueur maximale de la réponse

(en tokens)

32 767

Taille du contexte

(en tokens)

0,18 $

Coût du prompt

(par 1M tokens)

0,59 $

Coût de la réponse

(par 1M tokens)

0 $

Invite d'image

(par 1K tokens)

Шолу
Провайдерлер
API
bothub
BotHub: GPT чатын тегін сынап көріңізбот

Caps қалды: 0 CAPS
Fournisseurs cogito-v2-preview-llama-109b-moeSur Bothub, vous pouvez choisir vous-même les fournisseurs pour les requêtes. Si vous n'avez pas fait de choix, nous trouverons automatiquement des fournisseurs adaptés capables de gérer la taille et les paramètres de votre demande.
cogito-v2-preview-llama-109b-moe үшін API және код үлгісіБіз OpenAI API-іне толық қолжетімділікті ұсынамыз. Біздің барлық соңғы нүктелер OpenAI-мен толық сәйкес келеді, оларды плагиндермен де, SDK арқылы өз бағдарламаңызды әзірлегенде де қолдануға болады.API кілтін жасау
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'cogito-v2-preview-llama-109b-moe',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'cogito-v2-preview-llama-109b-moe',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();

Comment ça marche cogito-v2-preview-llama-109b-moe?

Les bothubs recueillent des informations...empty