llama-3.2-1b-instruct
Rede Neural
Bip-bup, escrevendo texto para você...



16 384
Comprimento Máx. da Resposta
(em tokens)
131 072
Tamanho do Contexto
(em tokens)
0,01 $
Custo do Prompt
(por 1M de tokens)
0,01 $
Custo da Resposta
(por 1M de tokens)
0 $
Imagem prompt
(por 1K de tokens)

BotHub: Experimente IA agorabot
Provedores llama-3.2-1b-instructNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Exemplo de código e API para llama-3.2-1b-instructOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: '<your bothub access token>',
baseURL: 'https://bothub.chat/api/v2/openai/v1'
});
// Sync - Text generation
async function main() {
const chatCompletion = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.2-1b-instruct',
});
}
// Async - Text generation
async function main() {
const stream = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.2-1b-instruct',
stream: true
});
for await (const chunk of stream) {
const part: string | null = chunk.choices[0].delta?.content ?? null;
}
}
main();
Como funciona llama-3.2-1b-instruct?
Os bothubs coletam informações...