llama-3.2-3b-instruct
Red Neuronal
Bip-bup, escribiendo texto para ti...



16 384
Longitud Máx. de Respuesta
(en tokens)
131 072
Tamaño del Contexto
(en tokens)
0,02 $
Costo de la Solicitud
(por 1M de tokens)
0,02 $
Costo de la Respuesta
(por 1M de tokens)
0 $
Imagen de prompt
(por 1k tokens)

BotHub: Попробуйте ИИ прямо сейчасbot
Proveedores llama-3.2-3b-instructEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Пример кода и API для llama-3.2-3b-instructМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: '<your bothub access token>',
baseURL: 'https://bothub.chat/api/v2/openai/v1'
});
// Sync - Text generation
async function main() {
const chatCompletion = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.2-3b-instruct',
});
}
// Async - Text generation
async function main() {
const stream = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'llama-3.2-3b-instruct',
stream: true
});
for await (const chunk of stream) {
const part: string | null = chunk.choices[0].delta?.content ?? null;
}
}
main();
Cómo funciona llama-3.2-3b-instruct?
Los bothubs recopilan información...