mistral-small-3.2-24b-instruct
Red Neuronal
Bip-bup, escribiendo texto para ti...



131 072
Longitud máxima de respuesta
(en tokens)
32 768
Tamaño del contexto
(en tokens)
0,06 $
Costo del prompt
(por 1M tokens)
0,18 $
Costo de la respuesta
(por 1M tokens)
0 $
Prompt de imagen
(por 1K tokens)
BotHub: Experimente o chat GPT grátisbot
Proveedores mistral-small-3.2-24b-instructEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Exemplo de código e API para mistral-small-3.2-24b-instructOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: '<your bothub access token>',
baseURL: 'https://bothub.chat/api/v2/openai/v1'
});
// Sync - Text generation
async function main() {
const chatCompletion = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'mistral-small-3.2-24b-instruct',
});
}
// Async - Text generation
async function main() {
const stream = await openai.chat.completions.create({
messages: [{ role: 'user', content: 'Say this is a test' }],
model: 'mistral-small-3.2-24b-instruct',
stream: true
});
for await (const chunk of stream) {
const part: string | null = chunk.choices[0].delta?.content ?? null;
}
}
main();
Cómo funciona mistral-small-3.2-24b-instruct?
Los bothubs recopilan información...