mistral-small-3.2-24b-instruct

Red Neuronal

Bip-bup, escribiendo texto para ti...
pc1pc2pc3pc4
Inicio

/

Modelos

/

mistral-small-3.2-24b-instruct
131 072

Longitud máxima de respuesta

(en tokens)

32 768

Tamaño del contexto

(en tokens)

0,06 $

Costo del prompt

(por 1M tokens)

0,18 $

Costo de la respuesta

(por 1M tokens)

0 $

Prompt de imagen

(por 1K tokens)

Visão geral
Provedores
API
bothub
BotHub: Experimente o chat GPT grátisbot

Caps restantes: 0 CAPS
Proveedores mistral-small-3.2-24b-instructEn Bothub puedes elegir tus propios proveedores para las solicitudes. Si no has hecho una selección, encontraremos automáticamente proveedores adecuados que puedan manejar el tamaño y los parámetros de tu solicitud.
Exemplo de código e API para mistral-small-3.2-24b-instructOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'mistral-small-3.2-24b-instruct',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'mistral-small-3.2-24b-instruct',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();

Cómo funciona mistral-small-3.2-24b-instruct?

Los bothubs recopilan información...empty