qwen2.5-vl-32b-instruct

Rede Neural

Bip-bup, escrevendo texto para você...
pc1pc2pc3pc4
Inicial

/

Modelos

/

qwen2.5-vl-32b-instruct
16 384

Comprimento Máx. da Resposta

(em tokens)

128 000

Tamanho do Contexto

(em tokens)

0,04 $

Custo do Prompt

(por 1M de tokens)

0,14 $

Custo da Resposta

(por 1M de tokens)

0 $

Imagem prompt

(por 1K de tokens)

Чат
Провайдеры
API
bg
bg-shape
bothub
BotHub: Попробуйте ИИ прямо сейчасbot

Осталось Caps: 0
Provedores qwen2.5-vl-32b-instructNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Пример кода и API для qwen2.5-vl-32b-instructМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'qwen2.5-vl-32b-instruct',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'qwen2.5-vl-32b-instruct',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();

Como funciona qwen2.5-vl-32b-instruct?

Os bothubs coletam informações...empty