gpt-4o-mini

Rede Neural

GPT-4o mini é uma ferramenta prática para processar textos e imagens, permitindo obter respostas precisas rapidamente e economizar recursos. O modelo foi criado para tarefas operacionais, como análises breves, geração de conteúdo, classificação básica e descrições simples. Graças à otimização de seu tamanho e custo, o GPT-4o mini atende às necessidades diárias dos usuários sem sobrecarregar o orçamento.

Inicial

/

Modelos

/

gpt-4o-mini
16 384

Comprimento Máx. da Resposta

(em tokens)

128 000

Tamanho do Contexto

(em tokens)

0,15 $

Custo do Prompt

(por 1M de tokens)

0,6 $

Custo da Resposta

(por 1M de tokens)

0 $

Imagem prompt

(por 1K de tokens)

Chat
Provedores
API
bg
bg-shape
bothub
BotHub: Experimente IA agorabot

Caps restantes: 0
Provedores gpt-4o-miniNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Exemplo de código e API para gpt-4o-miniOferecemos acesso completo à API OpenAI através do nosso serviço. Todos os nossos endpoints estão totalmente em conformidade com os endpoints OpenAI e podem ser usados tanto com plugins quanto ao desenvolver seu próprio software através do SDK.Criar chave API
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Como funciona gpt-4o-mini?

A principal vantagem do GPT-4o mini é seu baixo custo: 0,15 dólar por milhão de tokens de entrada e 0,60 dólar por milhão de tokens de saída (detalhes, descrição). Sua ampla janela de contexto (128 mil tokens) permite ao modelo entender melhor as consultas e gerar respostas completas com até 16.400 tokens de uma vez. No teste MMLU (5-shot), o GPT-4o mini alcança 82% enquanto trabalha com dados de entrada multimodais. Com uma velocidade de 85,2 tokens por segundo, você pode realizar tarefas cotidianas sem perder tempo nem qualidade.