gpt-4o-mini

Rede Neural

GPT-4o mini é uma ferramenta prática para processar textos e imagens, permitindo obter respostas precisas rapidamente e economizar recursos. O modelo foi criado para tarefas operacionais, como análises breves, geração de conteúdo, classificação básica e descrições simples. Graças à otimização de seu tamanho e custo, o GPT-4o mini atende às necessidades diárias dos usuários sem sobrecarregar o orçamento.

Inicial

/

Modelos

/

gpt-4o-mini
16 384

Comprimento máximo de resposta

(em tokens)

128 000

Tamanho do contexto

(em tokens)

0,17 $

Custo do prompt

(por 1M tokens)

0,68 $

Custo da resposta

(por 1M tokens)

0 $

Prompt de imagem

(por 1K tokens)

*Preços ao usar a API.
Overview
Providers
API
bothub
BotHub: Try chat GPT for freebot

Caps remaining: 0 CAPS
Provedores gpt-4o-miniNo Bothub você pode escolher seus próprios provedores para as solicitações. Se você não fez uma escolha, encontraremos automaticamente provedores adequados que possam lidar com o tamanho e os parâmetros de sua solicitação.
Code example and API for gpt-4o-miniWe offer full access to the OpenAI API through our service. All our endpoints fully comply with OpenAI endpoints and can be used both with plugins and when developing your own software through the SDK.Create API key
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://openai.bothub.chat/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'gpt-4o-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Como funciona gpt-4o-mini?

A principal vantagem do GPT-4o mini é seu baixo custo: 0,15 dólar por milhão de tokens de entrada e 0,60 dólar por milhão de tokens de saída (detalhes, descrição). Sua ampla janela de contexto (128 mil tokens) permite ao modelo entender melhor as consultas e gerar respostas completas com até 16.400 tokens de uma vez. No teste MMLU (5-shot), o GPT-4o mini alcança 82% enquanto trabalha com dados de entrada multimodais. Com uma velocidade de 85,2 tokens por segundo, você pode realizar tarefas cotidianas sem perder tempo nem qualidade.