Modelos de rede neural disponíveis

ELITE
Mostrar custo em Caps
Custo em dólares
ModeloComprimento máx. da resposta (em tokens)Tamanho do contexto (em tokens)Custo do prompt (por 1M tokens)Custo da resposta (por 1M tokens)Imagem prompt (por 1k tokens)
gpt-4.5-preview16 384128 00084,38168,750.122
o3-mini-high100 000200 0001,244,950
o3-mini100 000200 0001,244,950
o1100 000200 00016,8867,50.024
o1-mini65 536128 0001,244,950
gpt-4o:extended64 000128 0006,7520,250.008
gpt-4o4 096128 0002,8111,250.004
gpt-4o-mini16 384128 0000,170,680
* Nossa margem sobre esses preços é de 5%, que está incluída no custo dos pacotes exceto Básico (Premium e superior)

Solicitação ao LLM

Custo de uma única solicitação no painel
Todas as tarifas
Tokens usados + 0.01 USDpor 1 solicitação
Atenção: o uso do Easy Writer é cobrado de forma diferente. Para cada geração de texto, o Easy Writer cobra 0.1 USD adicionais por solicitação + o custo dos tokens, conforme especificado acima para uma solicitação normal de LLM.

Geração de Imagens

Custo de uma única geração por modelos
MidJourney — Relax
0,03 USD / 20000 CAPSPor 1 geração
MidJourney — Fast
0,06 USD / 40000 CAPSPor 1 geração
MidJourney — Turbo
0,12 USD / 80000 CAPSPor 1 geração
Dall-E
0,03 USD / 20000 CAPSPor 1 geração
Flux
0,06 USD / 40000 CAPSPor 1 geração
Stable Diffusion
0,04 USD / 26250 CAPSPor 1 geração

Pesquisa na Web

Custo de uma única utilização de pesquisa na web
Todas as tarifas
Tokens usados + 0.01 USDpor 1 solicitação
Análise de Links
100 CapsPor 1000 caracteres

Síntese de Fala

Custo de uma única síntese de fala
TTS
7500 CapsPor 1000 caracteres
TTS HD
15000 CapsPor 1000 caracteres

Transcrição

O custo de uma transcrição
Whisper
3,000 CapsPor 1 minuto
AssemblyAI-nano
2,000 CapsPor 1 minuto
AssemblyAI-best
5,500 CapsPor 1 minuto

Incorporações:

Incorporações de modelos disponíveis através da nossa API.
Custo em CapsCusto em dólares
ModeloDimensão da incorporaçãoCusto do prompt (por 1 token)Custo do prompt (por 100.000 tokens)
text-embedding-3-largeO modelo de incorporação mais eficiente
3 0720,10,13
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 5360,010,02
text-embedding-ada-002O modelo de incorporação de segunda geração mais poderoso, substituindo 16 modelos de primeira geração
1 5360,070,1
text-embedding-3-largeO modelo de incorporação mais eficiente
3 072Dimensão da incorporação
0,1Custo do prompt (por 100.000 tokens)
0,13Custo do prompt (por 100.000 tokens)
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 536Dimensão da incorporação
0,01Custo do prompt (por 100.000 tokens)
0,02Custo do prompt (por 100.000 tokens)
text-embedding-ada-002O modelo de incorporação de segunda geração mais poderoso, substituindo 16 modelos de primeira geração
1 536Dimensão da incorporação
0,07Custo do prompt (por 100.000 tokens)
0,1Custo do prompt (por 100.000 tokens)

Custo dos Caps

Caps são a moeda interna do serviço. O custo de todos os modelos é medido em caps. Para modelos mais baratos, o custo de um token é aproximadamente igual a um cap, enquanto para os mais caros pode chegar a várias centenas de caps por token. O preço de um milhão de caps depende da tarifa: tarifas elitistas têm caps a um preço mais baixo do que as básicas.

Ainda tem dúvidas?

Converse conosco no Telegram
O que são tokens?

Tokens são unidades de processamento de texto pela rede neural, representando partes de palavras, palavras inteiras ou sinais de pontuação que determinam o custo das solicitações.

Quanto tempo durará 1 milhão de tokens?

Um milhão de tokens do modelo GPT-4o são suficientes para reescrever 'Os Irmãos Karamazov' de F. M. Dostoiévski.

O que fazer se eu ficar sem tokens?

Adquira Caps adicionais na sua conta pessoal — https://bothub.chat/profile

Por que a rede neural se passa por outra?

A rede neural não sabe que modelo é se não estiver especificado no prompt do sistema. A 'autoidentificação' do modelo sem instrução é influenciada por muitos fatores, um deles sendo o conjunto de dados de treinamento do modelo.

O que é contexto em uma rede neural?

Contexto é a quantidade de informação que a rede neural retém na memória durante um diálogo, afetando a coerência das respostas e a compreensão das solicitações anteriores.

Qual é o contexto dos diferentes modelos de redes neurais?

GPT o1 Pro e Claude 3.7 Sonnet suportam até 200K tokens, Gemini 2.5 Pro trabalha com 1KK, enquanto Gemini 2.0 Pro suporta até 2KK tokens.

Quais formatos de arquivos os modelos leem?

Redes neurais processam TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, bem como imagens JPG, PNG e arquivos de áudio MP3, MP4.

É possível usar redes neurais gratuitamente?

Existem modelos gratuitos com o sufixo ':free' e '-exp' que podem ser usados gratuitamente por meio de uma mini-janela na página principal, assim como na página do modelo.

Em que os modelos de redes neurais diferem uns dos outros?

Os modelos diferem no volume de dados de treinamento, tamanho do contexto, velocidade de processamento, especialização em tarefas específicas e capacidade de trabalhar com conteúdo multimodal.

Como usar modelos via API?

Para integrar modelos em seus aplicativos, você precisa obter uma chave API em sua conta pessoal. Mais detalhes podem ser encontrados aqui: https://bothub.chat/api/documentation/ru.

É possível usar redes neurais para automatizar processos empresariais?

Redes neurais automatizam efetivamente tarefas rotineiras de gestão documental, processamento de dados, suporte ao cliente e análise, integrando-se com sistemas empresariais existentes via API.