O melhor da semana

models-page.best-models.alt-title

Claude Sonnet 4.6
Claude Sonnet 4.6
Modelo universal «velocidade + inteligência», otimizado para desenvolvimento do dia a dia, programação agéntica e automação — da escrita e edição de código ao trabalho com ferramentas e contextos longos. O Claude Sonnet 4.6 é frequentemente escolhido como «cavalo de batalha» das equipas: ajuda a concluir tarefas mais depressa, segue melhor as instruções e é adequado para cenários profissionais em grande escala (incluindo 1M de tokens em beta via API).
Nano Banana 2
Nano Banana 2
Nano Banana 2 (Gemini 3.1 Flash Image) é um modelo de geração de imagens do Google com Search Grounding para resultados precisos em até 4K. Gera texto legível em qualquer idioma, mantém até 5 personagens consistentes e é 2x mais rápido que a versão Pro.
Veo 3.1
Veo 3.1
Veo 3.1 do Google DeepMind é um gerador de vídeo em até 4K com som e diálogos nativos. Cria clipes de 8 segundos com física realista, controle de quadros e imagens de referência nos formatos 16:9 e 9:16.
GPT-5.2
GPT-5.2
GPT-5.2 é um modelo de linguagem da OpenAI com três modos (Instant, Thinking, Pro) e janela de contexto de 400K tokens. Entrega 38% menos erros, melhor desempenho em código e tarefas STEM e conhecimento atualizado até agosto de 2025.
Flux-2
Flux-2
Flux-2 da Black Forest Labs é um gerador de imagens fotorrealistas em até 4K com suporte para 10 referências simultâneas. Oferece tipografia precisa, 32B parâmetros e pesos abertos da versão Dev, ocupando o primeiro lugar no ranking Image Arena.
Gemini 3.1 Pro Preview
Gemini 3.1 Pro Preview
Modelo multimodal avançado do Google com acesso antecipado à nova geração. Funciona nativamente com texto, imagens e áudio — «vê», «ouve» e analisa conteúdo. Ferramenta universal para desenvolvedores e negócios.
models-page.best-models.link

Modelos de rede neural disponíveis

Tarifa
ELITE
Produto
APIPainel
Moeda
USDCAPS
Custo em dólares
ModeloTamanho do contexto (em tokens)Tamanho da saída (em tokens)Prompt (por 1M tokens)Prompt de imagem (por 1k tokens)Resposta (por 1M tokens)
400 000128 0001,97015,75
400 000128 0001,41011,25
400 000128 00016,880135
1 047 5764 0961,50.0021,5
1 050 000128 0002,81016,88
400 000128 00011,25011,25
4 095100 00011,25045
400 000128 0001,41011,25
* Nossa margem sobre esses preços é de 5%, que está incluída no custo dos pacotes exceto Básico (Premium e superior)

Solicitação ao LLM

Custo de uma única solicitação no painel
Todas as tarifas
Tokens usados + 0.01 $por 1 solicitação
Atenção: o uso do Easy Writer é cobrado de forma diferente. Para cada geração de texto, o Easy Writer cobra 0.1 $ adicionais por solicitação + o custo dos tokens, conforme especificado acima para uma solicitação normal de LLM.

Geração de Imagens

Custo de uma única geração por modelos
MidJourney — Relax
26 000 CAPS / 0,04 $ Por 1 geração
MidJourney — Fast
52 000 CAPS / 0,08 $ Por 1 geração
MidJourney — Turbo
104 000 CAPS / 0,16 $ Por 1 geração
Dall-E
33 000 CAPS / 0,05 $ Por 1 geração
Flux
1 666 CAPS / 0 $ Por 1 geração
Stable Diffusion
39 375 CAPS / 0,06 $ Por 1 geração
GPT Image - Square
8 160 CAPS / 0,01 $ Por 1 geração
GPT Image - Portrait
12 240 CAPS / 0,02 $ Por 1 geração
GPT Image - Landscape
12 000 CAPS / 0,02 $ Por 1 geração

Pesquisa na Web

Custo de uma única utilização de pesquisa na web
Todas as tarifas
Tokens usados + 0.01 $por 1 solicitação
Análise de Links
0,01 Capspor 1 caractere

Geração de vídeo

Custo de criação de um segundo de vídeo
GoogleVeo
450 000 Caps / 0.68 $por 1 segundo
Runway
30 000 Caps / 0.04 $por 1 segundo
Para geração de vídeo em qualidade 1080p usando veo-3, é adicionada uma taxa adicional de +20%

Síntese de Fala

Custo de uma síntese de fala
TTS
11 250 Caps / 0.02 $por 1 000 caracteres
TTS HD
27 225 Caps / 0.04 $por 1 000 caracteres

Transcrição

O custo de uma transcrição
AssemblyAI — nano
2 000 Caps / 0.003 $Por 1 minuto
AssemblyAI — best
5 500 Caps / 0.008 $Por 1 minuto
Uma sobretaxa fixa em todas as solicitações: $0.05 por solicitação, $0.10 por arquivos acima de 50 MB, $0.50 por arquivos acima de 500 MB

Incorporações:

Incorporações de modelos disponíveis através da nossa API.
Custo em CapsCusto em dólares
ModeloDimensão da incorporaçãoCusto do prompt (por 1 token)Custo do prompt (por 100.000 tokens)
text-embedding-3-largeO modelo de incorporação mais eficiente
3 0720,120,16
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 5360,020,02
text-embedding-ada-002-2models-page.additional-costs.embedding.text-embedding-ada-002-2
15 00020 000
text-embedding-3-largeO modelo de incorporação mais eficiente
3 072Dimensão da incorporação
0,12Custo do prompt (por 100.000 tokens)
0,16Custo do prompt (por 100.000 tokens)
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 536Dimensão da incorporação
0,02Custo do prompt (por 100.000 tokens)
0,02Custo do prompt (por 100.000 tokens)
text-embedding-ada-002-2models-page.additional-costs.embedding.text-embedding-ada-002-2
Dimensão da incorporação
15 000Custo do prompt (por 100.000 tokens)
20 000Custo do prompt (por 100.000 tokens)

O que são os Caps?

Os Caps são a moeda interna do serviço, usada para medir o custo das solicitações e respostas das redes neurais. É fixa e depende da complexidade do modelo: número de parâmetros, multimodalidade e poder total.

    Por exemplo:
  • ChatGPT-3.5 — ~1 Cap por token
  • ChatGPT o1-Pro — ~400+ Caps por token
Quanto mais alto for o seu plano, melhor será o preço: 1 milhão de Caps é mais barato no Elite do que no Basic.

Ainda tem dúvidas?

O que são tokens?

Tokens são unidades de processamento de texto pela rede neural, representando partes de palavras, palavras inteiras ou sinais de pontuação que determinam o custo das solicitações.

Quanto tempo durará 1 milhão de tokens?

Um milhão de tokens do modelo GPT-4o são suficientes para reescrever 'Os Irmãos Karamazov' de F. M. Dostoiévski.

O que fazer se eu ficar sem tokens?

Adquira Caps adicionais na sua conta pessoal — https://bothub.chat/profile

Por que a rede neural se passa por outra?

A rede neural não sabe que modelo é se não estiver especificado no prompt do sistema. A 'autoidentificação' do modelo sem instrução é influenciada por muitos fatores, um deles sendo o conjunto de dados de treinamento do modelo.

O que é contexto em uma rede neural?

Contexto é a quantidade de informação que a rede neural retém na memória durante um diálogo, afetando a coerência das respostas e a compreensão das solicitações anteriores.

Qual é o contexto dos diferentes modelos de redes neurais?

GPT o1 Pro e Claude 3.7 Sonnet suportam até 200K tokens, Gemini 2.5 Pro trabalha com 1KK, enquanto Gemini 2.0 Pro suporta até 2KK tokens.

Quais formatos de arquivos os modelos leem?

Redes neurais processam TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, bem como imagens JPG, PNG e arquivos de áudio MP3, MP4.

É possível usar redes neurais gratuitamente?

Existem modelos gratuitos com o sufixo ':free' e '-exp' que podem ser usados gratuitamente por meio de uma mini-janela na página principal, assim como na página do modelo.

Em que os modelos de redes neurais diferem uns dos outros?

Os modelos diferem no volume de dados de treinamento, tamanho do contexto, velocidade de processamento, especialização em tarefas específicas e capacidade de trabalhar com conteúdo multimodal.

Como usar modelos via API?

Para integrar modelos em seus aplicativos, você precisa obter uma chave API em sua conta pessoal. Mais detalhes podem ser encontrados aqui: https://bothub.chat/api/documentation/ru.

É possível usar redes neurais para automatizar processos empresariais?

Redes neurais automatizam efetivamente tarefas rotineiras de gestão documental, processamento de dados, suporte ao cliente e análise, integrando-se com sistemas empresariais existentes via API.

Serviço de SuporteAberto das 07:00 às 12:00
Modelos de rede neural disponíveis :: BotHub