O melhor da semana

Mais modelos de redes neurais no Bothub

Claude-3.7 Sonnet
Claude-3.7 Sonnet
Modelo da Anthropic, proporcionando capacidades aprimoradas de raciocínio e adaptabilidade com o inovador 'modo de pensamento estendido' para escolha flexível entre respostas rápidas e análise profunda. O modelo suporta uma janela de contexto de até 200.000 tokens e uma saída máxima de 128.000 tokens.
o4 Mini High
o4 Mini High
O modelo o4-mini com um alto nível de reasoning_effort para raciocínio minucioso. Combina velocidade e multimodalidade com precisão em tarefas STEM e visuais em um contexto de 200K tokens.
Midjourney v7
Midjourney v7
Gerador de imagens atualizado com detalhes aprimorados, especialmente para pele e cabelo, iluminação e reflexos mais realistas. O modelo cria cenas mais dinâmicas e diversificadas, afastando-se das imagens padrão no estilo de fotos de banco de imagens.
GPT-4.1
GPT-4.1
Modelo para programação e execução precisa de instruções com um contexto de até 1 milhão de tokens. Supera o GPT-4o em codificação (54,6% no SWE-bench) e no seguimento de instruções (melhoria de 10,5%).
Flux-1.1 Pro Ultra
Flux-1.1 Pro Ultra
Versão aprimorada do modelo de geração de imagens com suporte para resolução 4 vezes maior (até 4 MP), mantendo uma velocidade de geração de 10 segundos por imagem. O modelo oferece um 'modo bruto' para criar imagens mais naturais.
Gemini-2.5 Pro Preview
Gemini-2.5 Pro Preview
Modelo do Google capaz de 'pensar' antes de responder para maior precisão e desempenho. Líder na plataforma LMArena com capacidades avançadas em raciocínio, codificação e multimodalidade (texto, áudio, imagens, vídeo).
models-page.best-models.link

Modelos de rede neural disponíveis

ELITE
Mostrar custo em Caps
Custo em Caps
ModeloTamanho do contexto (em tokens)Tamanho da saída (em tokens)Prompt (por 1 token)Prompt de imagem (por 1k token)Resposta (por 1 token)
gpt-4o-mini128 00016 3840,11162,750,45
gpt-4.11 047 57632 7681,506
gpt-4o128 0004 0961,882 709,757,5
gpt-4.1-nano1 047 57632 7680,0700,3
gpt-4.1-mini1 047 57632 7680,301,2
gpt-4.5-preview128 00016 38456,2581 281,25112,5
o4-mini-high200 000100 0000,83631,123,3
o3200 000100 0007,55 737,530
* Nossa margem sobre esses preços é de 5%, que está incluída no custo dos pacotes exceto Básico (Premium e superior)

Solicitação ao LLM

Custo de uma única solicitação no painel
Todas as tarifas
Tokens usados + 0.01 USDpor 1 solicitação
Atenção: o uso do Easy Writer é cobrado de forma diferente. Para cada geração de texto, o Easy Writer cobra 0.1 USD adicionais por solicitação + o custo dos tokens, conforme especificado acima para uma solicitação normal de LLM.

Geração de Imagens

Custo de uma única geração por modelos
MidJourney — Relax
0,03 USD / 20000 CAPSPor 1 geração
MidJourney — Fast
0,06 USD / 40000 CAPSPor 1 geração
MidJourney — Turbo
0,12 USD / 80000 CAPSPor 1 geração
Dall-E
0,03 USD / 20000 CAPSPor 1 geração
Flux
0 USD / 1666 CAPSPor 1 geração
Stable Diffusion
0,04 USD / 26250 CAPSPor 1 geração
GPT Image - Square
0,01 USD / 8160 CAPSPor 1 geração
GPT Image - Portrait
0,02 USD / 12240 CAPSPor 1 geração
GPT Image - Landscape
0,02 USD / 12000 CAPSPor 1 geração

Pesquisa na Web

Custo de uma única utilização de pesquisa na web
Todas as tarifas
Tokens usados + 0.01 USDpor 1 solicitação
Análise de Links
0,01 Capspor 1 caractere

Geração de vídeo

Custo de criação de um segundo de vídeo
GoogleVeo — Veo-2
300000 Caps / 0.45 $por 1 segundo
Runway
150000 Caps / 0.23 $por 1 segundo

Transcrição

Custo da transcrição por minuto
TTS
7,500 Caps / 0.01 $por 1.000 caracteres
TTS HD
15,000 Caps / 0.02 $por 1.000 caracteres

Transcrição

O custo de uma transcrição
AssemblyAI — nano
2,000 Caps / 0.00 $Por 1 minuto
AssemblyAI — best
5,500 Caps / 0.01 $Por 1 minuto

Incorporações:

Incorporações de modelos disponíveis através da nossa API.
Custo em CapsCusto em dólares
ModeloDimensão da incorporaçãoCusto do prompt (por 1 token)Custo do prompt (por 100.000 tokens)
text-embedding-3-largeO modelo de incorporação mais eficiente
3 0720,10,13
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 5360,010,02
text-embedding-ada-002O modelo de incorporação de segunda geração mais poderoso, substituindo 16 modelos de primeira geração
1 5360,070,1
text-embedding-3-largeO modelo de incorporação mais eficiente
3 072Dimensão da incorporação
0,1Custo do prompt (por 100.000 tokens)
0,13Custo do prompt (por 100.000 tokens)
text-embedding-3-smallDesempenho aumentado em comparação com o modelo de incorporação ada de segunda geração
1 536Dimensão da incorporação
0,01Custo do prompt (por 100.000 tokens)
0,02Custo do prompt (por 100.000 tokens)
text-embedding-ada-002O modelo de incorporação de segunda geração mais poderoso, substituindo 16 modelos de primeira geração
1 536Dimensão da incorporação
0,07Custo do prompt (por 100.000 tokens)
0,1Custo do prompt (por 100.000 tokens)

O que são os Caps?

Os Caps são a moeda interna do serviço, usada para medir o custo das solicitações e respostas das redes neurais. É fixa e depende da complexidade do modelo: número de parâmetros, multimodalidade e poder total.

    Por exemplo:
  • ChatGPT-3.5 — ~1 Cap por token
  • ChatGPT o1-Pro — ~400+ Caps por token
Quanto mais alto for o seu plano, melhor será o preço: 1 milhão de Caps é mais barato no Elite do que no Basic.

Ainda tem dúvidas?

O que são tokens?

Tokens são unidades de processamento de texto pela rede neural, representando partes de palavras, palavras inteiras ou sinais de pontuação que determinam o custo das solicitações.

Quanto tempo durará 1 milhão de tokens?

Um milhão de tokens do modelo GPT-4o são suficientes para reescrever 'Os Irmãos Karamazov' de F. M. Dostoiévski.

O que fazer se eu ficar sem tokens?

Adquira Caps adicionais na sua conta pessoal — https://bothub.chat/profile

Por que a rede neural se passa por outra?

A rede neural não sabe que modelo é se não estiver especificado no prompt do sistema. A 'autoidentificação' do modelo sem instrução é influenciada por muitos fatores, um deles sendo o conjunto de dados de treinamento do modelo.

O que é contexto em uma rede neural?

Contexto é a quantidade de informação que a rede neural retém na memória durante um diálogo, afetando a coerência das respostas e a compreensão das solicitações anteriores.

Qual é o contexto dos diferentes modelos de redes neurais?

GPT o1 Pro e Claude 3.7 Sonnet suportam até 200K tokens, Gemini 2.5 Pro trabalha com 1KK, enquanto Gemini 2.0 Pro suporta até 2KK tokens.

Quais formatos de arquivos os modelos leem?

Redes neurais processam TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, bem como imagens JPG, PNG e arquivos de áudio MP3, MP4.

É possível usar redes neurais gratuitamente?

Existem modelos gratuitos com o sufixo ':free' e '-exp' que podem ser usados gratuitamente por meio de uma mini-janela na página principal, assim como na página do modelo.

Em que os modelos de redes neurais diferem uns dos outros?

Os modelos diferem no volume de dados de treinamento, tamanho do contexto, velocidade de processamento, especialização em tarefas específicas e capacidade de trabalhar com conteúdo multimodal.

Como usar modelos via API?

Para integrar modelos em seus aplicativos, você precisa obter uma chave API em sua conta pessoal. Mais detalhes podem ser encontrados aqui: https://bothub.chat/api/documentation/ru.

É possível usar redes neurais para automatizar processos empresariais?

Redes neurais automatizam efetivamente tarefas rotineiras de gestão documental, processamento de dados, suporte ao cliente e análise, integrando-se com sistemas empresariais existentes via API.

Converse conosco no Telegram