Modelos de redes neuronales disponibles

ELITE
Mostrar costo en mayúsculas
Costo en dólares
ModeloLongitud máx. de respuesta (en tokens)Tamaño del contexto (en tokens)Costo del prompt (por 1M tokens)Costo de la respuesta (por 1M tokens)
gpt-4.1-nano-2025-04-144 0964 0950,110,45
gpt-4.5-preview16 384128 00084,38168,75
o3-mini-high100 000200 0001,244,95
o3-mini100 000200 0001,244,95
o1100 000200 00016,8867,5
o1-mini65 536128 0001,244,95
gpt-4o:extended64 000128 0006,7520,25
gpt-4o4 096128 0002,8111,25
* Nuestro margen sobre estos precios es del 5%, que está incluido en el costo de los paquetes excepto el Básico (Premium y superior)

Solicitud a LLM

Costo de una solicitud en el tablero
Todas las tarifas
Tokens utilizados + 0.01 USDpor 1 solicitud
Atención especial: el uso de Easy Writer se cobra de manera diferente. Por cada generación de texto, Easy Writer cobra 0.1 USD adicionales por solicitud + el costo de los tokens, como se especifica arriba para una solicitud normal de LLM.

Generación de Imágenes

Costo de una única generación por modelos
Dall-E
0,03 USD / 20000 CAPSPor 1 generación
Flux
0,06 USD / 40000 CAPSPor 1 generación
Stable Diffusion
0,04 USD / 26250 CAPSPor 1 generación

Búsqueda Web

Costo de un solo uso de búsqueda web
Todas las tarifas
Tokens utilizados + 0.01 USDpor 1 solicitud
Análisis de Enlaces
100 CapsPor 1000 caracteres

Síntesis de Voz

Costo de una única síntesis de voz
TTS
7.5 CapsPor 1000 caracteres
TTS HD
15 CapsPor 1000 caracteres

Transcripción

El costo de una transcripción
Whisper
3,000 CapsPor 1 minuto

Incrustaciones:

Incrustaciones de modelos disponibles a través de nuestra API.
Costo en CapsCosto en dólares
ModeloDimensión de la incrustaciónCosto del prompt (por 1 token)Costo del prompt (por 100,000 tokens)
text-embedding-3-largeEl modelo de incrustación más eficiente
3 0720,0980,13
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 5360,0150,02
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 5360,0750,1
text-embedding-3-largeEl modelo de incrustación más eficiente
3 072Dimensión de la incrustación
0,098Costo del prompt (por 100,000 tokens)
0,13Costo del prompt (por 100,000 tokens)
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 536Dimensión de la incrustación
0,015Costo del prompt (por 100,000 tokens)
0,02Costo del prompt (por 100,000 tokens)
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 536Dimensión de la incrustación
0,075Costo del prompt (por 100,000 tokens)
0,1Costo del prompt (por 100,000 tokens)

Costo de Caps

Caps es la moneda interna del servicio. El costo de todos los modelos se mide en caps. Para modelos más baratos, el costo de un token es aproximadamente igual a un cap, mientras que para los más caros puede alcanzar varios cientos de caps por token. El precio de un millón de caps depende de la tarifa: las tarifas elite tienen caps a un precio más bajo que las básicas.

¿Aún tienes preguntas?

Chatea con nosotros en Telegram
¿Qué son los tokens?

Los tokens son unidades de procesamiento de texto por la red neuronal, que representan partes de palabras, palabras completas o signos de puntuación que determinan el costo de las solicitudes.

¿Cuánto durará 1 millón de tokens?

Un millón de tokens del modelo GPT-4o son suficientes para reescribir 'Los hermanos Karamazov' de F. M. Dostoevsky.

¿Qué hacer si me quedo sin tokens?

Compre Caps adicionales en su cuenta personal — https://bothub.chat/profile

¿Por qué la red neuronal se hace pasar por otra?

La red neuronal no sabe qué modelo es si no está especificado en el mensaje del sistema. La 'autoidentificación' del modelo sin instrucción se ve influenciada por muchos factores, uno de ellos es el conjunto de datos de entrenamiento del modelo.

¿Qué es el contexto en una red neuronal?

El contexto es la cantidad de información que la red neuronal retiene en la memoria durante un diálogo, afectando la coherencia de las respuestas y la comprensión de las solicitudes anteriores.

¿Cuál es el contexto de los diferentes modelos de redes neuronales?

GPT o1 Pro y Claude 3.7 Sonnet admiten hasta 200K tokens, Gemini 2.5 Pro trabaja con 1KK, mientras que Gemini 2.0 Pro admite hasta 2KK tokens.

¿Qué formatos de archivo leen los modelos?

Las redes neuronales procesan TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, así como imágenes JPG, PNG y archivos de audio MP3, MP4.

¿Se pueden usar las redes neuronales de forma gratuita?

Hay modelos gratuitos con el sufijo ':free' y '-exp' que se pueden usar de forma gratuita a través de una mini-ventana en la página principal, así como en la página del modelo.

¿En qué se diferencian los modelos de redes neuronales entre sí?

Los modelos difieren en el volumen de datos de entrenamiento, el tamaño del contexto, la velocidad de procesamiento, la especialización en tareas específicas y la capacidad de trabajar con contenido multimodal.

¿Cómo usar modelos a través de API?

Para integrar modelos en sus aplicaciones, necesita obtener una clave API en su cuenta personal. Más detalles se pueden encontrar aquí: https://bothub.chat/api/documentation/ru.

¿Se pueden usar las redes neuronales para automatizar procesos de negocio?

Las redes neuronales automatizan eficazmente tareas rutinarias de gestión documental, procesamiento de datos, soporte al cliente y análisis, integrándose con sistemas de negocio existentes a través de API.