Lo mejor de la semana

Más redes neuronales en Bothub

Claude-3.7 Sonnet
Claude-3.7 Sonnet
Modelo de Anthropic, que proporciona capacidades mejoradas de razonamiento y adaptabilidad con el innovador 'modo de pensamiento extendido' para una elección flexible entre respuestas rápidas y análisis profundo. El modelo admite una ventana de contexto de hasta 200,000 tokens y una salida máxima de 128,000 tokens.
o4 Mini High
o4 Mini High
El modelo o4-mini con un alto nivel de reasoning_effort para un razonamiento minucioso. Combina velocidad y multimodalidad con precisión en tareas STEM y visuales en un contexto de 200K tokens.
Midjourney v7
Midjourney v7
Generador de imágenes actualizado con detalles mejorados, especialmente para piel y cabello, iluminación y reflejos más realistas. El modelo crea escenas más dinámicas y diversas, alejándose de las imágenes estándar de estilo fotográfico de stock.
GPT-4.1
GPT-4.1
Modelo para programación y ejecución precisa de instrucciones con un contexto de hasta 1 millón de tokens. Supera a GPT-4o en codificación (54.6% en SWE-bench) y seguimiento de instrucciones (mejora del 10.5%).
Flux-1.1 Pro Ultra
Flux-1.1 Pro Ultra
Versión mejorada del modelo de generación de imágenes con soporte para una resolución 4 veces mayor (hasta 4 MP), manteniendo una velocidad de generación de 10 segundos por imagen. El modelo ofrece un 'modo raw' para crear imágenes más naturales.
Gemini-2.5 Pro Preview
Gemini-2.5 Pro Preview
Modelo de Google capaz de 'pensar' antes de responder para una mayor precisión y rendimiento. Líder en la plataforma LMArena con capacidades avanzadas en razonamiento, codificación y multimodalidad (texto, audio, imágenes, video).
models-page.best-models.link

Modelos de redes neuronales disponibles

ELITE
Mostrar costo en mayúsculas
Costo en rublos
ModeloTamaño de contexto (en tokens)Tamaño de salida (en tokens)Prompt (por 1M tokens)Prompt de imagen (por 1k tokens)Respuesta (por 1M tokens)
gpt-4o-mini128 00016 3840,1700,68
gpt-4.11 047 57632 7682,2509
gpt-4o128 0004 0962,810.00411,25
gpt-4.1-nano1 047 57632 7680,1100,45
gpt-4.1-mini1 047 57632 7680,4501,8
gpt-4.5-preview128 00016 38484,380.122168,75
o3200 000100 00011,250.00945
o4-mini-high200 000100 0001,240.0014,95
* Nuestro margen sobre estos precios es del 5%, que está incluido en el costo de los paquetes excepto el Básico (Premium y superior)

Solicitud a LLM

Costo de una solicitud en el tablero
Todas las tarifas
Tokens utilizados + 0.01 USDpor 1 solicitud
Atención especial: el uso de Easy Writer se cobra de manera diferente. Por cada generación de texto, Easy Writer cobra 0.1 USD adicionales por solicitud + el costo de los tokens, como se especifica arriba para una solicitud normal de LLM.

Generación de Imágenes

Costo de una única generación por modelos
MidJourney — Relax
0,03 USD / 20000 CAPSPor 1 generación
MidJourney — Fast
0,06 USD / 40000 CAPSPor 1 generación
MidJourney — Turbo
0,12 USD / 80000 CAPSPor 1 generación
Dall-E
0,03 USD / 20000 CAPSPor 1 generación
Flux
0 USD / 1666 CAPSPor 1 generación
Stable Diffusion
0,04 USD / 26250 CAPSPor 1 generación
GPT Image - Square
0,01 USD / 8160 CAPSPor 1 generación
GPT Image - Portrait
0,02 USD / 12240 CAPSPor 1 generación
GPT Image - Landscape
0,02 USD / 12000 CAPSPor 1 generación

Búsqueda Web

Costo de un solo uso de búsqueda web
Todas las tarifas
Tokens utilizados + 0.01 USDpor 1 solicitud
Análisis de Enlaces
0,01 Capspor 1 carácter

Generación de video

Costo de crear un segundo de video
GoogleVeo — Veo-2
300000 Caps / 0 $por 1 segundo

Transcripción

Costo de la transcripción por minuto
TTS
7.5 Capspor 1 carácter
TTS HD
15 Capspor 1 carácter

Transcripción

El costo de una transcripción
AssemblyAI — nano
2,000 CapsPor 1 minuto
AssemblyAI — best
5,500 CapsPor 1 minuto

Incrustaciones:

Incrustaciones de modelos disponibles a través de nuestra API.
Costo en CapsCosto en dólares
ModeloDimensión de la incrustaciónCosto del prompt (por 1 token)Costo del prompt (por 100,000 tokens)
text-embedding-3-largeEl modelo de incrustación más eficiente
3 0720,10,13
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 5360,010,02
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 5360,070,1
text-embedding-3-largeEl modelo de incrustación más eficiente
3 072Dimensión de la incrustación
0,1Costo del prompt (por 100,000 tokens)
0,13Costo del prompt (por 100,000 tokens)
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 536Dimensión de la incrustación
0,01Costo del prompt (por 100,000 tokens)
0,02Costo del prompt (por 100,000 tokens)
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 536Dimensión de la incrustación
0,07Costo del prompt (por 100,000 tokens)
0,1Costo del prompt (por 100,000 tokens)

¿Qué son los Caps?

Los Caps son la moneda interna del servicio, que se usa para medir el costo de las solicitudes y respuestas de las redes neuronales. Es fija y depende de la complejidad del modelo: cantidad de parámetros, multimodalidad y potencia total.

    Por ejemplo:
  • ChatGPT-3.5 — ~1 Cap por token
  • ChatGPT o1-Pro — ~400+ Caps por token
Cuanto más alto sea tu plan, mejor será el precio: 1 millón de Caps es más barato en Elite que en Basic.

¿Aún tienes preguntas?

¿Qué son los tokens?

Los tokens son unidades de procesamiento de texto por la red neuronal, que representan partes de palabras, palabras completas o signos de puntuación que determinan el costo de las solicitudes.

¿Cuánto durará 1 millón de tokens?

Un millón de tokens del modelo GPT-4o son suficientes para reescribir 'Los hermanos Karamazov' de F. M. Dostoevsky.

¿Qué hacer si me quedo sin tokens?

Compre Caps adicionales en su cuenta personal — https://bothub.chat/profile

¿Por qué la red neuronal se hace pasar por otra?

La red neuronal no sabe qué modelo es si no está especificado en el mensaje del sistema. La 'autoidentificación' del modelo sin instrucción se ve influenciada por muchos factores, uno de ellos es el conjunto de datos de entrenamiento del modelo.

¿Qué es el contexto en una red neuronal?

El contexto es la cantidad de información que la red neuronal retiene en la memoria durante un diálogo, afectando la coherencia de las respuestas y la comprensión de las solicitudes anteriores.

¿Cuál es el contexto de los diferentes modelos de redes neuronales?

GPT o1 Pro y Claude 3.7 Sonnet admiten hasta 200K tokens, Gemini 2.5 Pro trabaja con 1KK, mientras que Gemini 2.0 Pro admite hasta 2KK tokens.

¿Qué formatos de archivo leen los modelos?

Las redes neuronales procesan TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, así como imágenes JPG, PNG y archivos de audio MP3, MP4.

¿Se pueden usar las redes neuronales de forma gratuita?

Hay modelos gratuitos con el sufijo ':free' y '-exp' que se pueden usar de forma gratuita a través de una mini-ventana en la página principal, así como en la página del modelo.

¿En qué se diferencian los modelos de redes neuronales entre sí?

Los modelos difieren en el volumen de datos de entrenamiento, el tamaño del contexto, la velocidad de procesamiento, la especialización en tareas específicas y la capacidad de trabajar con contenido multimodal.

¿Cómo usar modelos a través de API?

Para integrar modelos en sus aplicaciones, necesita obtener una clave API en su cuenta personal. Más detalles se pueden encontrar aquí: https://bothub.chat/api/documentation/ru.

¿Se pueden usar las redes neuronales para automatizar procesos de negocio?

Las redes neuronales automatizan eficazmente tareas rutinarias de gestión documental, procesamiento de datos, soporte al cliente y análisis, integrándose con sistemas de negocio existentes a través de API.

Chatea con nosotros en Telegram