Lo mejor de la semana

Más redes neuronales en Bothub

Claude-3.7 Sonnet
Claude-3.7 Sonnet
Modelo de Anthropic, que proporciona capacidades mejoradas de razonamiento y adaptabilidad con el innovador 'modo de pensamiento extendido' para una elección flexible entre respuestas rápidas y análisis profundo. El modelo admite una ventana de contexto de hasta 200,000 tokens y una salida máxima de 128,000 tokens.
o4 Mini High
o4 Mini High
El modelo o4-mini con un alto nivel de reasoning_effort para un razonamiento minucioso. Combina velocidad y multimodalidad con precisión en tareas STEM y visuales en un contexto de 200K tokens.
Midjourney v7
Midjourney v7
Generador de imágenes actualizado con detalles mejorados, especialmente para piel y cabello, iluminación y reflejos más realistas. El modelo crea escenas más dinámicas y diversas, alejándose de las imágenes estándar de estilo fotográfico de stock.
GPT-4.1
GPT-4.1
Modelo para programación y ejecución precisa de instrucciones con un contexto de hasta 1 millón de tokens. Supera a GPT-4o en codificación (54.6% en SWE-bench) y seguimiento de instrucciones (mejora del 10.5%).
Flux-1.1 Pro Ultra
Flux-1.1 Pro Ultra
Versión mejorada del modelo de generación de imágenes con soporte para una resolución 4 veces mayor (hasta 4 MP), manteniendo una velocidad de generación de 10 segundos por imagen. El modelo ofrece un 'modo raw' para crear imágenes más naturales.
Gemini-2.5 Pro Preview
Gemini-2.5 Pro Preview
Modelo de Google capaz de 'pensar' antes de responder para una mayor precisión y rendimiento. Líder en la plataforma LMArena con capacidades avanzadas en razonamiento, codificación y multimodalidad (texto, audio, imágenes, video).
models-page.best-models.link

Modelos de redes neuronales disponibles

ELITE
Mostrar costo en mayúsculas
Costo en Caps
ModeloTamaño de contexto (en tokens)Tamaño de salida (en tokens)Prompt (por 1 token)Prompt de imagen (por 1K tokens)Respuesta (por 1 token)
gpt-4.1-nano1 047 57632 7680,0700,3
gpt-4.11 047 57632 7681,506
gpt-4o-mini128 00016 3840,11162,750,45
gpt-4o128 0004 0961,882 709,757,5
gpt-4.1-mini1 047 57632 7680,301,2
o3200 000100 0001,51 147,56
gpt-4.5-preview128 00016 38456,2581 281,25112,5
o1200 000100 00011,2516 256,2545
* Nuestro margen sobre estos precios es del 5%, que está incluido en el costo de los paquetes excepto el Básico (Premium y superior)

Solicitud a LLM

Costo de una solicitud en el tablero
Todas las tarifas
Tokens utilizados + 0.01 $por 1 solicitud
Atención especial: el uso de Easy Writer se cobra de manera diferente. Por cada generación de texto, Easy Writer cobra 0.1 $ adicionales por solicitud + el costo de los tokens, como se especifica arriba para una solicitud normal de LLM.

Generación de Imágenes

Costo de una única generación por modelos
MidJourney — Relax
20 000 CAPS / 0,03 $ Por 1 generación
MidJourney — Fast
40 000 CAPS / 0,06 $ Por 1 generación
MidJourney — Turbo
80 000 CAPS / 0,12 $ Por 1 generación
Dall-E
20 000 CAPS / 0,03 $ Por 1 generación
Flux
1 666 CAPS / 0 $ Por 1 generación
Stable Diffusion
26 250 CAPS / 0,04 $ Por 1 generación
GPT Image - Square
8 160 CAPS / 0,01 $ Por 1 generación
GPT Image - Portrait
12 240 CAPS / 0,02 $ Por 1 generación
GPT Image - Landscape
12 000 CAPS / 0,02 $ Por 1 generación

Búsqueda Web

Costo de un solo uso de búsqueda web
Todas las tarifas
Tokens utilizados + 0.01 $por 1 solicitud
Análisis de Enlaces
0,01 Capspor 1 carácter

Generación de video

Costo de crear un segundo de video
GoogleVeo
300 000 Caps / 0.45 $por 1 segundo
Runway
30 000 Caps / 0.04 $por 1 segundo

Síntesis de Voz

Costo de una síntesis de voz
TTS
7 500 Caps / 0.01 $por 1 000 caracteres
TTS HD
15 000 Caps / 0.02 $por 1 000 caracteres

Transcripción

El costo de una transcripción
AssemblyAI — nano
2 000 Caps / 0.003 $Por 1 minuto
AssemblyAI — best
5 500 Caps / 0.008 $Por 1 minuto

Incrustaciones:

Incrustaciones de modelos disponibles a través de nuestra API.
Costo en CapsCosto en dólares
ModeloDimensión de la incrustaciónCosto del prompt (por 1 token)Costo del prompt (por 100,000 tokens)
text-embedding-3-largeEl modelo de incrustación más eficiente
3 0720,10,13
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 5360,010,02
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 5360,070,1
text-embedding-3-largeEl modelo de incrustación más eficiente
3 072Dimensión de la incrustación
0,1Costo del prompt (por 100,000 tokens)
0,13Costo del prompt (por 100,000 tokens)
text-embedding-3-smallRendimiento aumentado en comparación con el modelo de incrustación ada de segunda generación
1 536Dimensión de la incrustación
0,01Costo del prompt (por 100,000 tokens)
0,02Costo del prompt (por 100,000 tokens)
text-embedding-ada-002El modelo de incrustación de segunda generación más potente, que reemplaza a 16 modelos de primera generación
1 536Dimensión de la incrustación
0,07Costo del prompt (por 100,000 tokens)
0,1Costo del prompt (por 100,000 tokens)

¿Qué son los Caps?

Los Caps son la moneda interna del servicio, que se usa para medir el costo de las solicitudes y respuestas de las redes neuronales. Es fija y depende de la complejidad del modelo: cantidad de parámetros, multimodalidad y potencia total.

    Por ejemplo:
  • ChatGPT-3.5 — ~1 Cap por token
  • ChatGPT o1-Pro — ~400+ Caps por token
Cuanto más alto sea tu plan, mejor será el precio: 1 millón de Caps es más barato en Elite que en Basic.

¿Aún tienes preguntas?

¿Qué son los tokens?

Los tokens son unidades de procesamiento de texto por la red neuronal, que representan partes de palabras, palabras completas o signos de puntuación que determinan el costo de las solicitudes.

¿Cuánto durará 1 millón de tokens?

Un millón de tokens del modelo GPT-4o son suficientes para reescribir 'Los hermanos Karamazov' de F. M. Dostoevsky.

¿Qué hacer si me quedo sin tokens?

Compre Caps adicionales en su cuenta personal — https://bothub.chat/profile

¿Por qué la red neuronal se hace pasar por otra?

La red neuronal no sabe qué modelo es si no está especificado en el mensaje del sistema. La 'autoidentificación' del modelo sin instrucción se ve influenciada por muchos factores, uno de ellos es el conjunto de datos de entrenamiento del modelo.

¿Qué es el contexto en una red neuronal?

El contexto es la cantidad de información que la red neuronal retiene en la memoria durante un diálogo, afectando la coherencia de las respuestas y la comprensión de las solicitudes anteriores.

¿Cuál es el contexto de los diferentes modelos de redes neuronales?

GPT o1 Pro y Claude 3.7 Sonnet admiten hasta 200K tokens, Gemini 2.5 Pro trabaja con 1KK, mientras que Gemini 2.0 Pro admite hasta 2KK tokens.

¿Qué formatos de archivo leen los modelos?

Las redes neuronales procesan TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, así como imágenes JPG, PNG y archivos de audio MP3, MP4.

¿Se pueden usar las redes neuronales de forma gratuita?

Hay modelos gratuitos con el sufijo ':free' y '-exp' que se pueden usar de forma gratuita a través de una mini-ventana en la página principal, así como en la página del modelo.

¿En qué se diferencian los modelos de redes neuronales entre sí?

Los modelos difieren en el volumen de datos de entrenamiento, el tamaño del contexto, la velocidad de procesamiento, la especialización en tareas específicas y la capacidad de trabajar con contenido multimodal.

¿Cómo usar modelos a través de API?

Para integrar modelos en sus aplicaciones, necesita obtener una clave API en su cuenta personal. Más detalles se pueden encontrar aquí: https://bothub.chat/api/documentation/ru.

¿Se pueden usar las redes neuronales para automatizar procesos de negocio?

Las redes neuronales automatizan eficazmente tareas rutinarias de gestión documental, procesamiento de datos, soporte al cliente y análisis, integrándose con sistemas de negocio existentes a través de API.

Chatea con nosotros en Telegram