Le meilleur de la semaine

Plus de réseaux neuronaux sur Bothub

Claude-3.7 Sonnet
Claude-3.7 Sonnet
Modèle d'Anthropic, offrant des capacités de raisonnement et d'adaptabilité améliorées avec le mode de réflexion étendu innovant pour un choix flexible entre réponses rapides et analyse approfondie. Le modèle prend en charge une fenêtre contextuelle allant jusqu'à 200 000 tokens et une sortie maximale de 128 000 tokens.
o4 Mini High
o4 Mini High
Le modèle o4-mini avec un niveau élevé de reasoning_effort pour un raisonnement approfondi. Combine vitesse et multimodalité avec précision dans les tâches STEM et visuelles dans un contexte de 200K tokens.
Midjourney v7
Midjourney v7
Générateur d'images mis à jour avec des détails améliorés, notamment pour la peau et les cheveux, un éclairage et des reflets plus réalistes. Le modèle crée des scènes plus dynamiques et diversifiées, s'éloignant des images standard de type photographie de stock.
GPT-4.1
GPT-4.1
Modèle pour la programmation et l'exécution précise des instructions avec un contexte allant jusqu'à 1 million de tokens. Dépasse GPT-4o en codage (54,6% sur SWE-bench) et en suivi des instructions (amélioration de 10,5%).
Flux-1.1 Pro Ultra
Flux-1.1 Pro Ultra
Version améliorée du modèle de génération d'images avec une prise en charge d'une résolution 4 fois supérieure (jusqu'à 4 MP), maintenant une vitesse de génération de 10 secondes par image. Le modèle propose un mode brut pour créer des images plus naturelles.
Gemini-2.5 Pro Preview
Gemini-2.5 Pro Preview
Modèle de Google capable de 'penser' avant de répondre pour une plus grande précision et performance. Leader sur la plateforme LMArena avec des capacités avancées en raisonnement, codage et multimodalité (texte, audio, images, vidéo).
models-page.best-models.link

Modèles de réseaux de neurones disponibles

ELITE
Afficher le coût en majuscules
Coût en roubles
ModèleTaille du contexte (en tokens)Taille de la sortie (en tokens)Invite (par 1M de tokens)Invite d'image (par 1k tokens)Réponse (par 1M de tokens)
gpt-4o-mini128 00016 3840,1700,68
gpt-4o128 0004 0962,810.00411,25
gpt-4.1-nano1 047 57632 7680,1100,45
o1-mini128 00065 5361,2404,95
gpt-4.11 047 57632 7682,2509
o3-mini-high200 000100 0001,2404,95
o3-mini200 000100 0001,2404,95
gpt-4.5-preview128 00016 38484,380.122168,75
* Notre majoration sur ces prix est de 5%, qui est incluse dans le coût des forfaits sauf Basic (Premium et supérieur)

Demande à LLM

Coût d'une seule demande dans le tableau de bord
Tous les tarifs
Jetons utilisés + 0.01 USDpar 1 demande
Attention particulière : l'utilisation de Easy Writer est facturée différemment. Pour chaque génération de texte, Easy Writer facture 0.1 USD supplémentaires par demande + le coût des jetons, comme indiqué ci-dessus pour une demande normale à LLM.

Génération d'Images

Coût d'une seule génération par modèles
MidJourney — Relax
0,03 USD / 20000 CAPSPour 1 génération
MidJourney — Fast
0,06 USD / 40000 CAPSPour 1 génération
MidJourney — Turbo
0,12 USD / 80000 CAPSPour 1 génération
Dall-E
0,03 USD / 20000 CAPSPour 1 génération
Flux
0 USD / 1666 CAPSPour 1 génération
Stable Diffusion
0,04 USD / 26250 CAPSPour 1 génération
GPT Image - Square
0,01 USD / 8160 CAPSPour 1 génération
GPT Image - Portrait
0,02 USD / 12240 CAPSPour 1 génération
GPT Image - Landscape
0,02 USD / 12000 CAPSPour 1 génération

Recherche Web

Coût d'une seule utilisation de recherche web
Tous les tarifs
Jetons utilisés + 0.01 USDpar 1 demande
Analyse des Liens
0.01 Capspour 1 caractère

Transcription

Coût de la transcription par minute
TTS
7.5 Capspour 1 caractère
TTS HD
15 Capspour 1 caractère

Transcription

Le coût d'une transcription
AssemblyAI — nano
2,000 CapsPar 1 minute
AssemblyAI — best
5,500 CapsPar 1 minute

Incorporations

Incorporations de modèles disponibles via notre API.
Coût en CapsCoût en dollars
ModèleDimension de l'incorporationCoût de l'invite (par 1 jeton)Coût de l'invite (pour 100 000 jetons)
text-embedding-3-largeLe modèle d'incorporation le plus efficace
3 0720,10,13
text-embedding-3-smallPerformance accrue par rapport au modèle d'incorporation ada de deuxième génération
1 5360,010,02
text-embedding-ada-002Le modèle d'incorporation de deuxième génération le plus puissant, remplaçant 16 modèles de première génération
1 5360,070,1
text-embedding-3-largeLe modèle d'incorporation le plus efficace
3 072Dimension de l'incorporation
0,1Coût de l'invite (pour 100 000 jetons)
0,13Coût de l'invite (pour 100 000 jetons)
text-embedding-3-smallPerformance accrue par rapport au modèle d'incorporation ada de deuxième génération
1 536Dimension de l'incorporation
0,01Coût de l'invite (pour 100 000 jetons)
0,02Coût de l'invite (pour 100 000 jetons)
text-embedding-ada-002Le modèle d'incorporation de deuxième génération le plus puissant, remplaçant 16 modèles de première génération
1 536Dimension de l'incorporation
0,07Coût de l'invite (pour 100 000 jetons)
0,1Coût de l'invite (pour 100 000 jetons)

Qu'est-ce que les Caps ?

Les Caps sont la monnaie interne du service, utilisée pour mesurer le coût des requêtes et des réponses des réseaux neuronaux. Elle est fixe et dépend de la complexité du modèle : nombre de paramètres, multimodalité et puissance totale.

    Par exemple :
  • ChatGPT-3.5 — ~1 Cap par jeton
  • ChatGPT o1-Pro — ~400+ Caps par jeton
Plus votre tarif est élevé, plus le prix est avantageux : 1 million de Caps est moins cher sur Elite que sur Basic.

Vous avez encore des questions ?

Qu'est-ce que les jetons?

Les jetons sont des unités de traitement de texte par le réseau neuronal, représentant des parties de mots, des mots entiers ou des signes de ponctuation qui déterminent le coût des requêtes.

Combien de temps dure 1 million de jetons?

Un million de jetons du modèle GPT-4o suffisent pour réécrire 'Les Frères Karamazov' de F. M. Dostoïevski.

Que faire si je n'ai plus de jetons?

Achetez des Caps supplémentaires dans votre compte personnel — https://bothub.chat/profile

Pourquoi le réseau neuronal prétend-il être un autre?

Le réseau neuronal ne sait pas quel modèle il est si cela n'est pas spécifié dans l'invite système. L'auto-identification du modèle sans instruction est influencée par de nombreux facteurs, l'un d'eux étant l'ensemble de données d'entraînement du modèle.

Qu'est-ce que le contexte dans un réseau neuronal?

Le contexte est la quantité d'informations que le réseau neuronal retient en mémoire pendant un dialogue, affectant la cohérence des réponses et la compréhension des requêtes précédentes.

Quel est le contexte des différents modèles de réseaux neuronaux?

GPT o1 Pro et Claude 3.7 Sonnet supportent jusqu'à 200K jetons, Gemini 2.5 Pro fonctionne avec 1KK, tandis que Gemini 2.0 Pro supporte jusqu'à 2KK jetons.

Quels formats de fichiers les modèles lisent-ils?

Les réseaux neuronaux traitent TXT, PDF, DOCX, XLSX, CSV, JSON, XML, HTML, ainsi que les images JPG, PNG et les fichiers audio MP3, MP4.

Les réseaux neuronaux peuvent-ils être utilisés gratuitement?

Il existe des modèles gratuits avec le suffixe ':free' et '-exp' qui peuvent être utilisés gratuitement via une mini-fenêtre sur la page principale, ainsi que sur la page du modèle.

En quoi les modèles de réseaux neuronaux diffèrent-ils les uns des autres?

Les modèles diffèrent par le volume de données d'entraînement, la taille du contexte, la vitesse de traitement, la spécialisation dans des tâches spécifiques et la capacité à travailler avec du contenu multimodal.

Comment utiliser les modèles via l'API?

Pour intégrer des modèles dans vos applications, vous devez obtenir une clé API dans votre compte personnel. Plus de détails peuvent être trouvés ici : https://bothub.chat/api/documentation/ru.

Les réseaux neuronaux peuvent-ils être utilisés pour automatiser les processus commerciaux?

Les réseaux neuronaux automatisent efficacement les tâches de routine de gestion documentaire, de traitement des données, de support client et d'analyse, en s'intégrant aux systèmes commerciaux existants via l'API.

Discutez avec nous sur Telegram