o3-mini

нейросеть

GPT o3-mini — нейросеть от OpenAI, выпущенная 31 января 2025 года. Она ориентирована на задачи из сфер программирования, математики и аналитики. Пользователи получают быстрые, точные ответы даже в сложных областях, экономя время и упрощая процесс принятия решений.

100 000

Макс. длина ответа

(в токенах)

200 000

Размер контекста

(в токенах)

110

Стоимость промпта

(за 1M токенов)

440

Стоимость ответа

(за 1M токенов)

0

Картинка-промт

(за 1K токенов)

Чат
Провайдеры
API
bg
bg-shape
bothub
BotHub: Попробуйте ИИ прямо сейчасbot

Осталось Caps: 0
Провайдеры o3-miniНа Bothub вы можете сами выбрать поставщиков для запросов. Если вы не сделали выбор, мы автоматически найдём подходящих провайдеров, которые способны справиться с размером и параметрами вашего запроса.
Пример кода и API для o3-miniМы предлагаем полный доступ к API OpenAI через наш сервис. Все наши конечные точки полностью соответствуют конечным точкам OpenAI, их можно использовать как с плагинами, так и при разработке собственного программного обеспечения через SDK.Создать API ключ
Javascript
Python
Curl
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: '<your bothub access token>',
  baseURL: 'https://bothub.chat/api/v2/openai/v1'
});


// Sync - Text generation 

async function main() {
  const chatCompletion = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
  });
} 

// Async - Text generation 

async function main() {
  const stream = await openai.chat.completions.create({
    messages: [{ role: 'user', content: 'Say this is a test' }],
    model: 'o3-mini',
    stream: true
  });

  for await (const chunk of stream) {
    const part: string | null = chunk.choices[0].delta?.content ?? null;
  }
} 
main();
illustaration

Как работает o3-mini?

Ключевые преимущества GPT o3-mini включают контекст на 200 000 токенов для глубоких диалогов, три уровня рассуждения (low, medium, high) и доступную стоимость в сравнении с GPT-4o. По тестам модель на 24% быстрее, чем o1-mini и демонстрирует высокую точность в математических и научных задачах. Встроенная работа с JSON-структурами облегчает автоматизацию, а функция function calling упрощает интеграцию с приложениями. В итоге пользователи экономят ресурсы, быстро решают сложные задачи и повышают качество готовых проектов.