GPT-5.3-Spark — модель, которая пишет код быстрее, чем вы успеваете моргнуть
NewsMakerОн не пишет код за вас, а буквально предугадывает желания в реальном времени.
OpenAI представила модель GPT-5.3-Codex-Spark — первый вариант линейки, который изначально заточен под работу с кодом в реальном времени. Система генерирует более 1000 токенов в секунду и рассчитана не на длинные автономные цепочки действий, а на быстрый диалог с разработчиком. Модель уже доступна в формате исследовательского превью для пользователей ChatGPT Pro.
Codex-Spark построена на базе GPT-5.3-Codex, но заметно компактнее и работает с прицелом на минимальные задержки. Она запускается на специализированной вычислительной платформе, созданной вместе с компанией Cerebras. Такой режим позволяет править фрагменты программ, перестраивать логику, дорабатывать интерфейсы и сразу видеть результат, без долгого ожидания ответа. Формат рассчитан на совместное программирование, где важна не только точность, но и мгновенная реакция.
На старте модель поддерживает контекст до 128 тысяч токенов и работает только с текстом. В период превью для нее действуют отдельные лимиты запросов, они не расходуют стандартную квоту. При высокой нагрузке возможны очереди и задержки в доступе.
Разработчики отдельно подчеркивают, что поведение системы настроено под интерактивную работу. По умолчанию она вносит точечные правки и не запускает тесты, если об этом не попросили напрямую. Такой «легкий» режим позволяет останавливать ответ на середине, менять задачу и быстро идти по итерациям. В тестах на инженерных наборах задач SWE-Bench Pro и Terminal-Bench 2.0 модель показала высокую точность и при этом справлялась заметно быстрее, чем GPT-5.3-Codex.
Codex-Spark построена на базе GPT-5.3-Codex, но заметно компактнее и работает с прицелом на минимальные задержки. Она запускается на специализированной вычислительной платформе, созданной вместе с компанией Cerebras. Такой режим позволяет править фрагменты программ, перестраивать логику, дорабатывать интерфейсы и сразу видеть результат, без долгого ожидания ответа. Формат рассчитан на совместное программирование, где важна не только точность, но и мгновенная реакция.
На старте модель поддерживает контекст до 128 тысяч токенов и работает только с текстом. В период превью для нее действуют отдельные лимиты запросов, они не расходуют стандартную квоту. При высокой нагрузке возможны очереди и задержки в доступе.
Разработчики отдельно подчеркивают, что поведение системы настроено под интерактивную работу. По умолчанию она вносит точечные правки и не запускает тесты, если об этом не попросили напрямую. Такой «легкий» режим позволяет останавливать ответ на середине, менять задачу и быстро идти по итерациям. В тестах на инженерных наборах задач SWE-Bench Pro и Terminal-Bench 2.0 модель показала высокую точность и при этом справлялась заметно быстрее, чем GPT-5.3-Codex.