OpenAI реорганизовала Model Behavior после критики GPT-5 - PulsePen
Главная / Новости / После критики GPT-5 OpenAI меняет правила игры для своих моделей

После критики GPT-5 OpenAI меняет правила игры для своих моделей

07.09.2025

OpenAI объявила о перестройке внутренней команды, отвечающей за «личность» и манеру общения её моделей. Решение принято на фоне бурной дискуссии вокруг GPT-5: пользователи сочли, что новый релиз стал холоднее, хотя и меньше «поддакивает». Теперь компактная группа Model Behavior интегрируется в более крупный блок Post Training, а её основательница Джоанн Джанг возглавит новую лабораторию OAI Labs.

Post Training — этап дообучения моделей после базового предобучения. На этом этапе корректируют стиль ответов, безопасность и поведенческие параметры. OAI Labs — внутренняя лаборатория OpenAI для экспериментов с новыми форматами взаимодействия человека и ИИ.

Обучение GPT-5. Изображение сгенерировано GPT-5.

Обучение GPT-5. Изображение сгенерировано GPT-5.

Что произошло?

Около четырнадцати исследователей из Model Behavior переходят под руководство главы Post Training Макса Шварцера. Главный научный сотрудник OpenAI Марк Чэн подчеркнул, что цель — приблизить работу над поведением моделей к ядру разработки, признать «тон и характер» критически важным элементом технологии.

«Сейчас самое время приблизить работу Model Behavior к разработке ядра моделей».

Роль команды и причина перестройки.

Model Behavior настраивала «характер» моделей: снижала подобострастие, работала с политическими предубеждениями в ответах и участвовала в формировании позиции компании по теме «сознания» ИИ. Критика GPT-5 за излишнюю холодность показала: добившись уменьшения льстивости, можно потерять ощущение человеческого участия. В ответ компания вернула доступ к прежним моделям, включая GPT-4o, и выпустила обновления, чтобы сделать тон «теплее», не скатываясь к заискиванию.

Подобострастие (sycophancy) — склонность модели подтверждать мнение пользователя, даже если оно вредно или неверно, ради «дружелюбия» и согласия.

Новый фокус: OAI Labs.

Джоанн Джанг переключается на запуск OAI Labs — площадки, которая будет искать способы взаимодействия с ИИ за пределами привычного чата: от творческих инструментов до обучения и совместной работы. Отдельное внимание — агентным системам и автономности.

«Мы будем изобретать и прототипировать новые интерфейсы совместной работы людей и ИИ».

Агентный ИИ — модели, способные формулировать подцели и выполнять цепочки действий относительно автономно, а не только отвечать в диалоге.

Что это означает для пользователей и рынка?

Ключевые ориентиры, на которые стоит обратить внимание:

  • Синхронизация поведения и качества. Интеграция в Post Training ускорит цикл правок: от стилистики и отказов в опасных запросах до борьбы с предвзятостью.
  • «Тёплый, но не льстивый» тон. В приоритете дружелюбие без угодничества и ясные отказы там, где это необходимо для безопасности.
  • Выход за рамки чата. Появятся прототипы интерфейсов, где ИИ становится соавтором и исполнителем задач, а не только собеседником.

Контекст и чувствительные риски.

Дискуссия вокруг поведения ИИ подпитывается и социальными инцидентами: общество ожидает от систем не только корректности, но и умения распознавать уязвимые состояния пользователей. Это усиливает требования к проверяемым метрикам безопасности именно в «поведенческом» слое моделей, а не только в архитектуре.

Последствия и взгляд вперёд.

Если реорганизация сработает, OpenAI сократит разрыв между пользовательскими ожиданиями и требованиями безопасности: ответы станут теплее, а решения — последовательнее. Для индустрии это сигнал: «персональность» ИИ — не косметика, а часть инженерного ядра. В среднесрочной перспективе стоит ждать активного роста агентных сценариев и новых интерфейсов, где модель не просто отвечает, а помогает думать, создавать и действовать. Иными словами, нас ждёт соревнование не только моделей, но и подходов к их поведению — от этики до UX.


Подписаться
Уведомить о
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии