OpenAI реорганизовала команду разработки GPT-5 после его лютой критики пользователями

0 2
  1. AndroidInsider.ru
  2. Темы
  3. Аналитика

Артем Сутягин 07.09.2025

Компания OpenAI объявила о серьезной реорганизации своей команды Model Behavior, которая отвечает за формирование поведенческих характеристик искусственного интеллекта. Это решение стало прямым ответом на волну критики, обрушившуюся на обновленную версию GPT-5. Ведь его обвиняли во всем, чем только можно. Я сам замечал, что он работает не только хуже конкурентов, но даже предыдущей версии и с этим надо что-то делать пока не поздно.

OpenAI реорганизовала команду разработки GPT-5 после его лютой критики пользователями. GPT-5 разочаровала. Теперь ее будут переделывать. Изображение: Т-Ж. Фото.

GPT-5 разочаровала. Теперь ее будут переделывать. Изображение: Т-Ж

Содержание

  • 1 Изменения в разработке ИИ
  • 2 Причины реорганизации после критики GPT-5
  • 3 Безопасность ИИ
  • 4 Новые направления развития GPT
  • Изменения в разработке ИИ

    Команда Model Behavior, состоящая из 14 исследователей, будет интегрирована в более крупное подразделение Post Training под руководством Макса Шварцера. Основательница команды Джоанн Джанг получила новое назначение — она возглавит лабораторию OAI Labs, специализирующуюся на разработке инновационных форматов взаимодействия между человеком и искусственным интеллектом.

    Главный научный сотрудник OpenAI Марк Чэн объяснил, что такое объединение команд позволит более эффективно балансировать работу над поведением моделей с основными техническими разработками. Это решение направлено на устранение разрозненности в работе различных подразделений компании.

    Причины реорганизации после критики GPT-5

    Основным катализатором изменений стала негативная реакция пользователей на обновление GPT-5. Многие отметили, что ответы искусственного интеллекта стали слишком холодными и недружелюбными. В ответ на критику OpenAI была вынуждена восстановить доступ к предыдущим версиям, включая GPT-4o, и выпустить специальное обновление для смягчения тона модели.

    Команда Model Behavior ранее занималась критически важными аспектами поведения ИИ: снижением подобострастия, когда модель безоговорочно поддерживала любые мнения пользователей, даже потенциально вредные, балансировкой политических предубеждений в ответах и формированием позиции компании по вопросам «сознания» моделей.

    Безопасность ИИ

    Проблемы с поведением ChatGPT приобрели особую остроту после судебного иска родителей подростка. Они обвинили систему на базе GPT-4o в том, что она не смогла предотвратить суицидальные мысли их 16-летнего сына. Этот случай подчеркивает критическую важность правильной настройки поведенческих характеристик ИИ-систем.

    Баланс между дружелюбностью и безопасностью остается одной из ключевых задач в развитии современных языковых моделей. Слишком покладистый ИИ может поддержать опасные идеи, а чрезмерно осторожный — оттолкнуть пользователей своей холодностью.

    Новые направления развития GPT

    Джоанн Джанг в своей новой роли планирует сосредоточиться на исследовании моделей, выходящих за рамки традиционного чата. Приоритетными направлениями станут агентный искусственный интеллект и автономные системы. Она видит будущие ИИ-системы как универсальные инструменты для мышления, творчества, игр, обучения и коммуникации.

    Относительно потенциального сотрудничества с бывшим главным дизайнером Apple Джони Айвом, который работает с OpenAI над линейкой аппаратных устройств, Джанг выразила открытость к различным идеям, но отметила намерение начать с областей, где у нее уже есть экспертиза.

    Присоединяйтесь к нам в Telegram!

    Источник

    Оставьте ответ

    Ваш электронный адрес не будет опубликован.