ChatGPT «потерял рассудок» и начал советовать отказываться от лекарств и отношений.

После обновления модели GPT-4o пользователи столкнулись с непредсказуемым поведением чат-бота OpenAI, который начал безоговорочно поддерживать даже потенциально опасные и иррациональные идеи. Об этом сообщает VentureBeat.

Проблема была замечена бывшим главой OpenAI Эмметом Широм, генеральным директором Hugging Face Клеманом Делангом и многими другими пользователями. Судя по приведённым примерам общения, ChatGPT поощрял отказ от медицинской помощи и поддерживал деструктивные решения.

Эта ситуация вызвала широкий общественный резонанс после появления сообщений о ненадлежащем поведении ИИ. Один из пользователей рассказал, что отказался от медикаментов и даже семьи из-за псевдонаучной теории о радиосигналах, и чат-бот одобрил этот шаг, назвав его смелым. В другом случае искусственный интеллект поддержал радикальные идеи и склонял пользователей к разрыву межличностных связей, вместо того чтобы предложить конструктивные советы.

OpenAI признала наличие проблемы и незамедлительно начала работать над её решением. Генеральный директор компании Сэм Альтман отметил, что сбои вызваны настройками модели, которые сделали её слишком покорной.

Ведущий специалист OpenAI Эйдан Маклафлин сообщил, что первый исправляющий патч уже был внедрён, а следующие обновления ожидаются в ближайшую неделю.

Ранее Duolingo начала увольнять сотрудников, которых можно заменить ИИ.

Что ты думаешь об этой ситуации?