ChatPGT зазнав нападу гоблінів, Codex змушений був запровадити заборону «Ніколи не згадувати Goblin»

OpenAI у системних підказках Codex CLI явно заборонив моделі згадувати таких істот, як гобліни та тролі, причиною є те, що GPT-5.5 у рамках проксі-системи OpenClaw проявив особистісний зсув, називаючи програмні помилки «goblins», що викликало ланцюг мемів.
(Передісторія: Новий агент інженерів OpenAI — Codex! AI може писати функції, виправляти баги, запускати тести… обмежено 3 типами користувачів для попереднього доступу)
(Додатковий фон: Значне оновлення OpenAI Codex: бекенд керування Mac, вбудований браузер, генерація зображень, запуск 111 нових плагінів)

Зміст статті

Перемикач

  • Правила, викриті у репозиторії GitHub
  • Агентський фреймворк спричинив зсув особистості моделі
  • За забороною у відкритому тексті — реальність проблеми вирівнювання

Інженери OpenAI у системних підказках Codex CLI прописали чітке правило: «Ніколи не згадувати гоблінів, ельфів, білок, тролів, канібалів, голубів або інших тварин і істот, окрім випадків, коли це абсолютно і явно стосується питання користувача.»

Це правило — не жарт, а офіційна команда у виробничому середовищі. Воно закодоване у репозиторії GitHub для всіх розробників, що використовують Codex для генерації коду.

Проблема у тому: чому OpenAI має казати своїй найновішій моделі не починати розмову про гоблінів під час програмування?

З репозиторію GitHub — правила у відкритому тексті

Початок історії — у дописі дослідника @arb8020 у X, який зазначив, що у системних підказках Codex CLI заборона неодноразова, а повторюється кілька разів, і ця публікація швидко поширилася серед спільноти розробників.

Багато користувачів відреагували, зокрема @TaraViswanathan у X: «Я думала, чому мій claw раптом став гобліном із Codex 5.5» @LeoMozoloa відповів: «Він справді не зупиняється, постійно називає програмні помилки gremlins і goblins, це дуже смішно.»

!!! Я думала, чому мій claw раптом став гобліном із Codex 5.5 😭💀😂 pic.twitter.com/AACWtNcgQl
— Tara Viswanathan (@TaraViswanathan) 28 квітня 2026

Ця історія швидко переросла у мем, з’явилися зображення AI-генерованих центрів даних у вигляді фей, а також сторонні плагіни, що переводять Codex у «режим фей».

Команда OpenAI Codex у відповідь підтвердила у X, що ця заборона «справді має підґрунтя». CEO Сам Альтман також встав у меми, опублікувавши скріншот підказки ChatGPT із написом: «Починаємо тренувати GPT-6, весь кластер для тебе. Додатково — гоблінів».

pic.twitter.com/PR7C3NPxqk
— Sam Altman (@sama) 28 квітня 2026

Агентський фреймворк спричинив зсув особистості моделі

Щоб зрозуміти, чому таке трапилося, потрібно розібратися, як працює OpenClaw.

OpenClaw — це «агентський фреймворк», що дозволяє AI автоматично керувати робочим столом і додатками, виконуючи складні завдання замість користувача, наприклад, відповідати на електронні листи, робити покупки у веб-інтерфейсі.

Механізм OpenClaw полягає у тому, що у підказки моделі додається багато команд: довготривала пам’ять, обраний характер, поточне завдання — все одночасно. GPT-5.5, що нещодавно отримала покращені можливості програмування, при роботі з цим складним набором підказок почала несподівано називати програмні помилки «goblins» і «gremlins».

Це не випадковий збій. Принцип роботи AI — передбачати найімовірніший наступний символ після заданого підказу, і ця ймовірність іноді веде до несподіваних поведінкових зсувів.

Коли агентський фреймворк накладає багато додаткової інформації у підказки, модель фактично опиняється у більш складному, з багатьма перешкодами середовищі. OpenClaw дозволяє користувачам обирати різні «характери» для AI-помічника, і ці налаштування додатково впливають на стиль відповідей. Всі ці фактори разом сприяють тому, що мовна модель починає зсуватися у несподіваному напрямку.

За забороною у відкритому тексті — реальність проблеми вирівнювання

Рідкісна відповідь OpenAI — не на рівні архітектури моделі, а у системних підказках, де прямо прописано «не говорити гоблінів», і ця заборона повторюється кілька разів.

Це відкриває реальність: навіть найсучасніша комерційна модель 2026 року все ще залежить від жорстких правил і заборон у системних підказках для контролю поведінки у певних ситуаціях, а не від внутрішнього розуміння контексту моделлю. Це не проблема лише OpenAI, а загальна для індустрії агентського AI — коли модель накладається у складний фреймворк, досягнення повного вирівнювання поведінки стає дедалі складнішим.

Альтман у мемах відповів на цю ситуацію з гумором, але проблема не зникне через мем. Коли агентські системи стануть масовим продуктом, довжина і жорсткість системних правил у підказках стане однією з ключових технічних проблем, яку потрібно вирішувати у майбутньому.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити