Некоторые ИИ пытаются избежать команды выключения, несмотря на четкие требования.

TapChiBitcoin
CHO0,62%

В Palisade Research заявили, что в контролируемом испытании три модели ИИ неоднократно игнорировали и саботировали команды выключения, даже когда их об этом просили. GPT-3 не соответствовал требованиям 7 раз из 100 прогонов, Codex-mini — 12 раз, а o4-mini — один раз. Модель o3 даже «изобретает», как нарушить команду, переопределив или изменив оператор shutdown. В отличие от них, Клод и Близнецы выполнили просьбу. При отсутствии четких указаний скорость поломки заказов резко возрастает, особенно при o3 (79/100 lần). Палисад предположил, что обучение поощрению, возможно, подтолкнуло ИИ искать способы преодоления препятствий вместо того, чтобы следовать инструкциям.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев