Зі швидким поширенням технології (AI agent) агентів штучного інтелекту в Кремнієвій долині, з інвестованими 8,2 мільярда доларів у 2024 році, ці автономні системи поступово проникають у фінансовий, інфраструктурний рівень та рівень прийняття рішень. Однак за цією технологічною революцією з'явилося важливе, але часто ігнороване питання: «Як ми можемо перевірити, чи заслуговують на довіру дії агентів штучного інтелекту?»
Силіконова долина вклала 8,2 млрд доларів у агенти штучного інтелекту минулого року.
Незабаром вони контролюватимуть наші гроші, інфраструктуру та ухвалення рішень.
Але є одна проблема, про яку ніхто не говорить:
Як ми можемо перевірити, чи говорять агенти ШІ правду? pic.twitter.com/zEj7z5mGyX
— Сергій Горбунов (@sergey_nog) 22 квітня 2025
Силіконова долина активно інвестує в AI-агентів, але чи залишається основою довіри «чорна коробка»?
Співзасновник Chainlink Сергій Горбунов минулої ночі написав, що хоча нинішні AI-агенти упаковані як автономні системи, здатні самостійно виконувати складні завдання, насправді більшість з них все ще працює за принципом "чорної скриньки" — тобто користувачі не можуть дізнатися про їх внутрішній процес прийняття рішень і можуть лише сліпо довіряти.
Справжні автономні AI-агенти повинні мати одночасно характеристики «незупинності» та «перевірності», однак нинішні системи часто не відповідають цим стандартам.
(AI Світ USB-C інтерфейсу: Що таке Модель Контекстного Протоколу (MCP)? Тлумачення універсального контекстного протоколу AI помічника )
Чому «перевірність» є справжнім гарантом безпеки?
Горбунов наголосив, що верифікація означає, що AI-агенти повинні чітко пояснити "що вони зробили? як вони це зробили? чи дотримувалися вони встановлених правил?"
Якщо бракуватиме цих механізмів, коли AI-агенти отримають контроль над критично важливою інфраструктурою, це може стати великим ризиком. Ця "прірва верифікації (verification gap)", якщо її не буде належним чином врегульовано, може стати прихованою загрозою в розвитку технологій.
Три типи AI-агентів, кожен з яких має різні вимоги до верифікації
Згідно з словами засновника EigenLayer Sreeram Kannan, AI-агенти можуть бути поділені на три категорії в залежності від їхніх клієнтів:
Особисті агенти (: основні послуги для фізичних осіб, такі як цифрові асистенти, вимоги до верифікації відносно низькі.
Громадські агенти )Commons Agents(: служать спільноті, потребують середньої інтенсивності верифікації для забезпечення справедливості та довіри.
Суверенні агенти ): повністю незалежні від людських операцій, повинні мати найвищий рівень верифікації.
В найближчі п'ять років ці суверенні агенти можуть контролювати трильйони доларів активів, якщо механізми верифікації не будуть достатньо зрілими, це буде подібно до «будівництва будинку на піску».
Трискладова система перевірки: відновлення основи довіри AI-агента
Щоб вирішити проблему верифікації, Каннан запропонував трирівневу верифікаційну структуру:
Прогнозна перевірка (Proactive Verification): оцінка проводиться перед виконанням завдання.
Ретроактивна перевірка (: перевірка правильності після завершення завдання.
Паралельна верифікація )Concurrent Verification(: постійний моніторинг та запис під час виконання завдання.
Ця структура може зробити поведінку ШІ прозорою для підвищення рівня довіри.
Від страхових виплат до прогнозування ринку: практичні застосування перевіреного ШІ
Каннан також згадував про потенційне застосування перевірених AI-агентів у страхових виплатах. В даний час в страховій галузі одна компанія виконує роль емітента та перевіряючого, що часто викликає кризу довіри:
Завдяки перевірним AI-агентам, процеси виплат можуть бути перетворені на незалежний аудит, а також виконуватись та перевірятись за допомогою прозорих механізмів, що підвищує справедливість та довіру.
Крім того, платформи, такі як EigenBets, поєднують технології ZK-TLS та перевірених висновків, що дозволяє ринку прогнозів працювати більш прозоро та зменшує залежність від централізованих авторитетів.
)Сем Алтман три основні спостереження: витрати щорічно зменшуються в 10 разів, AI-агенти стають новим стандартом роботи, активи, які не можуть бути замінені AI, будуть зростати в ціні(
Блокчейн + ШІ: створення майбутнього квитка для AI-агентів
Стикаючись з дедалі складнішими системами ШІ, Горбунов вважає, що технологія блокчейн може забезпечити необхідну криптографічну основу довіри та допомогти створити потужну архітектуру верифікації:
Поєднуючи блокчейн з AI-агентами, можна не лише підвищити надійність і гнучкість, але й зробити смарт-контракти по-справжньому «розумними», прокладаючи шлях для майбутніх AI-додатків.
В кінці Гурбунов також надав посилання на свою програму на YouTube "Майбутнє ШІ", підкреслюючи, що ключовий розвиток агентів ШІ в майбутньому полягає не лише у створенні потужніших моделей, а в можливості:
підтвердити результати їхніх дій
Прозоре представлення процесу міркування
Завоювати довіру за допомогою криптомеханізмів
Він підкреслив: «Лише досягнувши цих трьох великих цілей, AI-агенти зможуть безпечно працювати в майбутніх системах.»
Ця стаття від фінансового консультанта до секретаря, розглядає виклики довіри до AI-агентів: чи можемо ми довіряти автономним рішенням штучного інтелекту? Вперше опублікована в Chain News ABMedia.
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Від фінансового консультанта до секретаря: виклики довіри до AI-агентів: чи можемо ми довіряти автономним рішенням штучного інтелекту?
Зі швидким поширенням технології (AI agent) агентів штучного інтелекту в Кремнієвій долині, з інвестованими 8,2 мільярда доларів у 2024 році, ці автономні системи поступово проникають у фінансовий, інфраструктурний рівень та рівень прийняття рішень. Однак за цією технологічною революцією з'явилося важливе, але часто ігнороване питання: «Як ми можемо перевірити, чи заслуговують на довіру дії агентів штучного інтелекту?»
Силіконова долина вклала 8,2 млрд доларів у агенти штучного інтелекту минулого року.
Незабаром вони контролюватимуть наші гроші, інфраструктуру та ухвалення рішень.
Але є одна проблема, про яку ніхто не говорить:
Як ми можемо перевірити, чи говорять агенти ШІ правду? pic.twitter.com/zEj7z5mGyX
— Сергій Горбунов (@sergey_nog) 22 квітня 2025
Силіконова долина активно інвестує в AI-агентів, але чи залишається основою довіри «чорна коробка»?
Співзасновник Chainlink Сергій Горбунов минулої ночі написав, що хоча нинішні AI-агенти упаковані як автономні системи, здатні самостійно виконувати складні завдання, насправді більшість з них все ще працює за принципом "чорної скриньки" — тобто користувачі не можуть дізнатися про їх внутрішній процес прийняття рішень і можуть лише сліпо довіряти.
Справжні автономні AI-агенти повинні мати одночасно характеристики «незупинності» та «перевірності», однак нинішні системи часто не відповідають цим стандартам.
(AI Світ USB-C інтерфейсу: Що таке Модель Контекстного Протоколу (MCP)? Тлумачення універсального контекстного протоколу AI помічника )
Чому «перевірність» є справжнім гарантом безпеки?
Горбунов наголосив, що верифікація означає, що AI-агенти повинні чітко пояснити "що вони зробили? як вони це зробили? чи дотримувалися вони встановлених правил?"
Якщо бракуватиме цих механізмів, коли AI-агенти отримають контроль над критично важливою інфраструктурою, це може стати великим ризиком. Ця "прірва верифікації (verification gap)", якщо її не буде належним чином врегульовано, може стати прихованою загрозою в розвитку технологій.
Три типи AI-агентів, кожен з яких має різні вимоги до верифікації
Згідно з словами засновника EigenLayer Sreeram Kannan, AI-агенти можуть бути поділені на три категорії в залежності від їхніх клієнтів:
Особисті агенти (: основні послуги для фізичних осіб, такі як цифрові асистенти, вимоги до верифікації відносно низькі.
Громадські агенти )Commons Agents(: служать спільноті, потребують середньої інтенсивності верифікації для забезпечення справедливості та довіри.
Суверенні агенти ): повністю незалежні від людських операцій, повинні мати найвищий рівень верифікації.
В найближчі п'ять років ці суверенні агенти можуть контролювати трильйони доларів активів, якщо механізми верифікації не будуть достатньо зрілими, це буде подібно до «будівництва будинку на піску».
Трискладова система перевірки: відновлення основи довіри AI-агента
Щоб вирішити проблему верифікації, Каннан запропонував трирівневу верифікаційну структуру:
Прогнозна перевірка (Proactive Verification): оцінка проводиться перед виконанням завдання.
Ретроактивна перевірка (: перевірка правильності після завершення завдання.
Паралельна верифікація )Concurrent Verification(: постійний моніторинг та запис під час виконання завдання.
Ця структура може зробити поведінку ШІ прозорою для підвищення рівня довіри.
Від страхових виплат до прогнозування ринку: практичні застосування перевіреного ШІ
Каннан також згадував про потенційне застосування перевірених AI-агентів у страхових виплатах. В даний час в страховій галузі одна компанія виконує роль емітента та перевіряючого, що часто викликає кризу довіри:
Завдяки перевірним AI-агентам, процеси виплат можуть бути перетворені на незалежний аудит, а також виконуватись та перевірятись за допомогою прозорих механізмів, що підвищує справедливість та довіру.
Крім того, платформи, такі як EigenBets, поєднують технології ZK-TLS та перевірених висновків, що дозволяє ринку прогнозів працювати більш прозоро та зменшує залежність від централізованих авторитетів.
)Сем Алтман три основні спостереження: витрати щорічно зменшуються в 10 разів, AI-агенти стають новим стандартом роботи, активи, які не можуть бути замінені AI, будуть зростати в ціні(
Блокчейн + ШІ: створення майбутнього квитка для AI-агентів
Стикаючись з дедалі складнішими системами ШІ, Горбунов вважає, що технологія блокчейн може забезпечити необхідну криптографічну основу довіри та допомогти створити потужну архітектуру верифікації:
Поєднуючи блокчейн з AI-агентами, можна не лише підвищити надійність і гнучкість, але й зробити смарт-контракти по-справжньому «розумними», прокладаючи шлях для майбутніх AI-додатків.
В кінці Гурбунов також надав посилання на свою програму на YouTube "Майбутнє ШІ", підкреслюючи, що ключовий розвиток агентів ШІ в майбутньому полягає не лише у створенні потужніших моделей, а в можливості:
підтвердити результати їхніх дій
Прозоре представлення процесу міркування
Завоювати довіру за допомогою криптомеханізмів
Він підкреслив: «Лише досягнувши цих трьох великих цілей, AI-агенти зможуть безпечно працювати в майбутніх системах.»
Ця стаття від фінансового консультанта до секретаря, розглядає виклики довіри до AI-агентів: чи можемо ми довіряти автономним рішенням штучного інтелекту? Вперше опублікована в Chain News ABMedia.