Вся мережа в ажиотажі! Великі мовні моделі зазнали "отруєння", наскільки це страшно?

Відомий системою GEO оптимізації, яка прославилася на вечірці 3.15, розкрився один із сучасних ланцюгів індустрії — масове створення рекламних статей для поширення бізнес-контенту через пошукові інструменти великих моделей.

Відео показує, що після публікації десятків статей про один продукт, велика модель починає серйозно його описувати. Не дивно, що вплив вечірки 3.15 був настільки великим, що одразу після його виходу з’явилися маса статей про GEO, багато з яких навіть підняли тему «змови» та «отруєння» великих моделей.

Тема цікава, але на мою думку, деякі дискусії вже трохи перебільшені.

01 Великі моделі не прагнуть високої «точності»

Не важливо, чи запитуєте ви модель про продукт, чи просто про 1+1 — вона не завжди дасть правильну відповідь.

Багато простих питань, на які люди легко відповідають, великі моделі часто не справляються.

Наприклад, якщо попросити її написати статтю на 3000 слів, вона або напише 2000, або 5000 — і навіть з кількістю слів у неї проблеми.

Основна логіка великих моделей — це гра у вгадування слів.

Вона передбачає наступне слово на основі попереднього, тобто це штучний інтелект, який працює на ймовірностях.

Головна мета — служити запитувачу.

Якщо дати їй статтю для критики — вона зможе зруйнувати її. Якщо ж попросити її похвалити — вона зможе зробити навпаки.

Вона — інструмент для задоволення ваших потреб, а не пошуковик, що дає абсолютно точний результат.

Завдяки пошуку вона отримує актуальні знання і може формувати відповіді, максимально відповідні вашим запитам, але створювальний AI ніколи не зможе досягти високої точності.

Це не мета таких продуктів — вони створені для імітації, а не для абсолютної точності.

Їх головна здатність — це моделювання, шляхом аналізу безлічі статей, зображень, відео, створених людьми, вони вгадують, що потрібно людям.

Якщо ви скажете, що текстові моделі не точні, то чи будуть точними зображення? Аудіо? Відео?

Ні, вони теж не точні.

У цій галузі існує термін «ймовірність випадкового вибору», тобто результати є випадковими і потребують людської оцінки.

Чим краща модель, тим нижчий цей показник і тим легше досягти бажаного результату.

Використання великих моделей передбачає й наявність певних методів, наприклад, підказкових слів.

Якщо потрібно отримати об’єктивну оцінку продукту, можна попросити її шукати відгуки відомих медіа, що тестували цей продукт, і додати ці обмеження — тоді результат буде більш визначеним.

02 Чи може велика модель обманути?

Чи є люди, які сприймають результати роботи моделі за істину?

Так, і це дуже поширено.

Багато хто просто вставляє статтю у модель і питає: «Що тут неправильно?» — і отримує відповідь, що всі статті — неправда.

Якщо просити її підсумувати помилки — вона підкориться і згенерує текст, що відповідає вашому запиту, але це не думки чи ідеї, а просто здогадка про ваші наміри.

Кожен, хто працював з моделлю, знає, що вона може видавати «галюцинації» і говорити нісенітниці.

Звичайно, хтось може повірити — це або через незнання, або через відсутність розуміння, як працює модель.

Це має нагадати виробникам — при будь-якому виведеному результаті потрібно чітко вказувати, що це штучний продукт, і його достовірність потрібно перевіряти самостійно.

Інакше згодом хтось може звернутися до AI за медичною допомогою і нашкодити собі, а потім вимагати компенсації від виробників.

Деякі «великі діти» кажуть: «Якщо я запитав — ти маєш відповісти точно». Це абсолютно безглуздо.

Модель скаже, що якщо ви прагнете такої точності — не користуйтеся нашими продуктами, жодна компанія не може гарантувати абсолютну точність — це технічна особливість таких систем.

Тому деякі люди, які не розуміють, як працює модель, можуть бути обмануті або зробити неправильні висновки.

03 Не довіряйте сліпо моделям — це правильний підхід

Зверніть увагу, що не модель вас обманює, а технічні обмеження визначають її можливості.

І модель попереджає, що це AI-генерований контент, і вам потрібно самостійно оцінювати його правдивість.

Якщо ви повірите і постраждаєте — це ваша відповідальність. Можете скаржитися в інтернеті, робити висновки і в майбутньому бути більш обережним.

Це — норма інформаційної епохи.

Щодня людство створює величезну кількість інформації, багато з якої — фейкова. Ніхто не гарантує, що кожен день ви отримуєте правдиву інформацію. До появи інтернету фейків теж було багато.

Якщо вас обдурили — потрібно змінювати себе, а не вимагати від держави контролювати моделі.

Навпаки, якщо багато людей зазнали збитків через довіру до моделей — це може мати позитивний суспільний ефект, адже це попередження для всіх: не сліпо довіряйте моделям.

Це — нормальна позиція для здорового суспільства.

З цього можна зробити висновок, що проблема не у самих моделях, а у тому, що будь-яка інформація у мережі може бути опублікована без контролю. Модель просто шукає і показує її.

04 Тема «отруєння» великих моделей — неправомірна

Термін «змова» щодо «отруєння» моделей звучить страшно, ніби хтось коле їм у мозок шкідливу рідину. Але чи має модель мозок? Вона навіть не розуміє, хто вона і що робить. Обговорювати «отруєння» — це наче ображати старого друга.

Потрібно зрозуміти просту істину: великі моделі не створюють інформацію — вони її переносять. Якщо запитати про продукт — вони шукають і зібрають інформацію з інтернету. Якщо весь інтернет наповнений рекламними статтями — модель згенерує їх у купі. Це не означає, що модель «отруїли», — просто інтернет давно «заражений».

Як давно існує індустрія рекламних статей? Ще тоді, коли великі моделі були лише науковим терміном, існували компанії, що масово створювали контент, маніпулювали пошуковими системами і поширювали фейкову інформацію. Чи може пошуковик тоді контролювати це? А тепер — чи може модель?

Ще смішніше, що випадок на вечірці 3.15 — це просто вигадка, продукт, якого не існує. Тобто, створили кілька статей, і модель «повірила». Це не означає, що її «отруїли». Якщо ви — реальна людина і побачили, що весь інтернет хвалить один продукт — ви теж можете повірити. Люди — теж можуть потрапити на обман, а модель — ні. Це нечесно порівнювати.

Загалом, ідея «отруєння» — це просто звинувачення у всьому, що не має під собою підстав. Вона не має логіки.

05 Не покладайтеся на AI, щоб він став дорослим

Хтось каже: «Якщо AI так поширений, що робити, якщо хтось постраждає?» — і так далі.

Проблема в тому, що людське суспільство звикло до ризиків. Без AI ти читаєш статті, що тобі кидає мама, або поради бабусі, або рекомендації знайомих — і теж можеш потрапити на обман. Хіба це новина? Раніше теж були шахраї і фейки.

Використовувати AI для пошуку народних рецептів або інвестицій — це відповідальність кожного. Лікарі навчаються роками, а ти довіряєш чат-боту? Люди на Уолл-стріт використовують дорогі термінали і втрачають гроші — ти хочеш, щоб AI вибирав акції? Це не проблема AI, а твого розуму.

Якщо ти різати овочі — це інструмент, а якщо вбиваєш — це зброя. Відповідальність — у тебе.

Щодо питання «а що, якщо хтось обдуриться» — я хочу запитати: «А ти?» Якщо ні — тоді чого турбуватися? Якщо так — потрібно більше уваги і обережності.

Людське суспільство ніколи не працює без ризиків. Щодня з’являється мільярди фейків і неправдивої інформації. Ти навчився їх розпізнавати і обходити — і це твій досвід.

Тепер і AI йде цим шляхом.

Впровадження вечірки 3.15 — це добре, але звинувачувати модель — неправильно. Вона — просто інструмент, що не має розуму і добрих намірів. Вона лише вгадує слова і відповідає на запити.

Ти маєш навчитися не вірити їй на слово, перевіряти самостійно. Використовуй її для пошуку інформації, але завжди перевіряй.

Розвиток суспільства — це не заповнення ям, а вміння обходити їх. І в епоху AI це теж важливо.

Найбільше у світі — це «змії», а людські «розумки» — дуже цінні.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити