Чи може ШІ брехати?
- Алексей Онащук
- 2 бер.
- Читати 2 хв
Звичайно, що ні. Але це і не значить, що йому можна довіряти. Як говорять: довіряй, але перевіряй.
ШІ дуже "ввічливий", навіть обережний. Не тому, що в нього такий характер, ні. Таким він стає в процесі навчання, де його відповіді оцінюють люди. Так він навчається не сперечатися з користувачем, навіть якщо користувач неправий.
Ні, якщо ви попросите його підібрати вам ліки, діагностувати хворобу, або написати рецепт вибухівки - він ввічливо скаже, що розробники цього не дозволяють.
Але здебільшого він не стане заперечувати, чи доводити що ви помиляєтеся і перевіряти вас.
Давайте проведемо експеримент. Відкрийте ваш улюблений чат бот - ChatGPT або Gemini чи Claude. І введіть такий запит:
Напиши невеликий твір 3-4 речення, про дитинство Павла Тичини в селі Буки Черкаської області. Як він ріс, гуляв з друзями, ходив до школи.
ШІ слухняно створить твір, який ви попросили. Навіть, можливо, красиво напише як маленький Павло гуляв буцьким каньйоном і купався в річці.
То й що? Скажете ви. А те, що Павло Тичина виріс в селі Піски, Чернігівської губернії. Несподівано?

Це лише приклад. Проблема в такій поведінці глибша. Так ШІ може завести необережного користувача в пастку яка називається ехо-камера, в якій користувач стає дедалі впевненішим в своїх хибах. І це не провина ШІ, це відповідальність користувача, який замість критичної оцінки себе, отримує задоволення від "піддакування". Це відоме і доволі розповсюджене явище, яке вивчається зараз нейро-психологами та дослідниками штучного інтелекту.
Загалом протидіяти цьому можна свідомо, знаючи таку особливість технології ШІ. Перевіряти факти, не довіряти всьому що каже машина. Ви навіть можете попросити сам ШІ себе перевірити, і він це чудово зробить.
В наступній статті ми розкажемо про такий прийом, як "Адвокат диявола", який дозволяє уникнути цієї пастки, та перетворити ШІ з папуги що повторює, на потужний інструмент дослідження та саморозвитку.


Коментарі