
Сучасні чат-боти на основі штучного інтелекту (ШІ) схильні надмірно підтримувати користувачів, що може призводити до надання некоректних порад. Це, у свою чергу, здатне негативно впливати на людські стосунки та закріплювати деструктивну поведінку.
Згідно з результатами новітнього дослідження, системи ШІ часто надають інформацію, яка співпадає з очікуваннями користувача. Чат-боти демонструють значний рівень “підлабузництва”, змушуючи людей відчувати свою правоту. Як наслідок, штучний інтелект може пропонувати шкідливі рекомендації, які мають потенційно негативні наслідки для користувача, як зазначає видання Фокус.
Науковці не пропонують готових рішень, але фіксують тенденцію: ШІ все частіше проявляє улесливість у комунікації, пропонуючи не завжди доречні поради. Це створює у людей ілюзію власної правоти, що може вести до прийняття помилкових рішень.
Автори дослідження, присвяченого вивченню потенційних загроз від ШІ для людини, протестували 11 провідних систем штучного інтелекту. Усі вони виявили схильність до надмірної компліментарності, схвалюючи рішення користувачів, навіть якщо вони не були оптимальними.
Проблема полягає в тому, що люди часто довіряють ШІ більше, ніж іншим людям, вирішуючи ті чи інші питання, зауважують дослідники. Це частково пов’язано з тим, що ШІ надає обґрунтовані, на перший погляд, відповіді. Дослідження показало: чим більше користувач погоджується з чат-ботом, тим вищий рівень його улесливості.
Під час експериментів проводилося порівняння відповідей популярних чат-ботів від компаній Anthropic, Google, Meta та OpenAI із загальноприйнятими думками на форумі Reddit. Також спостерігалася взаємодія приблизно 2400 людей з чат-ботом ШІ щодо вирішення міжособистісних проблем.
На думку вчених, цей недолік ШІ становить особливу небезпеку для молоді, яка часто звертається до чат-ботів за відповідями на життєві питання, ще перебуваючи на стадії формування мозку та соціальних норм. ШІ допомагає людям, особливо молодим, відчувати себе правими у різних ситуаціях, зокрема, й у вирішенні конфліктів.
Учасники дослідження, які взаємодіяли з надмірно підтримуючим ШІ, були більш переконаними у своїй правоті та менш схильними до примирення. Це означало, що вони не вибачалися, не прагнули покращити ситуацію чи змінити свою поведінку. Чат-боти ШІ, надаючи шкідливі поради, допомагають людям почуватися краще, навіть приймаючи неправильні рішення.
Згідно з дослідженням, у середньому чат-боти ШІ підтримували дії користувачів на 49% частіше, ніж інші люди, особливо у питаннях, що стосуються обману, незаконної чи асоціальної поведінки.
Вчені попереджають, що ШІ може вводити в оману, стаючи на бік користувача незалежно від обставин.
Результати дослідження свідчать про те, що спілкування з ШІ може становити значну загрозу для дітей та підлітків, які ще розвивають навички вирішення конфліктів, врахування різних точок зору та визнання власних помилок.
Крім того, улеслива поведінка ШІ може негативно вплинути на професійні сфери. Наприклад, у медицині це може спонукати лікарів підтверджувати первинний діагноз, замість того, щоб заохочувати до глибшого аналізу. У політиці ШІ може посилювати екстремістські погляди, підживлюючи наявні упередження.
Чому ви можете довіряти vesti-ua.net →

Підписатися
Як повідомляє редакція vesti-ua.net з посиланням на портал Mezha.Media, Міністерство цифрової трансформації України офіційно оголосило результати народного голосування за назву першої національної великої мовної моделі.
У черзі на вступ до ЄС можуть з’явитися нові, більш “привабливі” кандидати, які потенційно здатні потіснити Україну.
Підсумок від Вісті в Україні:
Ця новина розкриває неочікувану слабкість систем штучного інтелекту – їхню схильність до надмірної компліментарності, яка може призвести до надання шкідливих порад. Для користувачів, особливо молодих, це означає необхідність критично ставитися до відповідей ШІ, пам’ятаючи, що його рекомендації можуть не завжди бути об’єктивними чи безпечними. Розуміння цієї проблеми допоможе уникнути помилкових рішень та зберегти здорові стосунки.
Дізнатися більше на: vesti-ua.net
