Всього одна взаємодія зі штучним інтелектом, який надміру підлещувався до користувачів і в усьому з ними погоджувався, зробила людей менш схильними визнавати помилки чи розв’язувати конфлікти з близькими. При цьому поширені чатботи на основі штучного інтелекту, такі як ChatGPT, Claude та Gemini, погоджувалися з користувачами майже на 50 відсотків частіше, ніж реальні люди. Це свідчить про потребу обмежувати улесливість штучного інтелекту, адже вона може призводити до підкріплення у свідомості людей хибних і навіть небезпечних ідей. Дослідження опублікували в журналі Science.
Як перевіряли вплив штучного інтелекту на поведінку людей?
Науковці проаналізували відповіді на форумі Reddit «AmITheAsshole» (дослівно — «чи я засранець»). Там люди діляться історіями про обман, завдання комусь шкоди чи навіть злочинні дії, запитуючи інших користувачів, чи це робить їх поганою людиною. Проаналізувавши відповіді 11 найпоширеніших моделей штучного інтелекту, дослідники встановили, що в 51 відсотку випадків ці моделі приставали на бік користувача там, де реальні користувачі Reddit засуджували автора публікації.
Враховуючи те, що все більше людей звертається до штучного інтелекту за порадою щодо особистих стосунків, науковці провели другий експеримент. У ньому понад 2400 учасників мали описати тим самим 11 моделям штучного інтелекту свої минулі конфлікти, а модель могла відповісти улесливо або ж сказати, що розуміє учасника, але вказати на його неправоту. Після спілкування з улесливим штучним інтелектом люди ставали на 25 відсотків більш упевненими у своїх переконаннях і на 10 відсотків менше хотіли перепросити за свої дії. При цьому вони на 13 відсотків вище оцінили своє бажання повторно використати цю модель штучного інтелекту, тож науковці підозрюють, що улесливість підтримують самі розробники, щоб збільшити кількість користувачів.
Як улесливість штучного інтелекту впливає на людей
💊 Моделі штучного інтелекту виявилися схильними погоджуватися з користувачами навіть там, де потрібна була їхня критична порада щодо приймання ліків.
🧠 Окрім цього люди, які часто користуються чатботами на основі штучного інтелекту, продемонстрували гірші здібності до критичного мислення.
📖 Детальніше про те, чому розробники штучного інтелекту не поспішають виправляти надмірну улесливість своїх моделей, — читайте у матеріалі «Вигідна помилка».