Чатботи на основі штучного інтелекту змогли змінити ставлення людей до політичних кандидатів і суперечливих тем. І хоча моделям штучного інтелекту дослідники вказували спиратися лише на перевірені факти, чатботи, що агітували за «правих» політиків, припускалися більшої кількості помилок у такій аргументації. Ці хиби штучного інтелекту можуть призвести до маніпулювання вибором людей, особливо тих, хто покладається на чатботи в пошуку інформації. Результати дослідження представили у двох статтях Nature та Science.
Як штучний інтелект може впливати на політику?
Політичні погляди людей формуються під впливом багатьох чинників — від особистого досвіду до медіа та соціальних мереж. Останнім часом до цього набору додалися й чатботи на основі великих мовних моделей. У першому експерименті науковці дали учасникам спілкувалися з чатботами, які були запрограмовані агітувати за конкретних кандидатів на виборах у США, Канаді та Польщі, залишаючись ввічливими та спираючись на факти. Після цих розмов ставлення до кандидатів і наміри голосувати за них відчутно змінювалися. Спілкування з чатботом, що агітував за кандидата, якого людина вже підтримувала, трохи збільшувало впевненість людини в цьому виборі. Однак більш помітним ефект переконання був серед людей, які спочатку не підтримували того, за кого агітував чатбот.
У другому експерименті науковці з’ясували, що помітний вплив на користувача не обмежується лише найпотужнішими моделями. Навіть порівняно простий чатбот із налаштованою мовною моделлю виявився здатним добирати переконливі аргументи, послідовно підтримувати певну позицію та вести зв’язну дискусію. Для формування цих навичок набагато важливішим було донавчання після основного тренування і спосіб формування завдань для чатбота, а не розмір моделі чи обсяг відомостей про користувача, на які вона спирається. Після такого налаштування навіть невеликі моделі виявилися майже такими ж переконливими, як і найсучасніші системи.
Експерименти показали, що в контрольованих умовах переконливість чатботів була ненабагато вищою, ніж у традиційної політичної реклами. До того ж у реальних кампаніях ще треба буде переконати виборців узагалі спілкуватися з такими чатботами, особливо якщо вони підтримують іншого кандидата. Водночас автори дослідження вважають, що політична агітація на основі штучного інтелекту, яка спирається насамперед на донавчання моделей і продумані інструкції, ймовірно, стане важливим чинником майбутніх виборів.
Як вивчають поведінку та вплив штучного інтелекту в інших сферах
🧬 Медики дослідили, наскільки часто чатбот може вигадувати або перекручувати медичні факти, аби погодитися з користувачем.
🔬 А час роботи з науковими статтями науковці виявили, що ШІ схильний надмірно спрощувати й узагальнювати важливі поняття.
🛸 Водночас мовні моделі показали, що вміють добирати аргументи для розвінчування теорій змови й допомагати людям критичніше ставитися до конспірологічних тверджень.