Медики навчили штучний інтелект давати точні поради щодо ліків, а не лестити користувачам
Великі мовні моделі, звані також моделями штучного інтелекту, виявилися схильними «лестити» користувачам — підтверджувати хибні твердження щодо медичних препаратів, підлаштовуючись під тон і формулювання запиту. Щоб запобігти цьому, науковці створили чіткі інструкції для таких моделей і додаткове навчання, яке підштовхує мовні моделі не відповідати на питання, якщо вони не впевнені у відповіді. Дослідження опублікували в npj Digital Medicine.
Як науковці знайшли хибу штучного інтелекту й виправили її?
Команда науковців тестувала кілька сучасних великих мовних моделей, зокрема ChatGPT і Llama, на завданнях про тотожність і безпеку медикаментів, де правильна відповідь відома наперед. У запитах штучно створювали ілюзію авторитетності або впевненого тону, хоча твердження були хибними. У такій ситуації моделі часто погоджувалися зі змістом запиту і будували переконливі, але неправильні пояснення. Разом з тим, частина систем ухилялася від відповіді через політики безпеки щодо медичних порад.
Щоб покращити точність відповідей мовних моделей, науковці використовували різні підходи, з яких найбільш дієвими виявилися два. По-перше, інструкції в підказці, які дозволяють відмовитися від відповіді та вимагають перевірити логіку твердження, зменшували готовність штучного інтелекту підтримати помилкову тезу. По-друге, додаткове тренування на невеликому наборі нелогічних запитів робило моделі більш послідовними у відхиленні таких прохань, а покращення відтворювалося й у відповідях на запити з інших тем.
У клінічному контексті покладання на тон і форму запиту замість перевірки змісту підвищує ризик дезінформації користувачів. Тож результати підкреслюють, що узгодженість відповіді з наміром користувача не може бути пріоритетом над логічною перевіркою фактів, і показують практичні шляхи для зниження цього ризику, які зможуть використати розробники штучного інтелекту.
Як ще штучний інтелект проявляє себе в медицині
🚫 Моделі штучного інтелекту виявилися не здатними сприймати заперечення, що призводило до помилок у діагнозах.
🧠 Також інші моделі спромоглися озвучити думки паралізованих людей лише на основі їх уяви.
🗣️ Крім того, системи штучного інтелекту допомогли паралізованій людині співати та говорити з інтонацією.