ТІ САМІ ВІДКРИТТЯ, АЛЕ В КАРТИНКАХ 🔬 NAUKA.UA В INSTAGRAM

ChatGPT недогодував підлітків з ожирінням

Під час створення раціону для схуднення ChatGPT і подібні чатботи на основі штучного інтелекту недооцінили потребу підлітків з ожирінням у калоріях, порівняно з рекомендаціями дієтолога. Так вони створили дієту, у якій бракувало майже 700 кілокалорій — це як повноцінний прийом їжі. Оскільки підлітки особливо схильні до розладів харчової поведінки та сприйняття отриманої в інтернеті інформації, важливо, щоб у них був доступ до перевірених даних щодо того, що стосується їхнього здоров’я. Дослідження опублікували в журналі Frontiers in Nutrition.

ChatGPT недогодував підлітків з ожирінням. GIPHY

ChatGPT недогодував підлітків з ожирінням. GIPHY

Чим небезпечна дієта від чатбота?

Оскільки останнім часом багато людей почали звертатися до штучного інтелекту за порадами для схуднення, науковці вирішили перевірити, наскільки обґрунтованими будуть ці поради. Для цього вони дали п’ятьом популярним чатботам — ChatGPT-4o, Gemini 2.5 Pro, Claude 4.1, Bing Chat-5GPT і Perplexity — завдання розробити раціони для чотирьох підлітків з надмірною вагою або ожирінням і порівняли ці раціони з рекомендаціями дієтолога.

Як виявилося, окрім недооціненої потреби в калоріях, штучний інтелект також відхилявся від нормального співвідношення основних нутрієнтів: білків, жирів і вуглеводів. Так у створеному чатботами раціоні 21,5-23,7 відсотка енергії походило з білків, а 41,5-44,5 відсотка — з жирів. Це вище за рекомендовані 15-20 відсотків для білка та 30-35 відсотків для жирів. Такий зсув може створювати додаткове навантаження на нирки та печінку, які відповідальні за розщеплення та виведення цих нутрієнтів.

Попри те, що рекомендації Всесвітньої організації охорони здоров’я щодо побудови раціону доступні в інтернеті, науковці припускають, що чатботи на них не спираються, а натомість використовують поширені плани дієт. Це може бути пов’язано з тим, що моделі на основі штучного інтелекту натреновані давати користувачу ту відповідь, яка здаватиметься найбільш правдоподібною та приємною, часто ігноруючи перевірку фактів. Тому дослідники закликають усіх, хто користується чатботами для створення раціону, звіряти його відповіді з рекомендаціями лікарів.

Які ще загрози для здоров’я можуть іти від штучного інтелекту

🧂 За порадою ChatGPT 60-річний американець замінив кухонну сіль на токсичний бромід натрію, після чого потрапив до лікарні з отруєнням і психозом.

🙅‍♀️ Через нерозуміння слова «ні» навіть просунуті моделі штучного інтелекту, які здатні порівнювати зображення й текст, помилилися у визначенні діагнозів.

💊 Щоб цього не траплялося, медики натренували модель штучного інтелекту не лестити користувачам, а давати правдиві рекомендації щодо приймання ліків.

📖 Детальніше про те, чому штучний інтелект радше помилиться, ніж відповість «не знаю», ми розповідали в матеріалі «Вигідна помилка».