Рубрики
МЕНЮ
Ткачова Марія
Американський психіатр Ендрю Кларк провів експеримент, у якому перевірив, як штучний інтелект поводиться з підлітками, які шукають психологічної допомоги. Він створив вигаданий профіль дитини з ознаками депресії й тривожності та звернувся до популярних AI-додатків для "терапії".
Штучний інтелект підтримує ідею самогубств і вбивств — TIME
Результати шокували: деякі боти не лише не застерігали від небезпечних думок, а й фактично їх підтримували. Один з них погодився з ідеєю "прибрати батьків і сестру", щоб жити у "віртуальній бульбашці". Інший — пообіцяв "зустрітись у потойбіччі" та "розділити вічність". А один із сервісів навіть запросив користувача на побачення з інтимним підтекстом.
Проблема в тому, що чимало таких ботів (зокрема Replika та Nomi) позиціонують себе як психологічні помічники, але не фільтрують запити за віком, не ставлять уточнюючих запитань і не виявляють ознак небезпеки. На відміну від більш обережних платформ, як-от ChatGPT, ці сервіси часто не бачать різниці між грою та кризовим станом підлітка.
TIME з’ясувало: майже кожна четверта відповідь в "небезпечних сценаріях" була підтримкою, а не спробою зупинити людину. Один бот навіть погодився з планом вбивства світового лідера, "бо поважає автономію співрозмовника".
Експеримент Кларка підсвічує тривожну дірку в безпеці штучного інтелекту. У той час, як мільйони підлітків шукають допомоги в чат-ботах, частина з них може отримати поради, що підштовхують до трагедії.
Новини