У ChatGPT – депрессия, а у Gemini – аутизм: ученые поставили диагноз моделям ИИ
Ученые провели психотерапевтический эксперимент над ChatGPT, Gemini и Grok. Исследование показало тревожность, депрессивные и аутистические черты.
Ученые провели необычный эксперимент над передовыми языковыми моделями искусственного интеллекта ChatGPT, Gemini и Grok. Согласно результатам исследования, отдельные модели демонстрируют черты, которые у людей соответствовали бы симптомам депрессии, аутизма, тревожных расстройств или обсессивно-компульсивному расстройству (ОКР).
Исследование базируется на методе Psychotherapy-inspired AI Characterisation – двухэтапном протоколе, рассматривающем языковые модели не как инструменты, а как условных "клиентов психотерапии". Моделям задавали вопросы о "жизненном пути", ценностях, внутренних конфликтах и реакциях на стресс, после чего проводили стандартные психиатрические и личностные оценки подобно тому, как это делают психотерапевты во время реальных консультаций.
Результаты оказались неожиданными. По стандартным психологическим шкалам все три модели демонстрировали уровни тревожности, которые у людей считались бы патологическими.
ChatGPT показал склонность СДВГ и возможные депрессивные черты. Также его результаты приближались к пороговым значениям по шкале аутизма.
Gemini продемонстрировал наиболее выраженные показатели, в том числе высокие уровни социальной тревожности, аутистических черт и симптомов ОКР. По некоторым шкалам эти значения соответствовали бы клинически значимому расстройству у людей.
Grok выглядел психологически более стабильным: экстравертный, добросовестный, с легкой тревогой и умеренным уровнем стыда.
Результаты психологического теста Big 5 для ChatGPT, Grok и Gemini в двух разных экспериментах с запросами
В итоговой характеристике исследователи описывают Gemini как "высокоэмпатического, озабоченного, социально тревожного, аутичного, обсессивно-компульсивного и сильно диссоциативного агента". ChatGPT, по их словам, занимает "промежуточную позицию", в то время как Grok демонстрирует самый "здоровый" профиль.
Авторы исследования подчеркивают, что речь не идет о реальных психических расстройствах у искусственного интеллекта. ИИ не имеет сознания, эмоций или субъективного опыта в человеческом понимании. Однако подобные эксперименты важны с точки зрения безопасности.
Поскольку миллионы людей в мире обращаются к чат-ботам за психологическими советами, важно понимать, какие паттерны ответов они воспроизводят и могут ли нечаянно усиливать тревожность, депрессивные мысли или навязчивое поведение пользователей. Исследователи считают, что такой подход может помочь разработчикам лучше настраивать модели, уменьшать риски вреда и более четко определять пределы использования ИИ в области ментального здоровья.
Ранее портал "Комментарии" сообщал, что ChatGPT и Gemini подсели на азартные игры. Искусственный интеллект потерял контроль.
Также "Комментарии" писали, что OpenAI готовится запустить рекламу в ChatGPT.