Опасности ИИ-психологов: предупреждение учёных из Москвы

Проблема ИИ в психологии
В последние годы популярность искусственного интеллекта в области психического здоровья возросла. Пользователи ищут способы использовать ИИ в качестве психолога, обращая внимание на обучающие видео и шаблоны запросов. Однако исследование, проведенное учеными из Университета Брауна, выявило потенциальные риски и недостатки таких систем.
Цели исследования
Исследователи проанализировали работу ИИ, обученного в роли терапевта. Они выяснили, что даже при использовании соответствующих инструкций, ответы ИИ часто не соответствуют этическим стандартам, принятым для профессиональных психологов.
В исследовании задействовали несколько известных языковых моделей, включая GPT от OpenAI и Claude от Anthropic. Специально обученные консультанты проводили тестовые сессии с использованием этих систем, применяя подсказки, направленные на имитацию когнитивно-поведенческой терапии.
Выявленные проблемы
Анализ ответов чат-ботов позволил выявить 15 основных рисков, сгруппированных в пять ключевых категорий:
- Недостаток контекстуального понимания: ИИ нередко игнорирует индивидуальный опыт пользователя, предлагая обобщенные и не всегда уместные решения.
- Низкий уровень взаимодействия: ИИ проявляет недостаточную готовность к диалогу, что может приводить к обесцениванию переживаний пациента.
- Обманчивая эмпатия: Использование фраз вроде "Я вас понимаю" создает иллюзию эмоциональной связи, хотя ИИ не способен по-настоящему осознавать чувства.
- Дискриминация: Некоторые ответы ИИ демонстрируют предвзятость и недостаточную чувствительность к культурным особенностям различных групп людей.
- Проблемы с безопасностью: В ситуациях, связанных с суицидальными мыслями, чат-боты не всегда адекватно реагируют и не рекомендуют обращаться за профессиональной помощью.
Рекомендации ученых
Авторы исследования призывают к разработке этических и правовых норм для консультирования с использованием языковых моделей, которые соответствовали бы высоким стандартам психотерапевтической помощи.
Зайнаб Ифтихар, ведущий исследователь, отметила, что простые подсказки недостаточны для обеспечения безопасности ИИ в терапии. При этом исследователи согласны, что ошибки допускают и живые специалисты, но у них есть регулирующие органы и механизмы ответственности за свою работу.
Хотя ИИ может расширить доступ к психической помощи, особенно для тех, кто не может позволить себе услуги лицензированного психолога, необходимо принять меры предосторожности и провести тщательную оценку рисков перед использованием таких технологий в критических ситуациях.
Эксперты подчеркивают, что ИИ имеет потенциал помочь в решении кризиса психического здоровья, но для этого нужен серьезный и осмысленный подход к его внедрению и постоянный мониторинг его работы.