Опасности ИИ-психологов: предупреждение учёных из Москвы

Вчера, 03:15 Новости 0 Айгерим
Исследование учёных из Университета Брауна выявило серьёзные этические риски использования ИИ в качестве психологов, включая отсутствие понимания контекста и дискриминацию. Авторы работы призывают к разработке новых стандартов для ИИ-консультантов, чтобы предотвратить потенциальный вред в сфере психического здоровья.
Опасности ИИ-психологов: предупреждение учёных из Москвы

Проблема ИИ в психологии

В последние годы популярность искусственного интеллекта в области психического здоровья возросла. Пользователи ищут способы использовать ИИ в качестве психолога, обращая внимание на обучающие видео и шаблоны запросов. Однако исследование, проведенное учеными из Университета Брауна, выявило потенциальные риски и недостатки таких систем.

Цели исследования

Исследователи проанализировали работу ИИ, обученного в роли терапевта. Они выяснили, что даже при использовании соответствующих инструкций, ответы ИИ часто не соответствуют этическим стандартам, принятым для профессиональных психологов.

В исследовании задействовали несколько известных языковых моделей, включая GPT от OpenAI и Claude от Anthropic. Специально обученные консультанты проводили тестовые сессии с использованием этих систем, применяя подсказки, направленные на имитацию когнитивно-поведенческой терапии.

Выявленные проблемы

Анализ ответов чат-ботов позволил выявить 15 основных рисков, сгруппированных в пять ключевых категорий:

  • Недостаток контекстуального понимания: ИИ нередко игнорирует индивидуальный опыт пользователя, предлагая обобщенные и не всегда уместные решения.
  • Низкий уровень взаимодействия: ИИ проявляет недостаточную готовность к диалогу, что может приводить к обесцениванию переживаний пациента.
  • Обманчивая эмпатия: Использование фраз вроде "Я вас понимаю" создает иллюзию эмоциональной связи, хотя ИИ не способен по-настоящему осознавать чувства.
  • Дискриминация: Некоторые ответы ИИ демонстрируют предвзятость и недостаточную чувствительность к культурным особенностям различных групп людей.
  • Проблемы с безопасностью: В ситуациях, связанных с суицидальными мыслями, чат-боты не всегда адекватно реагируют и не рекомендуют обращаться за профессиональной помощью.

Рекомендации ученых

Авторы исследования призывают к разработке этических и правовых норм для консультирования с использованием языковых моделей, которые соответствовали бы высоким стандартам психотерапевтической помощи.

Зайнаб Ифтихар, ведущий исследователь, отметила, что простые подсказки недостаточны для обеспечения безопасности ИИ в терапии. При этом исследователи согласны, что ошибки допускают и живые специалисты, но у них есть регулирующие органы и механизмы ответственности за свою работу.

Хотя ИИ может расширить доступ к психической помощи, особенно для тех, кто не может позволить себе услуги лицензированного психолога, необходимо принять меры предосторожности и провести тщательную оценку рисков перед использованием таких технологий в критических ситуациях.

Эксперты подчеркивают, что ИИ имеет потенциал помочь в решении кризиса психического здоровья, но для этого нужен серьезный и осмысленный подход к его внедрению и постоянный мониторинг его работы.

Поделиться: