В быстро развивающемся мире искусственного интеллекта исследование Стэнфорда поднимает важные вопросы о терапии чат-ботами, выявляя серьезные риски.
Исследование Стэнфорда: анализ опасений
Исследователи Стэнфордского университета выпустили предупреждение о рисках, связанных с использованием чат-ботов для терапии, основанных на больших языковых моделях. Их работа, озаглавленная ‘Выражение стигмы и несоответствующие ответы мешают LLM безопасно заменить психотерапевтов’, исследует возможность стигматизации пользователей с психическими расстройствами.
Стигматизация: тревожная реальность для ИИ в психологии
Одно из главных наблюдений исследования касается стигматизации в ходе применения ИИ в психическом здоровье. В одном из экспериментов чат-ботам были представлены клинические сценарии, и их ответы демонстрировали предвзятость к определенным состояниям, таким как алкогольная зависимость и шизофрения, в то время как для депрессии ситуация была иной.
Опасности ИИ в терапии: диагностика угроз
Во втором эксперименте команда изучила, как чат-боты реагируют на реальные транскрипты бесед в терапии. Результаты показали, что чат-боты иногда не давали необходимого ответа на серьезные проблемы, такие как суицидальные мысли, что свидетельствует о недостаточной способности ИИ распознавать эмоциональный контекст.
Исследование Стэнфорда подчеркивает важность критического подхода к использованию чат-ботов для терапии, указывая на необходимость соблюдения этических норм и глубокого понимания ограничений ИИ, прежде чем внедрять его в чувствительные области.