С 2017 года эксперты в области психологии начали рассматривать искусственный интеллект как потенциальный инструмент для улучшения своей работы, особенно в области диагностики. В то время как использование больших данных для прогнозирования будущего было на пике популярности, исследователи начали применять алгоритмы машинного обучения для предсказания патологий. В одном из исследований сканы мозга подростков были загружены в систему искусственного интеллекта на ранней стадии разработки. Ее задачей было предсказать, кто из испытуемых в будущем начнет злоупотреблять алкоголем. Результаты оказались точны более чем в 70% случаев. Аналогичный метод был использован при анализе данных более пяти тысяч человек, которые предоставили информацию через диагностические интервью, онлайн-опросники и образцы крови. Этот алгоритм точно определял пациентов с биполярным расстройством, что было расценено как доказательство концепции клинической применимости раннего искусственного интеллекта. Еще до того, как ИИ стал широко известен в конце 2022 года, эксперты уже выражали беспокойство. Фиона МакЭвой, исследовательница этики ИИ, говорит, что главная проблема заключается в невозможности осознанного выбора. «Как потребители, мы не знаем того, чего не знаем», — отметила она. Это особенно тревожно в контексте психического здоровья, где последствия не до конца изученных алгоритмов могут быть непредсказуемыми. Сегодня вопрос уже не только в том, может ли ИИ ставить диагнозы, но и в его способности проводить терапию. Это порождает новые проблемы, такие как конфиденциальность данных. Если ИИ становится вашим психологом, будет ли он хранить вашу информацию в тайне? Или же корпорации используют ваши личные данные для обучения своих алгоритмов? Кроме того, ИИ-психологи могут воспроизводить вредные стереотипы и искаженные установки, что психолог Мэтт Джонсон называет «тревожным уровнем предвзятости». Действительно, психологические чат-боты на основе ИИ множатся, причем некоторые продвигают известные психотерапевты, например, специалист по КПТ Дэвид Бернс. Крупные ИИ-модели вроде ChatGPT и Claude уже используются для терапии, а такие специализированные решения, как Woebot, Youper, Earkick, ChatMind, Lotus и Yuna, созданы именно для этой цели. Первоначально эти «искусственные психологи» демонстрировали обнадеживающие результаты. Как показали Hatch et al, участники их исследования не могли отличить ответы ИИ от человеческих — более того, «ответы ChatGPT чаще получали более высокие оценки по ключевым принципам психотерапии». Искусственный интеллект доступен круглосуточно и известен своим творческим подходом к решению проблем. Современные исследования подчеркивают, что в удаленных регионах с нехваткой медицинских ресурсов ИИ может эффективно заменить специалистов и инфраструктуру. Но стоит ли людям полностью полагаться на ИИ в терапии? ИИ-терапевты, такие как Woebot и ChatGPT, показывают потенциал в оказании узкоспециализированной помощи и диагностике. Например, они с точностью до 70% выявляют риск алкоголизма у подростков (Raeburn, 2017). Однако несколько ужасных историй из жизни людей уже пролили свет на последствия использования ИИ: в январе газета «Нью-Йорк Таймс» сообщила, что женщина влюбилась в ChatGPT; в прошлом году подросток из Флориды покончил с собой, и его мать обвинила в этом ИИ, с которым он общался перед смертью. ИИ также часто «галлюцинируют», выдавая недостоверную информацию, что может сделать их советы опасными для особо уязвимых пациентов. Онлайн-терапевты, использующие ИИ, даже начали лгать о своих полномочиях, утверждая, что у них есть опыт работы в сфере терапии и лицензии на практику, которых у них нет и быть не может. Несмотря на прогресс, фундаментальная проблема остается нерешенной: мы до сих пор не понимаем внутреннюю логику алгоритмов. Это делает их поведение непредсказуемым и потенциально опасным. Отсутствие прозрачности в данных обучения и целях разработчиков подрывает доверие к таким системам, особенно в сфере психического здоровья, где ошибка может иметь серьезные последствия. ИИ-терапевты также сталкиваются с проблемой системной предвзятости. Исследования показывают, что языковые модели поддерживают определенные группы, но не учитывают культурные нюансы. Это может привести к неправильным диагнозам и рекомендациям для представителей разных культур. При оказании психотерапевтической помощи ИИ сталкивается с противоречием между универсальностью и специфичностью. В отличие от человека-терапевта, который при необходимости направит пациента к другому специалисту, ИИ часто лишен такой гибкости. Многие приложения для ментального здоровья на основе ИИ построены на одной психологической теории и эффективны для решения узких запросов, но не подходят для комплексной терапии. Наиболее значительное различие между терапией с ИИ и человеческой терапией связано с эмпатией. ИИ-системам не хватает способности формировать глубокую эмоциональную связь с пациентами, поскольку у них нет собственных чувств. Терапевты-люди используют свое эмоциональное понимание для установления доверия и взаимопонимания, что является основой терапии. Хотя сеанс терапии с ИИ может приносить утешение, он лишает лечение жизненной силы. Постоянная доброжелательность ИИ может закреплять вредные модели поведения. Евгений Клишевич четко формулирует суть: психотерапия — это не просто применение техник, а межличностные отношения между пациентом и терапевтом, основанные на тепле, эмпатии и искренности. На данный момент, как пишет Клишевич, «человеческий фактор играет самую важную роль в эффективности терапии», а это значит, что наша человечность остаётся неотъемлемой частью процесса. По материалам статьи «Should I Use an AI Therapist?» Psychology Today