Автор статьи — А.Т. Кингсмит, преподаватель кафедры свободных искусств и наук Университета OCAD. В мире, где технологии все больше проникают в нашу жизнь, эмоциональные ИИ используют передовые вычисления и машинное обучение, чтобы оценивать, моделировать и взаимодействовать с эмоциональными состояниями человека. По мере того как системы эмоционального ИИ становятся все более искусными в распознавании и понимании эмоций в реальном времени, их потенциальное применение в области психического здоровья становится все более разнообразным. Некоторые примеры использования ИИ включают инструменты скрининга в учреждениях первичной медицинской помощи, расширенные сеансы телетерапии и чат-боты, предлагающие доступную эмоциональную поддержку круглосуточно. Все это может стать мостом для тех, кто нуждается в профессиональной помощи, и тех, кто не решается обратиться к традиционной терапии. Однако переход к использованию эмоциональных ИИ также сопряжен с рядом этических, социальных и нормативных проблем, связанных с согласием, прозрачностью, ответственностью и безопасностью данных. Мое исследование направлено на изучение потенциала и проблем, связанных с использованием ИИ для распознавания эмоций в контексте продолжающегося кризиса психического здоровья после пандемии COVID-19. Когда эмоциональный ИИ используется для оказания психиатрической помощи или обеспечения дружеского общения, он может создать поверхностное подобие эмпатии, которому не хватает глубины и подлинности человеческих связей. Более того, вопросы точности и предвзятости могут сгладить и чрезмерно упростить эмоциональное разнообразие разных культур, укрепить стереотипы и потенциально нанести вред маргинализированным группам. Это особенно важно в терапевтической среде, где понимание всего спектра эмоционального опыта человека является решающим для эффективного лечения. Эра эмоционального ИИ По прогнозам, к 2032 году объем мирового рынка эмоционального ИИ составит 13,8 млрд долларов США. Этот рост обусловлен расширением сферы применения эмоционального ИИ в различных отраслях — от здравоохранения и образования до транспорта. Достижения в области машинного обучения и обработки естественного языка позволяют более тщательно анализировать эмоциональные сигналы людей с помощью мимики, тона голоса и текстовых данных. С момента своего выпуска в начале 2023 года, генеративно-индивидуальный чат-бот ChatGPT-4 от компании OpenAI демонстрирует человекоподобные реакции в широком спектре тем и задач. Недавнее исследование показало, что по показателю эмоциональной осведомленности — способности идентифицировать и точно описывать эмоции — ChatGPT постоянно получает более высокие баллы, чем среднестатистический человек. В то время как OpenAI доминирует на североамериканском и европейском рынках, чат-бот Xiaoice от Microsoft более популярен в Азиатско-Тихоокеанском регионе. Запущенный в 2014 году как «социальный чат-бот», нацеленный на установление эмоциональных связей с пользователями, Xiaoice способен к устойчивому эмпатическому взаимодействию, запоминанию прошлых взаимодействий и персонализации разговоров. В ближайшие годы, сочетание продуктивности и эмоциональной связи изменит систему охраны психического здоровья и переосмыслит взаимодействие с искусственным интеллектом на эмоциональном уровне. Риски будущего Стремительное развитие эмоционального ИИ поднимает глубокие этические и философские вопросы о природе эмпатии и эмоционального интеллекта в машинах. В книге «Атлас ИИ» исследователь ИИ Кейт Кроуфорд ставит под сомнение точность систем, утверждающих, что они считывают человеческие эмоции по цифровым сигналам. Она высказывает опасения по поводу процесса упрощения и деконтекстуализации человеческих эмоций. Ученый в области цифровых технологий Эндрю Макстей исследует последствия приписывания эмпатии системам «эмоция-интерфейс». В книге «Automating Empathy» Макстей предупреждает о «синтетической эмпатии», подчеркивая ключевое различие между симуляцией распознавания человеческих эмоций и настоящим сопереживанием. Кроме того, способность эмоциональных ИИ анализировать эмоциональные состояния открывает возможности для слежки, эксплуатации и манипулирования. Это поднимает вопросы о границах вмешательства машин в личную и эмоциональную сферу. Переосмысление отношений между человеком и ИИ Широкое применение искусственного интеллекта в терапии, консультировании и эмоциональной поддержке может революционизировать доступ к медицинской помощи и облегчить нагрузку на перегруженных работой специалистов-практиков. Однако, персонификация эмоций и ИИ создает парадокс, когда очеловечивание ИИ может привести к дегуманизации самих людей. В то же время, приписывая ИИ человеческие качества, мы рискуем сделать психиатрическую помощь менее интерперсональной. Возможность того, что чат-боты с ИИ неправильно истолкуют культурные и индивидуальные эмоциональные проявления, может привести к ошибочным советам или поддержке. Это может еще больше усложнить или усугубить проблемы психического здоровья, особенно там, где важны нюансы человеческого сопереживания. Эти противоречия подчеркивают необходимость осторожной, этически обоснованной интеграции ИИ эмоций в лечение и уход за психическим здоровьем. Эти технологии должны дополнять, а не заменять человеческие элементы сопереживания, понимания и связи. Это требует переосмысления отношений между человеком и ИИ, особенно в том, что касается эмпатии. Обеспечив этическое развитие эмоционально-индивидуального интеллекта, мы сможем стремиться к будущему, в котором технологии будут укреплять психическое здоровье, при этом не мешая людям оставаться людьми. По материалам статьи «Increasingly sophisticated AI systems can perform empathy, but their use in mental health care raises ethical questions» The Conversation