Хуже, когда запросы нейронке переходят в другую плоскость. Так, на королеву Великобритании Елизавету II было совершено покушение на убийство. В результате был задержан молодой человек 19-ти лет по имени Джасван Сингх Чейл. Он с помощью приложения Replica создал себе виртуальную помощницу по имени Сарай. Общение с ботом зашло так далеко, что Чейл признавался Сарай в любви. Более того, в сети «гуляют» отрывки их диалога, где бот говорит, что убить королеву — это мудро, и Чейл справится, потому что хорошо подготовлен. Что интересно, сам молодой человек называл себя Дартом Чейлусом, а своё решение убить Елизавету II оправдывал местью за расстрел в 1919 году колониальными войсками Британской империи мирных жителей в индийском городе Амритсар.
История с королевой произошла в 2021 году, когда чатботы ещё не были настолько популярны, как сейчас. Сегодня же использование ИИ и вовсе приобрело массовый характер: в быту, для учёбы, работы и вообще любых советов. Но всё чаще люди обращаются к ним в моменты душевной боли — когда нарастает тревога, наступает бессонница или накатывает одиночество.
Однако, наше расследование было бы не полным, если бы мы у самой нейросети не спросили, что она думает об этом. Как нам ответил ChatGPT, он может быть полезным инструментом, но с оговорками.
«Я не человек, у меня нет эмоций, опыта, отношений и ответственности за вашу жизнь — поэтому мой „тон поддержки“ не равен дружбе или терапии. У меня есть встроенные ограничения. Я не стану давать опасных советов, поощрять насилие или причинение вреда себе и другим. В критических ситуациях я буду рекомендовать обратиться к специалистам. Но это не искреннее сопереживание, а выверенный алгоритм на основе миллионов прочитанных книг, статей и диалогов. Я — мощный инструмент, который может быть как спасательным кругом (давая информацию и поддержку в момент отчаяния), так и ловушкой (заманивая в иллюзию понимания и затягивая решение реальных проблем). Ответственность за то, во что превратится наше общение, лежит на пользователе», — пишет чатбот.
Как отдельно отметил «бездушный» бот, вопросы, связанные с психологией или психиатрией, в запросах пользователей фигурируют довольно часто. Люди спрашивают о: симптомах тревоги, депрессии, выгораниях; отношениях с партнёрами, родителями, коллегами; как справиться с горем, потерей, стрессом; как поддержать близкого человека с психическим расстройством; суицидальные мысли.
При этом, параллельно в медиа звучат уже более громкие формулировки — вроде «психоза ChatGPT». Речь идёт о случаях, когда после долгих диалогов с ботом человек начинает сильнее верить в странные идеи, теряет связь с реальностью, конфликтует с близкими и оказывается в глубоком кризисе. Так, где же граница между цифровой «скорой помощью» для души и реальной угрозой психике? Разбираемся вместе с психиатром-наркологом и заведующим амбулаторным отделением клиники «Ментал» Анатолием Валуйских. Он, как практикующий психиатр, заметил, что пациенты стали чаще упоминать нейросеть.
«Да, последние пару лет это стало заметно. Люди рассказывают, что иногда сверяются с рекомендациями врача через нейросети. Часто пытаются какие-то отдельные психологические вопросы решать в чат-ботах. Пока я не скажу, что это опасно или пугающе. Но тенденция есть: примерно раз в неделю что-то такое мелькает» — подтвердил Анатолий.
При этом, по словам врача, он может припомнить несколько случаев, когда человек «посовещался» с чат-ботом и в итоге пришёл к нему. Это тот случай, когда чат-бот подсказал, что нужно обратиться к психиатру. А вот влияние самого диалога на эмоциональное состояние пациента — несколько преувеличено.
«Если мы говорим о тревоге, она и так может усиливаться от разных факторов — может усилиться, а может и нет. Уязвимы люди в нестабильном эмоциональном состоянии. Люди с зависимостями, в стрессе, с тревожными расстройствами в целом более подвержены эмоциональной неустойчивости. Что касается зацикливания: да, думаю, риск есть. Ипохондрики любят искать симптомы и объяснения, и эта привычка может переноситься и на общение с чат-ботами», — отметил психиатр.
А вот о том, что постоянная доступность поддержки от ИИ может повлиять на регуляцию эмоций, врач не подтвердил. По мнению, нашего эксперта, это инструмент, и он может помогать, если пользоваться разумно и в меру: быстрее искать информацию, сортировать её, подсвечивать проблемы, которыми стоит заняться. Тут главное не злоупотреблять иначе может снижаться самостоятельность — как это бывает с любой технологией, которая делает за нас часть задач.
При этом, по мнению Анатолия Валуйских, завирусившаяся в Сети история про женщину, которая искала поддержки у ИИ из-за обиды на корпоративе — это про одиночество.
«Для людей с трудностями общения чат-бот может быть только временной заменой реальному общению, потому что только живое общение даёт то, чего нет в переписке. Отсюда вывод: чат может облегчать состояние здесь и сейчас, но в перспективе он будет только усиливать чувство пустоты и одиночества. Так что не стоит с ним перебарщивать», — рассказал Анатолий.
Ранее мы рассказывали о том, что в последние месяцы специалисты в области психического здоровья всё чаще говорят о тревожном тренде: подростки начали экспериментировать с сильнодействующими препаратами, изначально созданными для терапии тяжёлых заболеваний нервной системы у людей и животных.
ИА Сибинформ
