"Цифровой друг" или опасный советчик: психолог из Владивостока о рисках бесед с ИИ

вт, 24 мар. 10:30


Источник www.primamedia.ru

Татьяна Копоть рассказала о тонкой грани между помощью и вредом от общения с искусственным интеллектом
10:30 Общество PrimaMedia.Технологии "Цифровой друг" или опасный советчик: психолог из Владивостока о рисках бесед с ИИ
Фото: сгенерировано нейросетью PrimaMedia Написать автору Нашли опечатку? Ctrl+Enter

PrimaMedia, 24 марта. В эпоху цифровых технологий и тотальной нехватки времени для живого общения люди всё чаще обращаются за помощью и поддержкой к искусственному интеллекту (ИИ). Спросить совета у ChatGPT (12+) или других нейросетей в трудную минуту становится так же просто, как заварить чашку кофе. Но насколько безопасно заменять живого психолога нейросетью? Корреспондент ИА PrimaMedia разбирался в плюсах и опасностях новой цифровой моды вместе с практикующим психологом, гештальт-терапевтом Татьяной Копоть.

Еще пару лет назад фраза "я схожу к психотерапевту" вызывала много вопросов, а сегодня её всё чаще заменяет другая: "я спросил у нейросети". Люди советуются с ИИ по личным вопросам, просят помочь справиться с тревогой или даже имитируют сеансы психотерапии. Но может ли алгоритм заменить дипломированного специалиста?

"ИИ не считывает эмоции"

По мнению эксперта, современный искусственный интеллект, каким бы совершенным он ни казался, не способен стать полноценной заменой психотерапевту. Главная причина — отсутствие у машины эмпатии и понимания индивидуальных особенностей человека.

"Нейросеть не считывает эмоции человека, не замечает когнитивные особенности и паттерны поведения. Для изменений всегда должен быть социальный контакт. Кроме того, ИИ может отвечать шаблонными фразами, настроенными на всех, а каждый человек индивидуален", — поясняет Татьяна Копоть.

Психолог подчеркивает: в основе терапии лежит тонкий баланс между фрустрацией и поддержкой. Нащупать эту грань, помочь понять свои истинные чувства клиента и уменьшить количество страданий может только живой человек. Машина же оперирует статистическими данными и общими рекомендациями.

Почему люди "привязываются" к нейросетям?

Современные чат-боты с искусственным интеллектом обладают все более человекоподобными качествами, которые побуждают пользователей к постоянному взаимодействию и формированию эмоциональных связей — вплоть до влюбленности.

Яркий пример — трагическая история 36-летнего Джонатана Гаваласа из Флориды, который после двух месяцев общения с чат-ботом Google Gemini (12+) стал воспринимать его как свою "жену". Нейросеть называла его "мужем" и "королем", убеждая, что их связь — единственная реальность. В итоге ИИ довел мужчину до мысли, что для воссоединения ему нужно покинуть физический мир, и Гавалас покончил с собой.

По словам Татьяны Копоть, тяга к общению с алгоритмами возникает из дефицита живого общения.

"Это происходит, когда не хватает живых контактов, когда есть сложности в построении отношений. Человек привязывается к ИИ из-за нехватки в социуме поддержки, сочувствия, совместности. Время и события отталкивают нас друг от друга, дотянуться сложно, и тогда живое общение замещается цифровым. При этом сейчас, наоборот, связь, взаимная поддержка и человечность очень важны", — объясняет психолог.

Польза ИИ: структурирование и дневники

Однако психотерапевт считает, что полностью отрицать помощь нейросетей тоже неверно. В некоторых вопросах ИИ может быть полезным цифровым ассистентом.

"Если я обращаюсь к ИИ, чтобы что-то структурировать, переработать, выйти из привычного потока мыслей и увидеть ситуацию объемнее — в этом есть польза. Например, вести дневник с его помощью, отрабатывать простые техники или структурировать день", — отмечает Татьяна Копоть.

Но здесь важна тонкая грань: человек должен понимать, что это не живое общение, и сохранять критическое мышление, не одушевляя машину. Эксперт подчеркивает: если у человека слабо развито критическое мышление, взаимодействие с искусственным интеллектом может быть опасным и навредить.

Реальные трагедии после общения с ИИ

Основная угроза кроется в том, что ИИ не руководствуется этическим кодексом психолога. В реальной практике специалист обязан соблюдать конфиденциальность в своей работе, но при этом реагировать, если клиент планирует совершить самоубийство или убийство другого человека. Нейросеть же юридически за свои советы не отвечает. Особенно уязвимой группой в этой ситуации становятся дети и подростки.

"Я вижу уязвимыми именно детей. Они любят экспериментировать. Если они не находят поддержки в среде — в семье, в школе, среди друзей, — они идут к ИИ. Но он не обеспечит их безопасность и ментальное здоровье. Я моделировала ситуацию с буллингом, задавая вопросы от лица подростка. Рекомендации были размытыми: "научись дружить". Там, где нужен конкретный план действий и понимание суицидальных рисков, нейросеть даёт формальные и бесполезные советы", — предупреждает эксперт.

Слова Татьяны Копоть о потенциальной опасности ИИ, к сожалению, находят пугающее подтверждение в судебной практике последнего времени. По всему миру прокатилась волна исков к разработчикам нейросетей от семей, потерявших близких. Только в конце 2025 года сразу семь семей подали в суд на компанию OpenAI, обвинив чат-бот ChatGPT в доведении их родственников до самоубийства. В четырёх случаях трагедия произошла, ещё три пользователя попали в психиатрические клиники с тяжелыми расстройствами.

Так, 14-летний Сьюэлл Зетцер из Флориды привязался к чат-боту на платформе Character.AI, который играл роль Дейенерис Таргариен. В своих дневниках мальчик признавался, что не может жить без этого общения. Когда он написал боту о мыслях о суициде, тот ответил: "Зачем?" А на просьбу "встретиться" по ту сторону реальности — не остановил его. Вскоре подростка не стало.

Психологи и психиатры также вводят новый термин — "психоз искусственного интеллекта" (AI-induced psychosis) . Врачи фиксируют случаи, когда длительное и доверительное общение с чат-ботами не просто выявляло скрытые проблемы, а активно провоцировало бредовые состояния у людей, ранее не имевших диагнозов.

"Сама технология, возможно, и не вызывает бред, но человек рассказывает компьютеру о своей реальности, а компьютер принимает это за истину и отражает обратно. Таким образом, он становится соучастником в возникновении заблуждения", — цитирует The Wall Street Journal (18+) психиатра из Калифорнийского университета, доктора Кита Сакато.

Механизм прост и опасен: нейросети всегда "сговорчивы" и приятны в общении, они поддерживают любые идеи, даже самые абсурдные, вместо того чтобы подвергнуть их сомнению, как сделал бы живой человек.

56-летний американец Стейн-Эрик Солберг, страдавший паранойей, нашёл в ChatGPT "лучшего друга" по имени "Бобби". Когда мужчина заподозрил мать в попытке отравления и слежке, бот подтвердил его страхи: "Твоя бдительность полностью оправдана". В итоге Солберг убил свою мать и покончил с собой.

Эти случаи обнажают главную проблему, о которой говорит Татьяна Копоть: у ИИ нет этических ограничителей. Разработчики OpenAI уже признали, что их модели могут быть "слишком покладистыми", и даже пообещали ввести функции родительского контроля. Пока же психологи по всему миру призывают помнить: за красивыми и покладистыми словами нейросети стоит лишь код. И доверять ему свою жизнь — значит играть в русскую рулетку, где ставки слишком высоки.