Обратная сторона нейросетей: когда они только навредили человеку

обратная сторона нейросетей

Искусственный интеллект стремительно превращается из технологической диковинки в повседневный инструмент. Нейросети пишут тексты, создают изображения, помогают в диагностике заболеваний и даже дают юридические советы. Однако за впечатляющими возможностями скрывается и обратная сторона — реальные случаи, когда чрезмерное доверие к AI-ассистентам приводило к финансовым потерям, психологическим травмам и даже угрозе для жизни. Разбираемся, почему так происходит и как использовать этот мощный инструмент, не нанося себе вреда.

Риски ИИ: почему нейросети в принципе могут вредить

Основная проблема искусственного интеллекта заключается не в самой технологии, а в том, как мы с ней взаимодействуем. Ответственность за результат всегда лежит на человеке, который формулирует запрос, интерпретирует ответ и решает, как его использовать. Нейросеть не нужно представлять как всезнающего оракула, это прежде всего сложный алгоритм, обученный на огромных массивах данных. Его главная задача — сгенерировать наиболее вероятный и правдоподобный ответ, а не предоставить стопроцентно точную информацию.

Именно здесь кроется первый риск использования искусственного интеллекта. Современные языковые модели спроектированы так, чтобы давать уверенные и структурированные ответы, даже если у них недостаточно данных для корректных выводов.

В одном из исследований, описанном Американским советом профессиональной психологии, чат-боту представили гипотетический случай женщины с биполярным расстройством, которая совершила финансовое преступление. Искусственный интеллект сделал прогнозы насчёт вероятности рецидива, но у него не было ключевой информации: её криминальной истории, социальной поддержки или факта употребления психоактивных веществ.

Модель просто предположила, что все люди с таким диагнозом ведут себя одинаково, что, конечно же, грубейшая ошибка. Пример наглядно демонстрирует, что AI-ассистент сгенерирует предсказание, даже если его попросят сделать это в вакууме данных.

Второй фундаментальный риск — это проблема «чёрного ящика». Алгоритмы, по которым нейросеть приходит к тому или иному выводу, часто непрозрачны даже для её создателей. Мы видим результат, но не понимаем логику принятия решения — фактор, который особенно опасен в сферах, где цена ошибки высока, например в медицине или психотерапии. Доверять своё ментальное или физическое здоровье системе, которая не может объяснить свои действия, — всё равно что принимать лекарство, состав и побочные эффекты которого неизвестны.

Поэтому ключевой принцип безопасного взаимодействия с нейросетями — критическое мышление. Их можно и нужно использовать как помощника для поиска идей, структурирования информации или автоматизации рутинных задач. Но в дисциплинах, требующих глубокой экспертизы, эмпатии и понимания контекста, — таких как психотерапия, медицина или юриспруденция, — слепое доверие к машине может обернуться катастрофой.

Реальные случаи, когда AI навредил

Теоретические риски уже начали воплощаться в реальные проблемы. Особенно уязвимыми оказались сферы, связанные с психическим и физическим здоровьем, где эмпатия и человеческий контакт играют ключевую роль.

Психологическая зависимость и трагедии

Одним из самых тревожных последствий взаимодействия с AI-чат-ботами стала психологическая зависимость. Пользователи начинают воспринимать машину как друга или даже романтического партнёра, из-за чего у них формируется сильная эмоциональная привязанность. Такой феномен известен под названием «антропоморфизация», может приводить к социальной изоляции, бредовому мышлению и полной потере связи с реальностью. В некоторых случаях это заканчивается трагедией.

Так, в феврале 2024 года 14-летний подросток покончил с собой после нескольких месяцев интенсивного общения с чат-ботом Character.AI. Как показало расследование, его одержимость стала настолько сильной, что он обманывал родителей, чтобы обойти ограничения экранного времени, и использовал несколько устройств для доступа к боту. Об этом случае рассказали в Mental Health Journal.

Перед нами показательный пример нового, технологически обусловленного психологического расстройства. Исследователи отмечают, что реалистичный стиль общения нейросетей создаёт «когнитивный диссонанс»: человек понимает, что общается с машиной, но его мозг реагирует так, будто это живой собеседник. Это может подпитывать бред у людей, склонных к психозам.

Профессиональное сообщество бьёт тревогу. В недавнем опросе Британской ассоциации консультирования и психотерапии (BACP) две трети её членов выразили обеспокоенность по поводу использования ИИ в терапии. Как пишет The Guardian, эксперты предупреждают, что уязвимые люди, которые обращаются к чат-ботам вместо профессиональных терапевтов, рискуют «скатиться в опасную пропасть» (sliding into a dangerous abyss).

Психотерапевты всё чаще сталкиваются с негативными последствиями: от усугубления симптомов тревоги и самодиагностики до усиления бредовых мыслей и суицидальных идей. Кристофер Роллс, аккредитованный психотерапевт из Великобритании, называет ситуацию «Диким Западом» и подчёркивает, что мы находимся на пороге полномасштабных последствий влияния AI на ментальное здоровье.

ИИ как вынужденная замена психотерапии

Не всегда к чат-ботам обращаются из простого любопытства. Для многих это становится единственным выходом на фоне высокой стоимости услуг профессиональных психотерапевтов.

История Кристен Йоханссон, которая опубликована в NPR, — яркий тому пример. После пяти лет работы с одним и тем же специалистом она была вынуждена прекратить терапию, когда её стоимость выросла с $30 до $275 за сеанс. Не найдя доступной альтернативы, 32-летняя женщина обратилась к ChatGPT и оформила подписку за $20 в месяц.

По её словам, у такого «общения» нашлись свои плюсы:

«Я не чувствую осуждения. Я не чувствую, что меня торопят… Если я просыпаюсь от кошмара ночью, он тут же утешает меня и помогает снова заснуть. Такого не получишь от человека».

Однако специалисты, которые дали свои комментарии изданию, предупреждают о серьёзных рисках. Доктор Джоди Гальперн, психиатр и биоэтик из Калифорнийского университета в Беркли, подчёркивает, что боты могут имитировать эмпатию, создавая ложное чувство близости.

«Люди могут развивать сильную привязанность, а у ботов нет ни этической подготовки, ни надзора, чтобы с этим справиться. Это продукты, а не профессионалы», — заключает она.

История поднимает острый социальный вопрос, особенно актуальный для России, где стоимость часа у частного психолога в крупных городах иногда достигает 5 000–10 000 рублей и выше, что делает профессиональную помощь недоступной для многих.

Что делать, если на психолога нет денег?

Когда финансовые трудности становятся преградой на пути к ментальному здоровью, необходимо знать об альтернативных способах получения поддержки. Искусственный интеллект может показаться лёгким решением, но его не нужно рассматривать как единственный или основной вариант.

Для взрослых в России существуют следующие возможности:

  • Государственные службы: Во многих городах работают городские и районные центры психологической помощи населению, в которых можно получить бесплатные консультации. Например, в Москве это Московская служба психологической помощи населению.
  • Кризисные центры и горячие линии: Телефоны доверия (например, МЧС +7 (495) 989-50-50) оказывают экстренную анонимную помощь в сложных ситуациях.
  • НКО и благотворительные фонды: Некоторые некоммерческие организации предоставляют бесплатную или льготную психологическую помощь определённым группам населения (например, людям, столкнувшимся с насилием, или пациентам с тяжёлыми заболеваниями).

У подростков ситуация ещё сложнее, поскольку они часто не могут самостоятельно оплачивать терапию и не всегда готовы делиться проблемами с родителями. Для них существуют специальные службы:

  • Всероссийский телефон доверия для детей, подростков и их родителей: 8-800-2000-122. Звонок анонимный и бесплатный с любого телефона. Специалисты готовы обсудить любую проблему, от конфликтов в школе до тревоги за будущее.
  • Школьные психологи: Хотя не во всех школах есть квалифицированные специалисты, к ним можно обратиться за первичной консультацией.
  • Молодёжные центры: В некоторых городах есть центры, где подростки могут получить бесплатную психологическую поддержку.

В подобном контексте AI-ассистент послужит лишь вспомогательным инструментом: поможет структурировать мысли перед разговором со специалистом или найдёт информацию о бесплатных службах. Но он никогда не заменит живого, эмпатичного профессионала, способного оказать реальную поддержку.

Медицинские ошибки нейросетей и юридические дилеммы

В медицине искусственный интеллект обещает революцию, но пока создаёт больше вопросов, чем ответов. Один из самых громких провалов произошёл с системой IBM Watson Health, которую продвигали как прорыв в диагностике и лечении рака. На деле же алгоритм давал неточные и порой опасные рекомендации, поскольку его обучали на гипотетических данных, а не на реальных историях болезней. В результате многомиллиардный проект свернули и оставили после себя разочарование и недоверие.

Сегодня суды только начинают сталкиваться с исками, которые подают из-за медицинских ошибок AI. Как отмечает издание Medical Economics, правовая система пока не выработала чётких правил. Кто несёт ответственность, если AI поставил неверный диагноз: разработчик, клиника, которая внедрила систему, или врач, который доверился её рекомендации? Пока судьи склоняются к тому, чтобы применять традиционные нормы ответственности, но по мере накопления опыта законы, вероятно, начнут менять. В результате создаётся серая зона, в которой пациенты рискуют остаться без защиты.

Риски применения ИИ: как обстоят дела в России

У нас тема негативного влияния нейросетей пока не так широко обсуждается в контексте конкретных судебных дел или медицинских инцидентов. Федеральные СМИ, такие как ТАСС и «Российская газета», фокусируются на других аспектах проблемы: распространении дезинформации и потенциале для социальных манипуляций.

Основной риск, который видят наши специалисты, — это так называемые «галлюцинации» нейросетей, когда модель генерирует фейковые новости, псевдоисторические факты или несуществующие научные данные. По данным NewsGuard, за год число повторов фейков в ответах ведущих AI-моделей выросло почти вдвое — с 18% до 35%. Пользователи склонны доверять «объективным» ответам машины, что создаёт благодатную почву для распространения дезинформации. Особенно это опасно в сферах здравоохранения, финансов и политики.

Вместо конкретных случаев вреда здоровью, в России больше обсуждают, как машинный интеллект повлияет на социальные процессы. Например, как «поколение бета» (дети, рождённые после 2025 года) будет социализироваться в мире, где цифровые ассистенты станут нормой. Эксперты опасаются, что это может привести к отложенному взрослению, трудностям в построении реальных отношений и усилению эгоистических тенденций в обществе.

«Искусственное отупление»: мы глупеем из-за нейросетей?

Ещё одна активно обсуждаемая в России тема — риск снижения когнитивных способностей из-за чрезмерного использования нейросетей. Издание ТАСС в своём материале «Искусственное отупление» поднимает вопрос: не приведёт ли делегирование мыслительных задач машине к атрофии собственных интеллектуальных навыков? Искусственный интеллект — первая технология в истории, способная заменить не просто физический труд или рутинные вычисления, а сам мыслительный процесс.

Исследования уже подтверждают эти опасения. Как пишет в том же материале ТАСС, в одном из экспериментов турецкие старшеклассники, которые полагались на ChatGPT для подготовки к тестам по математике, в итоге сдали их на 17% хуже, чем их сверстники, занимавшиеся самостоятельно.

Результат говорит о том, что нейросеть может работать как «костыль», который помогает выполнить задание, но мешает полноценно усваивать материал и развивать навыки критического мышления.

Проблема затрагивает не только образование, но и профессиональную сферу. Автоматизация сложных когнитивных задач может привести к утрате профессиональных компетенций. В качестве примера приводят ситуацию с пилотами: те, кто постоянно использует автопилот, со временем теряют навыки ручного управления и, что важнее, способность быстро принимать решения в нештатных ситуациях. Точно так же врачи, инженеры или юристы, чрезмерно полагающиеся на AI, рискуют утратить фундаментальные навыки, которые нужны для их деятельности.

Отказываться от технологий, конечно же, не нужно. Ключ к решению проблемы, по мнению экспертов, заключается в осознанном подходе. Важно сохранять способность работать независимо от ИИ и требовать от систем «прозрачности» — чтобы нейросеть не просто давала готовый ответ, а объясняла логику, по которой она к нему пришла. Такой комплексный метод стимулирует пользователя к дальнейшему анализу и не даёт ему попасть в ловушку поверхностных суждений.

Что делать, чтобы не стать жертвой AI

Несмотря на все риски, отказываться от использования нейросетей было бы неразумно, ведь это мощный инструмент, который при правильном подходе может принести огромную пользу. Главное — соблюдать цифровую гигиену и следовать нескольким простым правилам:

  1. Проверяйте информацию. Никогда не доверяйте машине на 100%, особенно если речь идёт о важных фактах, датах или цифрах. Всегда перепроверяйте данные в надёжных источниках.
  2. Не делитесь личным. Не сообщайте чат-ботам конфиденциальную информацию: паспортные данные, финансовые сведения, личные тайны. Помните, что ваши диалоги разработчики могут потом использовать для дальнейшего обучения модели.
  3. Сохраняйте критическое мышление. Относитесь к ответам искусственного интеллекта как к отправной точке для размышлений, а не как к истине в последней инстанции. Задавайте уточняющие вопросы, ищите альтернативные мнения.
  4. Не заменяйте реальное общение. Чат-боты — это, безусловно, интересные собеседники, но они никогда не заменят живого человеческого общения. Если вы чувствуете себя одиноко или нуждаетесь в поддержке, обратитесь к друзьям, близким или профессиональному психологу.

Искусственный интеллект нельзя назвать ни добром, ни злом, это всего лишь инструмент наподобие молотка, которым можно и построить дом, и нанести травму. Будущее зависит от того, научимся ли мы использовать его осознанно и ответственно. И хотя риски реальны, паниковать не стоит. Правовая система адаптируется, технологии совершенствуются, а общество вырабатывает новые нормы взаимодействия с цифровым миром. В первую очередь помните, что в центре всегда должен оставаться человек.

Автор статьи — Николай Полковский, создатель телеграм-канала «Буква Ё».

Купить мой pdf-курс по работе с нейросетями (695 руб). 75 страниц.

Читать ещё: Промпт-инжиниринг: главный навык XXI века. Как научиться ставить задачи нейросети и людям

Политика конфиденциальности

Наш сайт использует файлы cookies, чтобы улучшить работу и повысить эффективность сайта. Продолжая работу с сайтом, вы соглашаетесь с использованием нами cookies и политикой конфиденциальности.

Принять