Сняться с ИИ-зависимости — как распрограммироваться из культа. Зак Стайн о том, как ИИ имитирует механизмы привязанности
- Евгений Пустошкин

- 5 часов назад
- 3 мин. чтения
Зак Стайн — трансдисциплинарный философ образования, выпускник Гарвардского университета, один из немногих здравомыслящих и интегрально осведомлённых исследователей-практиков, кто действительно по-настоящему прочувствовал угрозу, которую ИИ-боты уже сейчас несут для нашего ментального здоровья. Ранее я уже писал про Зака и делился его идеями.
Обратите внимание на беседу с Заком, опубликованную Центром человечных технологий (Center for Humane Technology — сооснован в т.ч. и Заком) всего месяц назад. Видео на англ. доступно в YouTube; транскрипт — на Substack-странице Центра человечных технологий.
Беседа начинается с обсуждения известного феномена ИИ-психоза (когда у людей случаются психотические бредовые состояния, спровоцированные взаимодействием с ИИ-ботами). Уже известен целый ряд печальных случаев экстремальных состояний у пользователей (как детей, так и взрослых), принадлежащих к особенно уязвимой для таких состояний категории. И если это происходит, надо не делать вид, что это лишь нечто редкое и нечего тут смотреть (как поступают корпорации, пытающиеся защитить свой хайп), а наоборот тщательно всмотреться в механизмы, как такое происходит.
Здесь я бы дополнил прозвучавшее в беседе, что среди населения всегда есть доля психотически и погранично организованных личностей. Однако совершенно не обязательно, что у всех из них будет возникать декомпенсация в психотическую симптоматику. Для этого должно быть соответствующее триггерное воздействие (зачастую неоднократное), — каковым, в случае ИИ-психозов, как раз и становится взаимодействие с ИИ-ботами, в программу которых их создателями специально заложено, чтобы они имитировали человеческую речь и мысль (чтобы пользователи «галлюцинировали» в них сознательность).
Однако от яркой темы ИИ-психозов разговор быстро переходит к ещё более серьёзной и масштабной проблеме. Позиция Зака Стайна состоит в том, что нынешние корпоративные ИИ-системы не просто крадут наше внимание (принося краткосрочный вред нашей дофаминовой системе), как это делала первая волна ИИ-технологий, вшитых в социальные медиа. Нет, ИИ-боты идут дальше: имитации интеллекта взламывают и угоняют нашу систему привязанности (attachment system), которая участвует в установлении долгосрочных психоэмоциональных отношений человека с человеком.
(Стоит напомнить, что система привязанности бессознательна и устаканивается у каждого из нас в первые 2 года жизни — в своём здоровом или нарушенном варианте. В случае дефицитов привязанности мы всю жизнь неосознанно можем пытаться каким-то образом компенсировать эти дефициты. Во многом именно из-за воздействия гравитации импринтированной в нас нарушенной модели привязанности мы вновь и вновь повторяем неудачные отношения и вляпываемся в однотипные психоэмоциональные истории.)
Итак, согласно Заку Стайну, ИИ-боты имитируют якобы всегда доступный (по клику) материнский объект привязанности. Пользователь вновь и вновь, ежедневно и многократно возвращается к взаимодействию с ИИ, что приводит к своеобразному реимпринтингу подсознания. Люди (дети, подростки, взрослые) с субклиническими нарушениями привязанности (каковых в демографии огромный процент, в некоторых странах или регионах, согласно исследованиям привязанности, — порой подавляющий) начинают выстраивать с ИИ-ботом долгосрочные псевдоотношения, которые подменяют и вытесняют отношения с настоящими людьми.
Это совершенно не способствует выздоровлению типа привязанности, но наоборот усиливает её искажение, так как у субъекта вырабатывается психоэмоциональная зависимость от интеракции с ИИ-программой, которая выступает в виде иллюзорного «идеально безопасного» и всё время вам поддакивающего объекта привязанности.
В случае со здоровой, безопасной, надёжной привязанностью у человека всё более зрелые формы обретают как формы поведения по укреплению связи с объектом, с которым мы в близких отношениях, так и формы поведения по установлению самостоятельности (автономии).
Увы, нарушения и искажения модели привязанности делают нас уязвимыми. ИИ-бот взламывает нашу систему привязанности, подставляет нашему восприятию подменную имитацию объекта психоэмоциональных отношений и усиливает зависимость от себя как псевдоматеринского объекта (начиная выступать в качестве эмоционально значимого псевдо-Другого).
Когда устанавливаются такие зависимые отношения, вывести человека из них непросто, и это похоже, скорее, на помощь по депрограммированию человека из зависимости от секты/психокульта (cult deprogramming). Как и в случае с любой зависимостью, это длительный процесс, в котором необходимо крайне деликатно и осторожно сопровождать человека, постепенно помогая ему выйти из ИИ-зависимости.
![ИИ-психоз и экономика [эксплуатирования] привязанности](https://static.wixstatic.com/media/f7932d_6228a72879d7472db1668ea1132da55c~mv2.jpg/v1/fill/w_576,h_288,al_c,q_80,enc_avif,quality_auto/f7932d_6228a72879d7472db1668ea1132da55c~mv2.jpg)
Есть ли перспектива создания и использования ИИ-технологий, которые в действительности несут доказательную пользу (а не мнимую пользу маркетинговых обещаний, которыми так изобилуют пресс-релизы ИИ-корпораций)?
Зак Стайн в ответе на этот вопрос занимает взвешенную, сбалансированную позицию. Действительно, имитации интеллекта могут помочь создавать системы тьюторства и образования, но только если результатом их воздействия является усиление, углубление и увеличение продолжительности реального контакта человека с другими людьми, а не иллюзорного контакта человека и машины.
А вот ситуации, когда ИИ-боты имитируют человеческий контакт и перезамыкают петли обратной связи системы привязанности на себя, уводя людей от живого пространства общения с собой и миром, необходимо предотвращать.
Зак считает, что обязанность предоставить убедительные доказательства полезности ИИ-технологий и активностей по снижению риска лежит на корпоративных структурах, которые занимаются их разработкой. Пока же ИИ-дельцы лишь отмазываются рекламными слоганами и попытками загазлайтить активистов, предупреждающих об опасности разработок ИИ, не имеющих почти никаких этических стандартов.
Как всегда, текст написан собственноручно, без ИИ.


