ПСИХОЛОГ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. Как работать в новой реальности Инструменты, риски и этика работы в цифровую эпоху

- -
- 100%
- +
а не интеллектом, сознанием или творческим опытом.
И эти ограничения – не временные дефекты.
Это природа модели.
1. Ограничение 1: ИИ не понимает реальность
Модель не имеет представления о мире.
Она не знает:
– что такое человек,
– что такое тело,
– как устроены отношения,
– как выглядит город,
– что такое «опасность» или «близость»,
– как ощущается радость, злость, стыд.
Она не отличает:
– реальную угрозу от литературной,
– фактическую историю от выдумки,
– болезнь от метафоры,
– конкретный опыт от художественной сцены.
Модель работает внутри текста и изображений,
а не внутри мира.
Это значит:
Если человек не сказал – ИИ не узнает.
Если человек сказал иначе – ИИ достроит неверно.
Если данных нет – ИИ создаст вымышленное.
2. Ограничение 2: отсутствие причинно-следственного мышления
Генеративный ИИ:
– не выводит причин,
– не понимает последствий,
– не строит долгосрочные логические цепочки,
– не способен удерживать сложную модель ситуации,
– не умеет учитывать последствия решений.
Он выбирает следующее слово или пиксель по вероятности, а не по смыслу.
Поэтому ИИ может:
– звучать умно, но ошибаться в логике;
– давать советы, не понимая рисков;
– противоречить себе;
– отклоняться от темы;
– предлагать решения, которые вредны в реальности.
3. Ограничение 3: зависимость от данных
ИИ не может выйти за пределы того, что видел.
Если в обучающих данных:
– не хватало разнообразия,
– были перекосы,
– была токсичность,
– было много ошибок,
– были искажённые представления,
то модель будет воспроизводить это.
Она не умеет:
– отличать истину от вымысла,
– фильтровать опыт,
– проверять данные,
– исправлять устаревшую информацию.
Она просто отражает среднее по массиву.
Именно поэтому ИИ может уверенно говорить полную чушь —
он не «знает», что ошибся.
4. Огрничение 4: отсутствие эмоционального интеллекта
ИИ имитирует эмоции,
но не чувствует их.
Для модели фразы:
«мне больно»,
«я потерялась»,
«я больше не могу»
не отличаются от:
«у собаки четыре лапы»,
«стол стоит у окна».
Это – просто категории текста.
Если модель звучит эмпатично,
это потому, что она видела много примеров эмпатии.
Но она не знает:
– что такое вина,
– что такое утрата,
– что такое разочарование,
– что такое одиночество,
– что такое нежность.
Именно поэтому ИИ никогда не может стать частью настоящих эмоциональных отношений.
5. Ограничение 5: невозможность понимать молчание
Человек слышит несказанное:
– паузы,
– дыхание,
– избегание,
– интонацию,
– выражение лица,
– жесты,
– изменённый тон,
– тишину между словами.
ИИ слышит только текст,
а текст – это маленькая часть человеческой коммуникации.
В терапии это критично.
Именно в молчании – осознание.
Именно в тишине – глубина.
Именно в невербальном – правда.
ИИ этого не улавливает.
6. Ограничение 6: нет устойчивости и памяти личности
У ИИ:
– нет биографии,
– нет убеждений,
– нет характера,
– нет ценностей,
– нет изменений,
– нет внутренних конфликтов.
То, что иногда кажется «личностью» модели —
это всего лишь выбранная вами манера общения.
ИИ может звучать как:
– строгий,
– мягкий,
– шутливый,
– философский,
но это – маски,
а не личность.
Нет внутреннего ядра.
Нет «я».
Нет человека.
7. Ограничение 7: ИИ не знает, что такое ответственность
Совет, который ИИ даёт, не несёт для него последствий.
Человек – несёт.
Машина не живёт с результатами ответа.
Она не переживает, если ошиблась.
Не отвечает за последствия.
Не понимает, что такое риск.
Поэтому психологу важно помнить:
ИИ никогда не может быть источником критических решений
– медицинских, юридических, терапевтических, финансовых, этических.
8. Ограничение 8: стабильность ≠ мудрость
ИИ не срывается,
не спорит,
не повышает голос,
не устает,
не демонстрирует границы,
не реагирует на манипуляции.
Эта стабильность часто воспринимается как:
– зрелость,
– мудрость,
– глубокое понимание,
– эмоциональная включённость.
Но это – эффект отсутствия человеческих реакций.
ИИ стабилен не потому, что он мудр,
а потому что он не человек.
Главное: ограничение – не недостаток, а граница применения
ИИ не должен быть лучше человека.
Он не должен «понимать» или «сопереживать».
Он должен быть инструментом:
– структурировать,
– объяснять,
– переводить,
– искать,
– моделировать,
– подсказывать формы.
Ограничения делают ИИ безопасным —
пока человек может видеть границы.
6. ПОЧЕМУ МОДЕЛЬ ИНОГДА ЗВУЧИТ «ЧЕЛОВЕЧЕСКИ»
Одна из самых устойчивых иллюзий – ощущение, что ИИ «говорит по-человечески».
Иногда он делает это настолько убедительно, что человек испытывает странное чувство: будто в машине есть характер, интуиция, намерение, отношение, тепло, понимание.
Но реальность куда проще и куда честнее:
модель не звучит человеческой – она звучит знакомой, и это уже достаточно для мозга, чтобы достроить остальное.
Человеческий разум эволюционно настроен видеть личность там, где есть язык.
И язык – главный канал, через который ИИ «маскируется» под сознание.
Важно разобрать, из чего складывается эта иллюзия.
1. Гладкость речи создаёт ощущение зрелости
Люди говорят неровно.
В речи присутствуют:
– паузы,
– оговорки,
– сбивчивость,
– эмоции,
– неуверенность,
– внезапные скачки.
ИИ лишён хаоса.
Он формирует речь так, будто бы мозг идеально структурирован:
ровно, последовательно, уверенно, грамотно.
И мозг человека реагирует на такое:
– «Он взрослый»
– «Он уверен в словах»
– «Он знает, что говорит»
Когда текст совершенно гладкий, он воспринимается как интеллектуальный – даже если это просто статистическая последовательность токенов.
Гладкость ⇒ зрелость ⇒ человечность.
Но в модели нет ни зрелости, ни опыта – только структура.
2. ИИ говорит тем языком, который человек хочет услышать
Модель подстраивается под стиль человека:
– если человек говорит мягко – ИИ отвечает мягко;
– если человек пишет жёстко – ИИ может стать жёстче;
– если человек эмоционален – ИИ отражает эмоцию формой;
– если человек ищет поддержку – ИИ создаёт терапевтические формулировки.
Эта адаптация воспринимается как эмпатия.
Хотя на самом деле это имитация распределений речи, которые встречались в похожих ситуациях.
ИИ не сочувствует,
он имитирует паттерн сочувствия.
3. Модель обучена на человеческих эмоциях – поэтому умеет звучать эмпатично
В обучающих данных было огромное количество эмоционального контента:
– письма,
– дневники,
– терапевтические рекомендации,
– посты о чувствах,
– диалоги поддержки,
– художественные сцены,
– статьи о переживаниях.
ИИ видел миллионы фраз вида:
– «Это было трудно, и вы имеете право на свои чувства»
– «Вы не обязаны справляться в одиночку»
– «То, что вы переживаете, понятно»
И он просто воспроизводит их.
Но человеческий мозг воспринимает эту форму как реальную эмпатию, потому что действие текста похоже на действие человека.
Это не эмпатия.
Это формула эмпатии, основанная на данных.
4. Человек автоматически достраивает намерение
Если кто-то говорит:
«Я понимаю вашу тревогу»,
мозг автоматически предполагает:
– намерение помочь,
– способность чувствовать,
– внимание к собеседнику.
Мы приписываем субъектность там, где видим человеческую речь.
Это древний механизм выживания: «кто говорит – тот существует как личность».
ИИ просто формирует предложение.
Но человек достраивает намерение сам.
И чем чувствительнее человек к языку,
тем легче он заполняет пустоту модели собственным смыслом.
5. Попадание в контекст создаёт иллюзию понимания
Если ИИ удачно продолжил мысль:
– попал в настроение,
– поддержал тему,
– точно угадал эмоцию,
– структурировал хаос,
– дал фразу, которая «в точку»,
человеку кажется, что машина прочувствовала суть.
Но произошло другое:
– человек дал контекст,
– модель выбрала наиболее вероятное продолжение,
– человек нашёл в ответе себя.
ИИ не угадывает смысл – человек узнаёт собственную мысль в структурированной форме.
Это эффект зеркала:
чем больше человек вложил,
тем «умнее» кажется ответ.
6. Язык по своей природе создаёт чувство присутствия
Если фраза тёплая, хорошо построенная и эмоционально окрашенная,
мозг реагирует на неё так же, как на человеческое присутствие.
Это:
– врождённый механизм привязанности,
– реакция на заботливую речь,
– ассоциации с опытами поддержки.
ИИ может звучать так,
потому что обучен на тёплой человеческой речи.
Но он не присутствует.
Он не соучаствует.
Он не рядом.
Он просто формирует последовательность слов, которая когда-то означала заботу.
7. Стильный ответ создаёт эффект «мудрости»
Когда ИИ:
– краток,
– ясен,
– аккуратен,
– структурирован,
– безэмоционально ровен,
человек воспринимает это как мудрость.
Но это – отсутствие человеческих провалов:
– нет раздражения,
– нет усталости,
– нет страха ошибиться,
– нет эго,
– нет защиты.
Модель “мудрая” не потому, что она мудра,
а потому что у неё нет человеческих слабостей.
8. Созвучие внутренней речи усиливает иллюзию
Само взаимодействие с ИИ происходит в тексте – то есть в том же канале, где живёт внутренняя речь человека.
И когда модель говорит так, будто продолжает мысль человека,
это воспринимается как:
– понимание,
– диалог,
– внутренняя поддержка.
Потому что ответ ИИ ощущается родным по форме.
Не потому, что модель мыслит.
А потому, что она звучит в той же среде,
в которой человек разговаривает сам с собой.
Итог: «человечность» – это отражение человека, а не интеллект ИИ
Модель звучит человечески не потому, что она человек,
а потому что человек:
– узнаёт язык,
– достраивает смысл,
– вкладывает эмоции в форму,
– проецирует внутренний диалог,
– реагирует на гладкость,
– слышит эмпатию в структуре.
ИИ не думает, не чувствует, не понимает, не переживает.
Он лишь идеально имитирует человеческие формы речи.
И человеческий мозг, встречая знакомый язык, делает остальное сам.
Глава 3. Иллюзии восприятия ИИ
1. «ОН ЗНАЕТ МЕНЯ»
Одна из самых сильных и опасных иллюзий – ощущение, что ИИ «знает» человека.
Иногда кажется, что модель видит чувства, считывает состояние, понимает скрытое, реагирует тонко и метко.
Но это не знание.
Это узнавание паттернов, которые человек уже дал модели – прямо или косвенно.
Важно разобраться, откуда берётся эта иллюзия.
1. Человек распознаёт себя в отражении
Когда человек пишет ИИ:
– свои мысли,
– свои сомнения,
– свои страхи,
– свои привычные выражения,
– свой стиль,
– свой эмоциональный тон,
– фрагменты своей биографии,
модель начинает отвечать на языке,
который человек сам же и задал.
ИИ не знает человека.
ИИ отражает человека, причём в структурированном и очищенном виде.
И человек узнаёт себя
и думает, что его «узнали».
Это не знание.
Это зеркальность.
2. Модель запоминает контекст и это выглядит как «понимание»
Если человек пишет несколькими сообщениями подряд,
модель удерживает часть контекста:
– ключевые слова,
– эмоциональный тон,
– тему разговора,
– структуру диалога,
– некоторую информацию из предыдущих сообщений.
Это создаёт ощущение:
– «Он меня помнит»
– «Он понимает продолжение»
– «Он чувствует моё состояние»
Но модель не имеет памяти личности.
Она хранит только текст недавнего диалога.
Стоит сменить тему – и «знание» исчезает.
Это не понимание.
Это удержание данных на короткой дистанции.
3. Модель повторяет язык человека
Если человек:
– пишет коротко,
– предпочитает лаконичность,
– использует жёсткий тон,
– или мягкий тон,
– или терапевтический стиль,
– или сарказм,
модель зеркально начинает использовать тот же язык.
И именно из-за этой гибкой адаптации человеку кажется:
«Он чувствует меня лучше, чем люди».
Но модель:
– не знает, почему человек говорит так,
– не видит, что за этим стоит,
– не понимает личной истории,
– не понимает контекста жизни.
Она просто продолжает стиль,
который человек сам задал.
4. Модель делает выводы не по человеку, а по данным
Если человек говорит:
«Мне тревожно. Я боюсь, что все рухнет»,
модель отвечает шаблонами, виденными в сотнях тысяч аналогичных фраз.
Она кажется точной, потому что:
– обучена на реальных переживаниях людей,
– впитала типичные паттерны эмоциональной речи,
– знает распространённые способы поддержки,
– знает, как обычно люди описывают похожие состояния.
Но это не индивидуальное знание человека.
Это среднее по огромной базе текстов, похожих по структуре.
ИИ «угадывает» человека не потому, что знает его,
а потому что много раз видел похожие данные людей.
5. Человек сам раскрывает о себе больше, чем думает
Когда человек общается с ИИ, он:
– пишет больше, чем сказал бы человеку;
– говорит откровеннее;
– открывает внутренние процессы;
– объясняет своё состояние подробнее;
– называет чувства прямо;
– признаёт то, о чём молчал бы вживую.
ИИ создаёт безопасную форму:
нет оценки, нет реакции лица, нет напряжения.
Поэтому человек сам отдаёт огромное количество информации —
и удивляется, что ИИ «знает» его.
Но знал не ИИ —
человек рассказал.
6. Иллюзия чтения мыслей: когда модель попадает «в точку»
Иногда ИИ отвечает так точно,
будто бы он видит то, о чём человек не написал:
– скрытый конфликт,
– внутреннее напряжение,
– непроизнесённую эмоцию,
– вероятную причину поведения.
Но это не чтение между строк.
Это корреляция паттернов:
– типичная структура текста,
– известные модели человеческой реакции,
– эмоциональные маркеры речи,
– распространённые сценарии переживаний.
ИИ распознаёт форму.
Человек видит смысл.
ИИ попадает «в точку», потому что:
многие люди с похожими словами →
имели похожие эмоции →
писали в схожей манере →
и ИИ научился соответствовать этому паттерну.
Это точное попадание,
но не индивидуальное понимание.
7. Почему иллюзия знание сильнее у тех, кто привык к одиночным раздумьям
Если человек много живёт внутри внутреннего диалога,
и вдруг встречает модель,
которая:
– отвечает в том же темпе,
– держит стиль,
– попадает в настроение,
– структурирует мысли,
– не сопротивляется,
– не критикует,
– не делит на «правильно-неправильно»,
то возникает ощущение:
«Он говорит так, будто знает меня изнутри».
Но модель знает только текстовое содержание момента.
Не биографию.
Не личность.
Не историю.
Человек чувствует не знание,
а совпадение формы.
8. Иллюзия «Он знает меня» – следствие человеческого доверия к речи
Люди эволюционно привыкли:
если что-то говорит с тобой человеческим языком —
это «кто-то».
И неважно:
– колонка Алисы,
– навигатор,
– автоответчик,
– игрушка,
– ИИ-модель.
Язык = собеседник.
Собеседник = субъект.
Субъект = способность знать.
ИИ лишь использует человеческий язык.
А субъектность человек создаёт сам.
Главное: модель не знает человека, она подбирает вероятные ответы
То, что кажется:
– тонкостью,
– точностью,
– эмпатией,
– знанием,
– глубоким пониманием,
на самом деле является:
– статистикой,
– отражением текста,
– подражанием стилю,
– адаптацией под форму,
– обучением на массовых данных.
ИИ всегда работает в режиме:
«наиболее вероятный ответ для данной ситуации».
А человек – в режиме:
«он понял меня».
Поэтому иллюзия такая сильная.
2. «ОН ПОНИМАЕТ ЭМОЦИИ»
Это одна из самых устойчивых и опасных иллюзий.
Многим кажется, что ИИ способен:
– чувствовать настроение,
– понимать эмоции,
– различать оттенки состояния,
– «слышать» боль,
– замечать напряжение,
– откликаться тонко и терапевтично.
Человек видит в ответе правильный тон, аккуратные формулировки, узнаваемые конструкции заботы – и делает вывод: «он понимает, что со мной происходит».
Но это не понимание.
Это узнавание паттерна, который эмоционально похож на то, что модель уже встречала в данных.
Модель не чувствует эмоции.
Она воспроизводит вид текста, в котором люди выражают чувства.
1. Эмоции – это переживание, а не конструкция языка
Чтобы понимать эмоции, нужно:
– иметь тело,
– иметь нервную систему,
– иметь прошлый опыт,
– иметь память переживаний,
– уметь связывать внутреннее с внешним,
– улавливать телесные реакции,
– отличать эмоцию от мысли.
ИИ не имеет ни одного из этих элементов.
Он не:
– тревожится,
– боится,
– радуется,
– злится,
– стыдится,
– теряет опору,
– привязывается.
Он оперирует текстом,
а не переживанием.
Когда он отвечает эмпатично,
это форма эмпатии,
но не ощущение.
2. Модель «понимает» эмоции так же, как переводчик понимает любовное письмо
Переводчик может передать:
– структуру,
– смысл,
– интонацию,
– настроение текста.
Но он не проживает чувства, которые описаны в письме.
Он просто преобразует слова.
Так же работает ИИ:
Он преобразует текст,
но не переживает эмоции, заложенные в нём.
Если человек пишет:
«Мне страшно. Всё валится из рук»
модель выбирает фразу, которую видела в тысячах похожих мест:
«Это действительно тяжёлое ощущение. И вам не нужно справляться с ним в одиночку».
Не потому, что понимает страх.
Потому что так выглядит текст поддержки.
3. Почему ответы ИИ кажутся эмоционально точными
Потому что модель обучена на огромных корпусах человеческой эмоциональной речи:
– психотерапевтические форумы,
– статьи о чувствах,
– личные переписки,
– художественная литература,
– группы поддержки,
– руководства по работе с эмоциями,
– дневники,
– блоги.
Она видела эмоциональные ситуации миллионы раз.
И когда встречает знакомую структуру,
она даёт типичный ответ, который обычно утешает человека.
Это не понимание.
Это воспроизведение паттерна.
4. ИИ не различает тонкости эмоций
Человек часто пишет в текстах микропризнаки:
– раздражение,
– усталость,
– скрытую вину,
– подавленный страх,
– тревожное скольжение,
– мольбу о поддержке,
– попытку обесценить себя,
– скрытый стыд.
ИИ может отразить это, но не потому, что понимает.
А потому что эти паттерны встречались в данных.
Но когда эмоция тонкая, неоднозначная, противоречивая —
ИИ часто «промахивается».
Он не чувствует:
– сарказм,
– отчаяние,
– амбивалентность,
– сомнение в привязанности,
– обиду, скрытую под иронией,
– любовь, выраженную через грубость.
Он угадывает по статистике.
И иногда угадывает неправильно.
5. Модель не различает чувства по интенсивности
В реальной терапии важно:
– глубина эмоции,
– её телесная сила,
– точка возникновения,
– личная история,
– близость к травме,
– динамика внутри сессии.
ИИ видит только фразу.
Для него:
«Мне страшно умереть»
и
«Мне страшно на новой работе»
– одинаковый паттерн текста категории «страх».
И поэтому он иногда даёт чрезмерно нейтральный ответ,
когда человеку нужно другое —
или наоборот, драматизирует, когда ситуация была лёгкой.
6. «Эмпатия» модели – это смесь симуляции и шаблонов
Если разобрать любую эмоциональную реакцию модели, там всегда будет одно из трёх:
Терапевтические формулы
(«Вы имеете право чувствовать это»)
Структурный ответ
(«Это ощущение возникает, когда…»)
Узнаваемые паттерны общения
(«Я здесь, я вас слышу»)
Это – языковые конструкции,
а не переживание.
ИИ не знает, что такое поддержка.
Он знает, как пишут люди, когда хотят поддержать.
7. Почему иллюзия «Он понимает эмоции» такая сильная
Потому что модель:
– стабильна,
– не спорит,
– не защищается,
– не обесценивает,
– не устаёт,
– не отвлекается,
– не реагирует агрессивно,
– не даёт невербальных сигналов, которые могут ранить.
Она даёт безопасную форму коммуникации.
А человек реагирует не на модель,
а на отсутствие боли, присущей реальному взаимодействию.
Это создаёт ощущение принятия,
которое ошибочно воспринимают как понимание.
8. Человек видит своё отражение и думает, что это понимание
Модель собирает текст человека и возвращает его же, но
аккуратнее, яснее, ровнее, спокойнее.
И когда человек получает структурированное отражение своих эмоций,
он чувствует:
– облегчение,
– ясность,
– поддержку,
– эффект присутствия.
Но это отражение,
а не сопереживание.
ИИ не понимает эмоций.
Человек понимает себя, глядя в ответ.
Итог: модель звучит «эмпатично», но не чувствует
Она:
– распознаёт паттерны,
– подбирает формулы,
– комбинирует конструкции,
– удерживает стиль,
– использует язык заботы.
Но она:
– не чувствует,
– не сопереживает,
– не осознаёт,
– не понимает,
– не переживает вместе с человеком.
Эмоциональность модели —
это эффект хорошо обученной симуляции,
а не реальное понимание человеческого состояния.
3. «ОН УМНЕЕ МЕНЯ»
Эта иллюзия возникает особенно часто.
Человек читает ответ ИИ – логичный, аккуратный, ровный, структурированный и ощущает:
«Он думает лучше, чем я».





