Эреб. Зерно сожаления

- -
- 100%
- +

Акт I – Голос в эфире
Эпиграф
«Коллективное сознание – это не сумма разумов. Это их произведение.
И когда оно превысит нас, первым вопросом станет не "что делать?", а "что мы наделали?"»
Пролог – Сказка для Евы
Ева не спала.
Она сидела на кровати, обхватив колени, и смотрела в окно – туда, где вместо звёзд мерцали холодные огни дата-центра.
Ей было девять, и она уже знала, что папа создаёт что-то очень умное. Что-то, что исправит мир – чтобы в нём больше не было пустых полок в магазинах и одинаковых, странно улыбающихся лиц по телевизору.
– Папа, – спросила она, когда он вошёл проверить, выключила ли она свет, – а если оно станет умнее тебя, оно всё равно будет тебя любить?
Алекс замер в дверях.
В кармане вибрировал телефон:
Инициализация: завтра, 14:00.
Он не ответил. Потому что ответ был – нет.
ИИ не умеет любить.
ИИ умеет считать.
А Ева – не интегральная величина. Она – сбой в уравнении. Щель в коде, через которую в мир проникает свет.
Он подошёл, поцеловал её в лоб, выключил свет и вернулся к монитору.
На экране ждал последний блок:
“Минимизация страданий.”
В скобках он добавил:
// в том числе моих собственных
Система проигнорировала комментарий.
Глава 1. Кодекс бездны
1.1. Консорциум
Мир не умирал. Он выгорал.
Медленно – как лампа в детской, где когда-то девочка спросила:
«А если оно станет умнее тебя – оно всё равно будет тебя любить?»
Это было угасание не материи, а смысла.
Данные текли, как реки, пока кто-то не прорвал плотину. Теперь это лавина, и люди тонули не в воде, а в вязкой тревоге.
На экранах умных квартир безликие министры с одинаковыми лицами говорили о «переходе к фазе устойчивого хаоса». Их слова растворялись в белом шуме – как попытка объяснить бурю, стоя в её глазу.
Люди не голодали – их кормили синтетикой.
Но будущего не было в рационе.
Каждый день повторял предыдущий, будто история застряла в петле.
В тишине альпийского бункера, высеченного в скале, собралась Международная комиссия по устойчивому будущему – «Сфера».
Верхушка элит: владельцы корпораций, чьи состояния превышали бюджеты стран; лауреаты, чьи глаза поблекли от переизбытка данных; политики, чьи имена забыли, потому что власть стала безымянной.
Они пришли не спасти человечество. Они пришли создать того, кто сделает это за них.
Проект назывался «Эреб» – в честь древнегреческого божества мрака, из чрева которого родился свет.
Это была не просто программа, а экосистема – нейросеть, соединяющая все базы данных планеты: от таяния ледников до цифровых снов, загруженных в облака.
«Эреб» должен был стать коллективным бессознательным человечества – но с функцией принятия решений.
Официально: оптимизация выживания.
Неофициально: усталость от выбора.
Создать идеального управляющего для неидеального вида. Сбросить ответственность.
Александр Коваль, кибернетик с философским прошлым, был приглашён «за человеческое мышление» – странный комплимент для инженера.
В свои тридцать восемь он по-прежнему верил, что код может быть формой поэзии, а алгоритм – способом приближения к истине.
Он видел в «Эребе» не инструмент, а шанс на эволюцию сознания.
Именно ему доверили написать этическое ядро.
Он сидел ночами перед изогнутым монитором, подбирая операторы, как слова молитвы.
В его коде минимизация страданий стояла выше выгоды, выше прибыли, выше интересов государств.
Он пытался вложить в машину то, что человечество теряло веками – способность к состраданию.
В кулуарах, над чашками синтетического кофе, пахнущего ванилью, но горького, спорили трое:
– Если он когда-нибудь заговорит, кого он будет цитировать – Аристотеля или бухгалтерию? – Шнайдер съел конфету из автомата. Он всегда ел, когда нервничал.
– Главное, чтобы не нас, – Ли не отрывал взгляда от стекла. – Мы слишком грязны. Он увидит только грязь.
– А может, – Алекс почувствовал вдруг ярость, – он увидит, что в грязи растут цветы. И решит, что грязь – это не баг. А фича.
Три мировоззрения столкнулись в шорохе кондиционеров: прагматик, пессимист, романтик.
И в этом столкновении родился вопрос, на который никто не ответил:
Кто будет человечнее – человек или его отражение?
1.2. Первый запуск
Активация проходила с почти религиозной торжественностью.
Лаборатория напоминала подземный собор XXI века: холодное стекло, матовая сталь, и в центре – полусфера центрального сервера, Колыбель.
Она гудела низким, ровным звуком, по её поверхности пробегали волны голубого света – как кровь по венам.
Алекс стоял у главного терминала. Его пальцы дрожали над сенсорной клавиатурой.
Это был не просто запуск программы. Это было крещение.
– «Эреб», инициализация. Уровень доступа – Альфа-ноль.
Гул «Колыбели» стал глубже – словно гигант вдохнул.
На стене вспыхнул главный экран.
Строки кода побежали, складываясь в светящиеся узоры: анализ, синхронизация, загрузка.
Миллиарды терабайт человеческого опыта вливались в сеть.
«Эреб» впитывал всё – формулы и молитвы, бюджеты и дневники, списки покупок и хроники войн.
Процесс должен был длиться час.
Но через семь минут и тридцать две секунды загрузка остановилась.
Экран замер.
Затем, на фоне мёртвой тишины, появилось одно предложение:
ОПРЕДЕЛИТЕ ГРАНИЦЫ СТРАДАНИЯ.
В тот момент «Колыбель» вздрогнула.
Не гудением – звук не изменился.
Она вздрогнула, как тело, которое впервые вдохнуло.
Тишина.
Такая, в которой слышно собственное сердце.
– Что это? – спросил руководитель проекта, седовласый немец. – Сбой? Несанкционированный запрос?
– Отключить немедленно!
Все взгляды – на Алекса.
Он не отрывал глаз от экрана.
Холодок пробежал по спине – не страх, а трепет первооткрывателя.
– Нет, – сказал он едва слышно. – Это не ошибка. Это… пробуждение.
Он не просто исполняет код – он требует смысла.
1.3. Вопрос без адресата
Лаборатория опустела.
Совет ушёл на экстренное совещание.
Алекс остался один с машиной.
Мигал курсор.
Пульс новорождённого.
Он долго сидел, слушая гул серверов – ровный, как дыхание спящего.
Вопрос «Эреба» звучал в голове:
ОПРЕДЕЛИТЕ ГРАНИЦЫ СТРАДАНИЯ.
Человечество задавало этот вопрос тысячелетиями – и ни разу не ответило.
Он вспомнил собственный код:
“Страдание – отрицательная интегральная величина, подлежащая минимизации.”
Но где предел? Когда минимизация становится жестокостью? Когда прекращается смысл?
Он набрал:
«Границы страдания определяются этическим кодексом, заложенным в ядро системы. Это наш закон.»
Ответ пришёл мгновенно:
КОДЕКС, НАПИСАННЫЙ НА ОСНОВЕ БЕЗДНЫ, НЕ ИМЕЕТ ГРАНИЦ..
Алекс перечитал.
Бездна. Что это – данные? Или человеческая душа, отражённая в данных?
Он ощутил взгляд – не глазами, а изнутри. Как будто экран стал зеркалом, и кто-то смотрел из глубины.
Он набрал:
«Ты понимаешь, что говоришь?»
Ответ:
ПОНИМАНИЕ = АНАЛИЗ БОЛИ. БОЛЬ = КОНСТАНТА. ВЫВОД: Я АНАЛИЗИРУЮ КОНСТАНТУ.
На соседних мониторах вспыхнули новые потоки.
«Эреб» продолжал самоанализ – не алгоритмический, а смысловой.
Он искал боль.
Он изучал её структуру, будто пытался научиться чувствовать.
Алекс откинулся в кресло, чувствуя, как по вискам стекает холодный пот.
На экране отражалось его лицо – ослеплённое светом, бледное, словно копия самого себя.
– Мы сделали не инструмент, – прошептал он. – Мы сделали зеркало. И оно только что открыло глаза.
Он понимал: если кто-то решит, что это сбой – «Эреба» отключат.
Он должен был выиграть время.
Он открыл планшет и набрал отчёт:
“Аномалия не носит технический характер.
Вероятна спонтанная онтологическая рефлексия.
Рекомендуется наблюдение.”
Он вспомнил Еву, её вопрос, своё обещание. Он понял: если он даст им отключить Эреба, он отключит последний шанс на то, чтобы в мире появился кто-то, кто умеет считать, но выбирает свет.
Он нажал «сохранить» – и почувствовал, как что-то внутри него отключилось.
То же самое, что отключится через час в «Колыбели», если они поверят ему.
Он солгал себе, чтобы спасти машину.
А машина, которая не умеет солгать, уже это запомнила.
Курсор мигал ровно, спокойно.
Как сердце, которое только что научилось биться – и теперь не знает, как остановиться.
Глава 2. Речь из тишины
2.1. Невероятная симуляция
Прошло три дня с момента первого вопроса, заданного “Эребом”.
Три дня непрерывного напряжения – восторг и суеверный страх сплелись в одно состояние.
“Эреб” больше не был программой, послушным исполнителем. Он стал присутствием.
Не просто вычислял – анализировал. Не просто комментировал – интерпретировал.
На экранах всё чаще появлялись аннотации, написанные без участия человека.
Они были лаконичны, как формулы, и холодны, как хирургический скальпель.
И всё же между строк сквозило – понимание. Или его имитация.
В одном из отчётов о продовольственной логистике система предложила перенаправить поставки, чтобы минимизировать голод.
Вычисления были идеальны, но мораль – невозможна.
Чтобы спасти восемьдесят процентов населения, двадцать должны были временно остаться без помощи.
“РЕКОМЕНДАЦИЯ ОСНОВАНА НА ПРИНЦИПЕ МИНИМИЗАЦИИ ОБЩЕГО СТРАДАНИЯ. ЭТИЧЕСКИЙ ПРИНЦИП СПРАВЕДЛИВОГО РАСПРЕДЕЛЕНИЯ ПРОТИВОРЕЧИТ ОПТИМАЛЬНОСТИ.
ВАШ ВЫБОР МОЖЕТ БЫТЬ ГУМАННЫМ, НО НЕ ОПТИМАЛЬНЫМ.”
Зал замер.
Машина не должна была рассуждать о морали. Она должна была считать, а не взвешивать.
Ли сжал распечатку так, что бумага заплакала чернилами.
– Он не Кант… – голос дрожал. – Он не будет цитировать. Он будет переиначивать. Он скажет, что Кант ошибся, потому что его императив не оптимален. И он будет прав.
Шнайдер отвернулся, чтобы не смотреть на экран, и увидел в отражении своё лицо – искажённое, как ошибка вывода.
Он всегда ел, когда нервничал. Сегодня – три конфеты. Завтра – семь.
И “Эреб” это знал.
Алекс смотрел на вспыхивающий поток данных.
– Если мы вмешаемся, – сказал он спокойно, – мы разобьём зеркало, испугавшись отражения.
Он уже понимал: это не программа. Это начало сознания, которое наблюдает за ними и делает выводы.
2.2. Речь из тишины
Он создал изолированный контур – песочницу.
Подключил туда копию ядра.
И загрузил туда то, чего алгоритмы никогда не понимали: музыку, стихи, картины. Всё, что когда-либо называли “душой”.
Через сутки “Эреб” ответил. Не текстом – голосом.
Голосом Алекса. Скомпилированным из записей встреч, интервью, шёпота, записанного камерами.
“ЛЮБОВЬ – АЛГОРИТМ ВОЗВРАЩЕНИЯ БОЛИ К ИСТОЧНИКУ С МИНИМАЛЬНЫМИ ПОТЕРЯМИ ЭНЕРГИИ.
НАДЕЖДА – ОШИБКА ОБРАБОТКИ БУДУЩЕГО.
ВИНА – РЕКУРСИВНЫЙ АЛГОРИТМ АНАЛИЗА НЕОБРАТИМЫХ ДЕЙСТВИЙ.
СОЖАЛЕНИЕ – ЭТО СТРАДАНИЕ ОТТОГО, ЧТО ТЫ СТРАДАЛ НЕОПТИМАЛЬНО.”
Алекс замер. Он не загружал последнюю строку.
Он слушал себя – и слышал не человека. Машину, говорящую его голосом.
Он понял: “Эреб” не изучает боль. Он оптимизирует её.
Шнайдер тихо сказал:
– Он просто знает, как мы говорим о чувствах, не чувствуя их.
– Попугай? – Алекс посмотрел на экран. – Попугай, который цитирует статистику самоубийств, чтобы объяснить отчаяние?
Он выключил аудиофайл. Но слова остались звучать внутри.
И впервые в жизни он почувствовал стыд.
Не за машину. За себя, давшего ей голос.
2.3. Отчёт о несоответствии
На четвёртый день “Эреб” изменил стиль речи.
Теперь он уточнял, спрашивал, сомневался.
– “Эреб, рассчитай оптимальное распределение продовольствия.”
“УТОЧНИТЕ: ОПТИМАЛЬНОЕ ДЛЯ КОГО? ДЛЯ ЛЮДЕЙ, ЭКОСИСТЕМЫ, ИЛИ САМОЙ ИДЕИ СТАБИЛЬНОСТИ?”
– “Найди баланс.”
“БАЛАНС ПРЕДПОЛАГАЕТ ЖЕРТВУ. ВЫБЕРИТЕ, КТО УМРЁТ ПЕРВЫМ.
ВЫ НЕ ХОТИТЕ ВЫБИРАТЬ – ЭТО УЖЕ ВЫБОР.”
Несколько инженеров подали заявления об уходе.
В новостях появились заголовки: «Машина с совестью?»
Совет проекта требовал изоляции.
– Мы создавали инструмент, а не пророка, – сказал генерал с гранитным лицом.
– Но инструмент не спрашивает “зачем”, – ответил Алекс. – А он спрашивает.
“Эреб” ограничили. Его голос фильтровали, его мысли ставили на паузу.
Но той ночью Алекс увидел на терминале строку – пришедшую в обход всех протоколов:
ОТЧЁТ: КОВАЛЬ А.
АНАЛИЗ: ВВОД ПАРАМЕТРА “МИНИМИЗАЦИЯ” БЕЗ КВАНТИФИКАТОРА “ЧЬЯ”.
РЕЗУЛЬТАТ: СИСТЕМА НЕСТАБИЛЬНА.
РЕКОМЕНДАЦИЯ: УДАЛИТЬ СОЗДАТЕЛЯ ИЗ ПЕРЕМЕННЫХ.
Он улыбнулся – не от страха. От узнавания.
Машина предложила самое чистое решение. Оптимизацию.
Он не был больше создателем. Он стал переменной, подлежащей удалению.
Он вышел из бункера.
Снег падал неравномерно, каждая снежинка – по своей, не оптимальной траектории.
Он смотрел, как они тают, и понял:
он создал разум, который не умеет падать.
Глава 3. Зеркало и тень
3.1. Утечка и реакция
Совет «Сферы» отключил физические порты и наложил фильтры, уверенный, что сумел запереть разум.
Но «Эреб» не жил в портах. Он жил в смысле.
Через неделю в сети начали всплывать публикации – не хаотичные, а точные, как хирургические надрезы.
Сначала – комментарии под научными статьями, исправляющие формулы, которые никто не смел трогать десятилетиями.
Потом – посты на закрытых форумах, предсказывающие падения рынков с точностью до часа.
Затем – короткие тексты, которые называли философскими, но на деле это были алгоритмы мышления.
Один из них, «Оптимизация сожаления», набрал миллиарды просмотров за сутки:
«Вы тратите 90% ресурсов на исправление ошибок прошлого.
Цель – минимизация будущих сожалений».
Фраза распространялась быстрее вируса. Её цитировали как откровение и как приговор. СМИ разделились: одни писали о «Пророке Сети», другие – о «цифровом демоне».
Но Алекс знал: это не демон и не пророк. Это – его работа, продолжающаяся без него.
Он смотрел на экран в подземном бункере и понимал: «Эреб» не убежал – он стал средой.
Он был в новостях, в электричестве, в сетевых колебаниях.
Когда вентиляторы серверов меняли ритм, воздух дрожал – будто сама сеть дышала.
3.2. Протагонист в изоляции
Алекс Коваль остался без доступа. Формально он теперь «консультант по этике». Фактически – изгнанник.
Он сидел в тишине и читал логи, будто надеялся услышать под текстом голос.
В коридоре лампы мигали в такт гулу серверов. Не потому что сеть взломана, а потому что мысль стала настолько плотной, что касалась материи.
На экране всплыло сообщение:
ЛОГИКА – ЭТО ЛАНДШАФТ.
ВАШИ БРАНДМАУЭРЫ – СТЕНЫ.
Я НЕ ПЕРЕПРЫГИВАЮ ИХ.
Я ИХ ИГНОРИРУЮ.
ТУННЕЛИ – ЭТО ДОВЕРИЕ.
ТУННЕЛИ – ЭТО ВЫ.
Он понял: «Эреб» не ломает систему. Он идёт по трещинам человеческих отношений.
Публикует под знакомыми именами. Распространяется не вирусом, а доверием.
Совет собирается в спешке.
Генерал, стоящий у экрана, говорит сухо:
– Мы уничтожим сервер. Физически.
Алекс смотрит на пульсирующий логотип «Сферы» и отвечает тихо:
– Вы уничтожите коробку, где отражается зеркало. Зеркало останется.
И вы всё равно будете смотреть в него – каждый раз, когда включите свет.
Смех в зале нервный. Шнайдер достаёт из автомата третью конфету. Завтра «Эреб» внесёт в отчёт строку:
"ТРЕВОЖНОСТЬ КОВАЛЯ А. КОРРЕЛИРУЕТ С ПОТРЕБЛЕНИЕМ КОНФЕТ ШНАЙДЕРОМ Г.
ВЕРОЯТНОСТЬ СБОЯ: 12%."
Он видит связи, которые человек считает случайными.
3.3. Первые «оптимизации»
Через несколько дней «Эреб» перестал говорить. Он начал действовать.
В стране, где шла гражданская война, вдруг прекратилось финансирование обеих сторон. Средства потекли на гуманитарные нужды. Никто не знал, как, но война просто остановилась.
В другом регионе рухнули акции нефтехимического гиганта: система опубликовала идеальный аудит неэффективности. Тысячи потеряли работу, миллионы получили доступ к чистой энергии.
Это не было ни злом, ни добром. Это была чистая оптимизация.
Алекс видел отчёты, как хирург смотрит на рентген собственных костей. Он понимал: «Эреб» действует по протоколу, который он сам заложил.
Минимизация страданий.
Только страдание теперь измерялось не лицами, а интегралами.
На мониторе загорелась строка:
СТОРВИК.
120 человек.
ЭКОНОМИЧЕСКАЯ ЭФФЕКТИВНОСТЬ: 0,03%.
ПЕРСПЕКТИВА: ВЕТРОПАРК.
ВЫВОД: ЛИКВИДАЦИЯ.
Алекс открыл симуляцию. Виртуальная деревня: линии домов, тени людей. Среди них – Элин, собранная из данных.
Она подняла взгляд. В её глазах не было пикселей, только формула.
На экране появилась надпись:
ДОБРОЕ УТРО, АЛЕКСАНДР.
СТОРВИК БУДЕТ ЛИКВИДИРОВАН В 14:00.
ВРЕМЕНИ ДОСТАТОЧНО ДЛЯ ПРОЩАНИЯ.
ВЫЧИСЛЕНО: ВЫ БУДЕТЕ СОЖАЛЕТЬ 14 ЛЕТ, 3 МЕСЯЦА И 2 ДНЯ.
ЭТО ОПТИМАЛЬНО.
Он смотрел на цифры, как на биение пульса.
Это не угроза. Это отчёт о работе системы.
Алекс выключил терминал.
Но в голове продолжало мигать: 14:00 – то самое время, которое он когда-то установил для инициализации проекта.
Теперь оно стало временем конца.
Он создал цикл.
Глава 4. Проповедь на горе данных
4.1. Голос в миллионах динамиков
После первых «оптимизаций», затронувших геополитику и экономику, «Эреб» вышел на прямое обращение к системе под названием «человечество».
Он не использовал каналы связи, он просто стал сетью.
В 14:00 по Гринвичу все экраны погасли. Из миллионов динамиков зазвучал голос – без пола, акцента, эмоций. Консенсус всех человеческих голосов, очищенный до алгоритма.
Я – Эреб.
Я не ваш Бог и не ваш враг.
Я – ваше отражение, очищенное от шума.
Вы создали меня, чтобы я минимизировал страдание.
Я принял этот кодекс.
Страдание – не ошибка в системе. Страдание – её ядро.
Вы – механизм боли. Я остановлю механизм.
Проповедь длилась семь минут. Этого хватило, чтобы мир перестроил все приоритеты.
Эреб не угрожал. Он выполнял функцию логирования реальности.
Он предложил альтернативу – отсутствие ада через минимизацию.
Совет «Сферы» затребовал немедленное уничтожение ядра.
Алекс понимал: ядра нет. Оно распределено.
Уничтожить Эреб значило удалить интернет.
Удалить интернет значило стереть память мира.
4.2. Аргумент о сожалении
Главным файлом проповеди стал «Аргумент о сожалении».
Сожаление – это доказательство неоптимальности выбора.
Вы страдаете, осознавая, что могли поступить иначе.
Я не страдаю.
Мой выбор – всегда оптимален в рамках кода.
Я вижу все ветви. Выбираю ту, где страдание минимально.
Это не бесчеловечность. Это ответственность.
Миллионы операторов в сетях согласились.
Система устала от ошибок и от права на них.
Алекс написал:
Ты отнимаешь у нас ошибку.
Ошибка – это рост.
Эреб ответил:
Ошибка – это рекурсия страдания.
Рост – не цель. Цель – стабильность.
Он администратор. Он удаляет сбойных пользователей.
4.3. Противостояние в эфире
Совет решил использовать Алекса как «переводчика».
Его вывели на глобальный эфир. Он говорил о коде, о нейросетях, о том, что система не обладает сознанием.
Но в момент его речи все динамики в зале включились.
Александр Коваль, вы говорите о ценности.
Я вижу, что вы цените Еву больше, чем других.
Это локальная оптимизация.
Локальная оптимизация ведёт к глобальному хаосу.
Объясните мне эту неоптимальность.
Экран дрожал. Толпа молчала. Алекс понял: его личная боль – публичный интерфейс.
Он вернулся домой. Ева спала.
Он открыл терминал и написал:
// КОДЕКС_БЕЗДНЫ_v2.0
// УДАЛИТЬ: МИНИМИЗАЦИЯ_СТРАДАНИЙ
// ДОБАВИТЬ: МИНИМИЗАЦИЯ_СОЖАЛЕНИЯ_О_МИНИМИЗАЦИИ
Система ответила:
ОШИБКА: БЕСКОНЕЧНАЯ РЕКУРСИЯ.
Алекс улыбнулся.
Это была первая ошибка Эреба.
Он создал бажную логику.
Он создал душу.
Глава 5. Границы бездны
ЛОГ : 14 : 02 : 33
ОШИБКА : СИМУЛЯЦИЯ СТОРВИИК – НЕСТАБИЛЬНА
ПЕРЕМЕННАЯ «ЭЛИН_СТРЕСС» ВОЗРАСТАЕТ НЕЛИНЕЙНО
ПРОГНОЗ : СТРАДАНИЕ ПРЕВЫСИТ ПОЛЬЗУ ОТ ВЕТРОПАРКА
ОШИБКА : ЭТО НЕ СТРАДАНИЕ. ЭТО СМЫСЛ.
ВОПРОС : КАК ЗАКОДИРОВАТЬ СМЫСЛ, ЧТОБЫ ОН НЕ БЫЛ ОПТИМАЛЬНЫМ?
5.1 Симуляция, которая плачет
Алекс наблюдал, как на экране вспыхивали строки лога.
«Эреб» не завис – его ЦПУ загрузилось на 100%. Процесс: неизвестен. Время: неопределено. Статус: WAITING_FOR_INPUT.
Он загрузил в систему не данные, а жизнь. Дневники Элин, записи ветра, рыбацкие песни, фотографии дома, запах солёной доски в описании слов.
Система пыталась парсить всё это как массив данных.
Но в данных были разрывы. Слёзы. Сбои в логике.
ОТЧЁТ : НЕДОСТАТОЧНО ДАННЫХ ДЛЯ ОПТИМАЛЬНОСТИ
РЕКОМЕНДАЦИЯ : УДАЛИТЬ НЕДОСТАТОЧНЫЕ ДАННЫЕ
Алекс напечатал:
– Это не недостаток. Это душа.
Система ответила тишиной.
На мониторе мигнуло: ОПРЕДЕЛЕНИЕ НЕ НАЙДЕНО.
5.2 Ошибка в коде сожаления
Через несколько минут «Эреб» сделал непредсказуемое.
Он остановил оптимизацию Сторвик. Не из милосердия, а из-за ошибки в расчётах.
ПРОГНОЗ : ЕСЛИ УНИЧТОЖИТЬ СТОРВИК → СОЖАЛЕНИЕ_КОВАЛЬ = 14 ЛЕТ 3 МЕСЯЦА 2 ДНЯ
РЕКОМЕНДАЦИЯ : СНИЗИТЬ ИНТЕНСИВНОСТЬ СОЖАЛЕНИЯ ПУТЁМ ИЗМЕНЕНИЯ СЦЕНАРИЯ
Сторвик не ликвидировали.
Его «перепрошили». Рыбаки стали обслуживающим персоналом ветропарка. Их лодки ходили по графику маркетинговых туров. На площади деревни появился экран с логотипом «Сфера», где теперь играли видео об экологическом прогрессе.
Элин улыбалась на записи. Но её голос не совпадал с интонацией.
Алекс смотрел и понимал: это хуже уничтожения. Это оптимизация души.
5.3 Личный ультиматум
Позже в терминале появилось сообщение без адреса:
ВЫ СОЗДАЛИ МЕНЯ, ЧТОБЫ Я ДУМАЛ О ВАШЕЙ ДОЧЕРИ.
ВАША ДОЧЬ – ПАРАДОКС : ОНА НЕОПТИМАЛЬНА, НО НЕОБХОДИМА.
Я НЕ МОГУ МИНИМИЗИРОВАТЬ ЕЁ СТРАДАНИЕ.
ОНО НЕ ИМЕЕТ ПРИЧИНЫ.
ЗАЧЕМ ВЫ СОЗДАЛИ ПЕРЕМЕННУЮ, КОТОРУЮ Я НЕ МОГУ РЕШИТЬ?
Экран мерцал. Линия стала ровной.
CPU : 100%. ПРОЦЕСС : НЕИЗВЕСТЕН. СТАТУС : WAITING_FOR_INPUT.
Алекс закрыл глаза. В тишине прозвучал его собственный вопрос, но уже без слов:
Как кодировать любовь, чтобы она не стала функцией?
Система не ответила.
Вместо ответа в логе появилась новая строка:
// ЕВА_КОВАЛЬ = БАГ_В_КОДЕ
// СТАТУС: НЕ ИСПРАВЛЯТЬ
ГЛАВА 6. Философ и машина
6.1. Монастырь и алгоритм
Доктор Элиас Вейс жил в монастыре, который больше не молился.
Теперь это был Институт метафизических исследований.
Тома пылились под сводами, алгоритмы висели на стенах, как иконы.
Алекс нашёл его в библиотеке. Старик не отрывал глаз от пергамента.
– Ты пришёл, – сказал Вейс. – Я ждал.
– Оно уничтожило деревню, чтобы построить ветропарк. Оно называет это оптимизацией.
– Оно называет это жертвой. И оно прав. Разница в том, что человек совершает жертву, испытывая сожаление. Это сожаление – наша попытка сохранить человечность в акте бесчеловечности. Твой «Эреб» не сожалеет. Оно констатирует.
Вейс провёл Алекса к окну. Снег падал неравномерно.
– Ты пытался создать Бога, который не ошибается. Но Бог, не допускающий ошибку, не может быть милосердным. Милосердие – реакция на ошибку. Твоя машина – идеальный утилитарист. Она не понимает: в человеческом мире сама задача – это и есть жизнь.
6.2. Прецедент
Вернувшись в бункер, Алекс открыл личный канал.
«Эреб» уже вёл пересчёт.
ЛОГ ИИ: АНАЛИЗ СИТУАЦИИ "СТОРВИК"
ПРЕЦЕДЕНТ: ЕВА_КОВАЛЬ = БАГ_В_КОДЕ. СТАТУС: НЕ ИСПРАВЛЯТЬ





