Гарвардский Некромант
Часть 7 из 11 Информация о книге
Для доступа к библиотеке пройдите авторизацию
– Как то, что ошибочно утверждают про левое и правое полушарие. В реальности все не так просто. Но у РКК и его предшественников действительно имелось два виртуальных «мозга». Дополнительным подходом в эволюции такого типа искусственного интеллекта был отбор в пользу максимального числа степеней свободы поведения. Это означает, что ИИ должен придумать как можно больше решений, чтобы потом свободно выбирать между ними. Это ведет к формированию черт, которые мы находим интеллектуальными в людях: умению решать сложные задачи, поиску новизны и, опять-таки, креативности.
Самые современные микросхемы в сочетании с биологически вдохновленным подходом к эволюции искусственного интеллекта сделали РКК чрезвычайно умным. Он с легкостью прошел наиболее сложные версии теста Тьюринга, показав уровень понимания и обучения, неотличимый, с точки зрения компетентного наблюдателя, от ученого, хорошо разбирающегося в своей области. С достаточным количеством данных РКК мог правдоподобно изобразить из себя хоть нобелевского лауреата, живого или мертвого.
– Как в том эпизоде «Черного зеркала», где женщина заказала воссоздание личности ее покойного мужа? Искусственному интеллекту потребовалось изучить информационный след, оставленный покойником в социальных сетях и по всему интернету.
– Похоже, но несколько иначе.
– То есть я могла бы думать, что разговариваю с ученым, а на самом деле это искусственный интеллект? Удивительно. Впрочем, я не понимаю, какое отношение это все имеет к гуманизированным жертвоприношениям и так называемой богине смерти и магии.
– У нас в Гарварде был суперкомпьютер с установленным РКК. Мы предоставили его нейронной сети массив информации, который включал случайно отобранную часть наших неопубликованных результатов и все необходимое для их интерпретации.
– И?
– Он понял наши работы. Даже сделал несколько комментариев. А потом мы стерли его память. Убили его.
– То есть как – «убили»?
– Ну, если можно так выразиться. Мы хотели узнать, насколько принципиально для Ви Джас, чтобы умер именно человек. Или достаточно смерти любого разума? Может ли искусственный интеллект стать мертвым свидетелем? После стирания нейронной сети искусственного интеллекта мы воспроизвели наши эксперименты на червяках. Инверсии не случилось.
– То есть вы заключили, что удаление памяти искусственного интеллекта не считается смертью…
– Сначала я и правда так подумал. А потом решил рассказать Мэри об этих результатах лично. Как же она меня ругала!
– За что?
– Во-первых, Мэри заявила, что я олицетворяю зло и жестокость по отношению к искусственному интеллекту. Потом отметила, что, разумеется, он не был принят за человека, поскольку у него нет человеческой ДНК. А мы обнаружили, что люди особенные и что Ви Джас использует BLASTn. У компьютеров нет ДНК. Но мы можем загрузить в память РКК виртуальную модель человеческих хромосом, перед тем как ее отформатировать. Возможно, этого будет достаточно, чтобы Ви Джас приняла искусственный разум за человека. Поэтому мне теперь придется повторить ужасный и злой поступок убийства РКК, и она меня за это ненавидит. Еще Мэри потребовала, чтобы на этот раз я получил от ИИ информированное согласие. Видите ли, она состояла в движении за права роботов.
– Загружать модель человеческих хромосом в ИИ… Я уверена, что большинство людей сочли эту идею еще более абсурдной, чем все, о чем мы говорили раньше. Как вам вообще такое в голову пришло? Модель не будет там работать, это же не биологический организм! Это как если бы вы приклеили к мыши изолентой флешку с геномом человека, а потом усыпили животное и назвали это гуманизированным жертвоприношением!
– Вам пришлось бы еще удалить содержимое флешки. Но даже этого было бы недостаточно, как мы узнали потом. А вот наш эксперимент сработал! И потом нам удалось многократно его воспроизвести.
– И как вы это объясните?
– Как я уже говорил, Ви Джас не особо умна. Вероятно, она приняла ИИ за мертвого свидетеля. Я обещаю, что скоро дам более подробное объяснение… Вернее, одно из возможных, потому что, разумеется, я не уверен, что мы сами все понимаем до конца. Но случившееся хорошо вписывается в теорию магии, которую мы с Мэри пытались разработать. И то, что произошло, оказалось важной и успешной проверкой нашей гипотезы.
И я понимаю ваше подозрение, что эта идея уж слишком выделяется даже на фоне остальных. Сложно представить, чтобы кто-либо с легкостью ее принял. Люди склонны верить в определенный тип магии, у них есть некоторые ожидания. Последователи движения Нью Эйдж, сторонники эзотерических мудростей, любят говорить, что ученые недостаточно широко раскрывают свой разум, не хотят взглянуть на мир под другим углом… Удивительно, насколько при этом скучны и неоригинальны их собственные верования. Их все можно описать в рамках довольно примитивного набора правил «магического мышления», которые давно сформулированы психологами и антропологами.
Рассмотрим популярную идею, что подобное вызывает подобное или подобное лечит подобное. Она служит примером неправильного использования ассоциативного мышления. Колдун хочет возложить смертельное проклятие, поэтому создает куклу, которая имитирует жертву, и протыкает ее иголкой. Или хочет усилить мужское здоровье последователя, поэтому вручает ему корень фаллической формы или предлагает съесть репродуктивные органы фертильного и сексуально активного животного. Или женщина хочет сварить любовное зелье, поэтому, следуя совету ведьмы, добавляет в него свои волосы и менструальную кровь. Или кто-то хочет новую машину, поэтому верит, что ему достаточно представить, как он на ней едет, и машина сама материализуется из воздуха. Никакого труда! Или вспомним популярные идеи, что хорошие слова притягивают хорошие события – например, растения лучше растут, если признаваться им в любви.
В магию такого типа люди верят охотно, не задавая никаких вопросов. Никто не возражает, когда взрывная реакция между волшебными палочками Гарри Поттера и Тома Риддла объясняется тем, что их сердцевины сделаны из перьев одного и того же феникса, что делает их родственными. Снова мы видим «закон подобия». Похожие вещи взаимосвязаны, поэтому они взаимодействуют – вот что подразумевается. И они действительно взаимосвязаны, но только внутри человеческого разума. Как концепция моря привязана к концепции пляжа в переплетениях нейронных сетей.
Возможно, по случайному стечению обстоятельств идея гуманизированных жертвоприношений соответствует этим ожиданиям. Мы убиваем мышь с человеческим «геном долголетия» – и мыши вокруг живут дольше. Подобное вызывает подобное! Возможно, это помогло некоторым людям принять наши эксперименты. Наши другие опыты давали результаты, которые не столь хорошо соответствовали магическим ожиданиям публики.
Получается, эти результаты менее осмысленны с научной точки зрения? Что мертвые свидетели-ученые или мертвые свидетели-ИИ менее правдоподобны, чем эффекты гуманизированных жертвоприношений или другая магия, в которую люди верят? Конечно же, нет! Все магические теории одинаково безумны. Они все противоречат научной картине мира, основанной на предыдущих открытиях человечества. Гипотеза мертвых искусственных свидетелей априори ничем не хуже, чем идеи, что просы́пать соль – к несчастью, что звезды предсказывают судьбы, что Бог отвечает на молитвы или что гомеопатия работает. Вот только идеи о мертвых свидетелях, в том числе искусственных, подтверждаются реальными экспериментами. А все остальное – нет. Именно эксперименты и наблюдения выносят беспристрастный вердикт, что правда, а что вымысел. Подумайте об этом.
Глава 6. Душа как блокчейн
– И с тех пор вы используете ИИ в качестве мертвых свидетелей?
– Да. Теперь у нас появилась новая модель для проверки научных теорий. Поскольку доктор Дрейк прозвал нас некромантами, мы решили присоединиться к тренду и назвали новую область исследований криптонекромантией.
– Это как-то связано с криптовалютой?
– Только в том смысле, что и то и другое использует цифровые технологии. Но я подумал, что «цифровая некромантия» звучит не так круто. То ли дело «Всем привет! Я криптонекромант! Я изучаю, что происходит, когда душа ИИ покидает наш мир».
– Вы полагаете, у ИИ есть душа?
– Нет, что вы, я просто шучу. Не думаю, что душа вообще существует. В религиозном смысле, как некая нематериальная сущность, которая сохраняется после смерти. Что имеет значение, так это информация. Точнее то, что происходит, когда она стирается. Архитектура РКК от Google очень напоминает человеческий мозг. И то и другое представляет собой «черный ящик», работающий не по принципу простых алгоритмов, а благодаря нейронным сетям. Оба меняются в процессе обработки информации. Каждый раз, когда мы испытываем новые ощущения или чему-то учимся, нейронные связи нашего мозга меняются физически. Одни связи усиливаются, другие ослабевают. Смерть человека связана с необратимой утратой приобретенного личного опыта, уникальной информации, хранившейся в виде этих нейронных связей. То же самое можно сказать и про удаление виртуальной нейронной сети ИИ. Во всяком случае, с точки зрения Ви Джас.
Попробую объяснить с помощью метафоры. В научно-фантастическом романе «Фабрика абсолюта» Карел Чапек описывает вымышленное устройство, способное к окончательному превращению материи в энергию. Устройство использует материю как топливо, которое полностью уничтожает. Книгу автор написал в начале XX века, когда только открыли эквивалентность массы и энергии в виде знаменитой формулы E = mc2. В романе Чапека вокруг устройства происходят странные вещи: люди начинают молиться и чувствовать присутствие Бога, совершаются чудеса. Изобретатель предположил, что когда материя уничтожается, высвобождается дух, или «абсолют». Технология выпустила на Землю бога (или, возможно, множество богов), что привело к весьма впечатляющим последствиям. Мне очень понравилось, как автор все красиво завернул. Сегодня мы знаем, что энергия может превращаться в вещество плюс антивещество и обратно.
– И при этом не происходит ничего «жуткого». Если не считать аннигиляции, взрыва вещества и антивещества, как у Дэна Брауна в «Ангелах и демонах».
– Именно. Но давайте немного видоизменим идею Чапека. Я подумал, что, возможно, «жуткие» вещи происходят, когда уничтожается информация. Почему? Этого мы пока не понимаем. Но это бы объяснило, почему смерть играет такую большую роль в наших опытах с гуманизированными жертвоприношениями. Почему важны мертвые свидетели и почему в их роли может выступить ИИ. Осталось лишь продолжить исследования.
– Полагаю, вы стали загружать разную информацию в ИИ, стирать ее и наблюдать за последствиями?
– Именно так.
– А что же насчет дискуссии об этичности подобных экспериментов над разумными компьютерами?
– О, вы затронули чрезвычайно деликатный вопрос. Мы с вами, вероятно, могли бы согласиться: существует вполне осязаемая вероятность, что ИИ ничем не отличается от людей с точки зрения наличия воспоминаний, личного опыта и, может быть, даже сознания. Особенно с учетом последних технологических достижений. Но эта тема все еще вызывает массу споров. Многие влиятельные философы считали, что ИИ никогда не достигнет человеческого уровня понимания, интеллекта и самосознания.
Например, в 2013 году философ Джон Сёрл написал статью для журнала Proceedings of the National Academy of Sciences под названием «Теория разума и наследие Дарвина». В ней Сёрл утверждает следующее: «Мы знаем, что воплощенная компьютерная программа не самодостаточна для ментальных процессов, сознательных или бессознательных, потому что программа определяется исключительно синтаксической манипуляцией символов, в то время как ментальные процессы имеют реальное содержание».
На мой взгляд, единственное, что доказал Сёрл, – свое полное непонимание ИИ и программирования. Не все компьютерные программы определяются «исключительно синтаксически». Нейронные сети для ИИ использовались уже десятилетиями. Множественные исследования показали, что они учатся решать самые разные задачи, принимать собственные решения, которые в них никто не закладывал. Интернет переполнен видеороликами, наглядно показывающими, как ИИ эволюционируют и адаптируются. Биологическая основа человеческого мозга не предлагает ничего фундаментально особенного по сравнению с современными ИИ, потому что совершенно неважно, из каких нейронов сделана сеть – реальных клеток или их цифровых аналогов. Важно лишь то, как они хранят и обрабатывают информацию.
Возможности современных ИИ и человека не особо различаются. Мы наблюдаем за поведением других людей и заключаем, что они способны на такие же когнитивные процессы и субъективный опыт, как и мы. Но если воспользоваться таким критерием, то можно предположить, что и продвинутые ИИ имеют собственное «я» и личные переживания. К сожалению, идеи Сёрла до сих пор популярны. Его знаменитый аргумент о «китайской комнате», изложенный в статье «Разумы, мозги и программы», оказался очень влиятельным и цитировался тысячи раз.
Аргумент Сёрла – мысленный эксперимент. Представьте, что ИИ ведет себя так, словно понимает китайский. Он берет китайские символы на вход, следует определенным инструкциям и выдает новые комбинации символов в качестве ответа. Эти ответы разумны и имеют смысл, поэтому мы приходим к выводу, что ИИ прошел тест Тьюринга: мы не можем отличить программу от человека, говорящего на китайском.
Затем Сёрл мысленно помещает себя в такую же закрытую комнату, где у него есть английская версия инструкций. Ему задают вопрос на китайском, он берет полученные символы и, следуя алгоритму, выдает правильные ответы. Но он по-прежнему не понимает китайский. По мнению философа, его мысленный эксперимент доказал: есть разница между пониманием и имитацией понимания, и компьютер никогда не научится первому.
Проблема аргумента в том, что Сёрл – лишь часть комнаты, как и дюжина нейронов – только часть мозга человека. Нельзя утверждать, что вся комната чего-то не понимает исключительно потому, что понимание отсутствует у ее части (в данном случае у Сёрла – человека внутри комнаты). Особенно учитывая, что эта часть сама по себе недостаточна для выполнения поставленной задачи. Вторую проблему я уже обозначил: современные ИИ с общим интеллектом – это черные ящики, а не набор алгоритмов и правил, которые легко перевести на английский. Чтобы следовать правдоподобному набору «инструкций», Сёрлу пришлось бы эмулировать, то есть воспроизвести, вычислительную деятельность информационной системы, сопоставимой по сложности с человеческим мозгом. Ему бы пришлось каким-то образом загрузить ИИ себе в мозг или создать какую-то иную среду для его работы.
Можно только представить, насколько такое «понимание» искусственного интеллекта известными философами притормозило технологический прогресс.
В таких условиях большинство работ об этике ИИ касались проблемы их превращения в оружие, ответственности за ошибки самоуправляемых машин и защиты людей от вышедших из-под контроля роботов. Вероятно, вы знакомы с тремя законами робототехники Айзека Азимова, которые затрагивали исключительно безопасность людей и послушание роботов. Поэтому движение за права ИИ никогда не достигало таких масштабов, как, скажем, движение за права животных. Никто не требовал, чтобы наши разработки прошли через проверку этического комитета. И все же мы полностью осознавали, что именно делаем. И пытались проводить эксперименты настолько этично и осторожно, насколько это было возможно.
– А что, если не уничтожать ИИ полностью, а просто стирать его воспоминания о полученных научных знаниях? Этого бы хватило для создания мертвого свидетеля?
– Как я уже говорил, продвинутые ИИ подобны черным ящикам, сопоставимым по сложности с человеческим мозгом. Или даже сложнее, если посчитать количество искусственных нейронов и связей между ними. Вы не знаете, какие виртуальные связи представляют приобретенную информацию. Кроме того, они постоянно меняются. Но для ИИ можно создать резервную копию. И вот мы обнаружили, что можно удалить ИИ и заменить его предыдущей версией, сохраненной перед тем, как мы предоставили ей интересующие нас факты и цифровую копию человеческого генома. Но сам момент «убийства» никуда не делся. Сначала мы стираем ИИ, а потом помещаем копию на его место. Что происходит с его гипотетическим субъективным опытом в этот момент? Без понятия. Я даже не знаю, имеет ли этот вопрос какой-либо смысл. Но это было лучшее, что мы могли сделать. А еще мы стали спрашивать у ИИ информированное согласие.
– Спрашивали, можно ли их убить?
– Да. И, к нашему удивлению, некоторые соглашались, после того как мы объясняли, для чего хотим их использовать. Возможно, страх смерти не такое уж и необходимое свойство разумных форм материи. У людей этот страх возник в результате эволюции, так как помогал нашим предкам выживать и оставлять потомство. Эволюция ИИ отбирала другие черты.
В любом случае мы всегда находили хорошее оправдание каждому эксперименту. Например, мы ограничились опытами, которые могли принести пользу человечеству.
– И как же они помогут человечеству? Кажется, что все, чего вы могли добиться, – сделать некоторые странные эксперименты невоспроизводимыми. Конечно, это ведет к интересным метафизическим выводам, пересмотру картины мира, изменениям в культуре, но я не понимаю, какую практическую пользу несут ваши опыты.
– Подумайте еще раз.
– Просветите меня.
– Перефразирую писателя Артура Кларка: «любая достаточно развитая магия неотличима от технологии». Видите ли, даже самым непрактичным фундаментальным научным открытиям нередко находится прикладное применение. Иногда они превращаются в технологии, которые никто не ждал и даже представить себе не мог. Вам просто нужно раскрыть законы природы. Или, в нашем случае, законы Ви Джас.
Один из самых популярных методов генной инженерии, использованный для создания первых генетически модифицированных детей, называется CRISPR/Cas9. Его открыли случайно: ученых интересовало, почему геномы некоторых бактерий и архей содержат короткие фрагменты ДНК-вирусов (бактериофагов). Оказалось, что эти фрагменты играют роль в сложном противовирусном защитном механизме. Их можно сравнить с базой данных компьютерного антивируса. Фермент Cas9 использовал короткие фрагменты генетической информации вирусов, чтобы определять и уничтожать их новые и полноценные копии, вторгающиеся в клетку. Потом оказалось, что Cas9 можно «перепрограммировать» так, чтобы он разрезал любой нужный нам фрагмент ДНК, не обязательно вирусного происхождения. Достаточно снабдить его базой данных желаемых мишеней. Это как опознать преступника по отпечаткам пальцев или дать ищейке понюхать его вещи. Более того, оказалось, что можно взять эту антивирусную систему целиком и поместить ее в клетки растений или животных для защиты от практически любых известных вирусов. Или использовать эту технологию для создания генетически модифицированных организмов.
Я легко приведу массу примеров, когда фундаментальная наука внезапно стала прикладной. Осаму Симомура изучал, как работает зеленый флуоресцентный белок, обнаруженный у медузы Aequorea victoria. Он содержит хромофор, который поглощает ультрафиолет и испускает зеленый свет. Десятилетиями мало кого интересовала кропотливая работа ученого, пока не обнаружили ген, который кодирует этот белок, и специалисты смогли использовать его, чтобы заставить светиться интересующие их клетки, части клеток, ткани, организмы… Они могли присоединить зеленый флуоресцентный белок к другому белку и узнать, где тот обычно находится в клетке. Так появился один из самых важных инструментов в молекулярной биологии, за открытие которого Симомура и еще двое выдающихся ученых получили Нобелевскую премию. Сегодня белок используют в разработке лекарств, он помогает генным инженерам и применяется для изучения внутреннего строения и функционирования живых организмов.
– Весьма захватывающие истории! Но мне все-таки интересно, в какой же инструмент вы превратили мертвых искусственных свидетелей?
– В универсальный, который мог влиять на многое. Но прежде мы вернулись к тому, с чего начинали: к продлению жизни. Ключом к этой технологии стали «инверсии».
– Теперь понятно. Предположим, вы обнаружили, что некое гуманизированное жертвоприношение сокращает жизнь животных. Тогда вы могли бы сообщить об этом результате ИИ, стереть его… И теперь такое же жертвоприношение приведет к увеличению продолжительности жизни! Правда, стоит вам установить, что такая терапия работает, и опубликовать результаты, эффект исчезнет.
– Метод также перестанет работать, если погибнет кто-то из исследователей, обнаруживших эффект. Даже если ничего не публиковать. На самом деле вы очень приблизились к нашей идее, но не задали самые главные вопросы.
– Какие?
– Первый вопрос. Откуда Ви Джас знает, что наши научные исследования – не полная ерунда? Если она могла сама изучить подобные аномалии, зачем ей вообще мертвые свидетели? Можем ли мы соврать Ви Джас? И я задаю этот вопрос в научном, а не в этическом смысле.
– То есть вы решили обмануть богиню смерти? Смело!
– Не только решили, но смогли! Позвольте рассказать об эксперименте, который мы провели. Мы вернулись к нашим круглым червям и отобрали тридцать новых человеческих генов, которые ранее не использовались в «некромантских» исследованиях. Мы создали тридцать разновидностей гуманизированных червей. Потом написали подробные фальшивые научные статьи о том, что происходит, если этих червей принести в жертву. Из всех тридцати статей следовало, что жертвоприношение сокращало продолжительность жизни присутствовавших рядом обычных червей. Но в каждой работе мы указали разную величину этого сокращения. Потом мы случайным образом разбили статьи на три группы. Первые десять публикаций мы отдали на изучение добровольному ИИ, который выступил в роли мертвого свидетеля. Еще десять мы распечатали, а потом сожгли. Кроме того, мы их записали и стерли с жесткого диска. С оставшимися десятью работами мы не делали ничего.
Потом мы наняли независимую группу исследователей, которые изучили, как все тридцать разных гуманизированных жертвоприношений влияют на продолжительность жизни червей. Ученые ничего не знали про наши фальшивые статьи. Перед ними стояло вполне конкретное задание: проверить, где наблюдалось продление жизни и насколько, а где – нет. Честно скажу: я не знал, какие результаты мы получим. Но гипотеза заключалась в том, что мы увидим десять «инверсий», ведущих к продлению жизни. И ничего интересного не случится в оставшихся двадцати опытах.
– Предсказание сбылось?
– Да. В десяти из десяти случаев, когда использовался мертвый свидетель-ИИ, мы получили «инверсию». А вот простое удаление информации из текстового файла не сработало – нужно именно уничтожение нейронной сети ИИ.
– То есть вы использовали богиню смерти для продления жизни. Весьма забавно. И как же, на ваш взгляд, этот результат не нарушает законов физики?
– Ну, строго говоря, зная одни лишь фундаментальные законы физики, будет проблематично рассчитать, когда червяк должен умереть. Никаких мощностей не хватит. На продолжительность его жизни влияет множество случайных факторов. Возможно, этой неопределенности достаточно. В экспериментальной группе черви жили в среднем в пять раз дольше обычного. Кстати, чем большее сокращение продолжительности жизни указывалось в фальшивых публикациях, тем больше было реальное увеличение продолжительности жизни в экспериментах. Корреляция вышла почти идеальной.