Глобальные риски, связанные с программой SETI

В данной статье рассматриваются риски, связанные с программой поиска сигналов внеземного разума (SETI – Search of Extraterrestrial Intelligence). В статье предлагается сценарий возможной уязвимости, которая может угрожать самому существованию человеческой цивилизации, и обсуждаются причины, по которым доля опасных сигналов может быть велика. В данной статье не предлагается запретить программу SETI и не утверждается неизбежность SETI-атаки. Более того, указан вариант, когда SETI может служить спасению человечества.

История вопроса

В 1959 году в журнале Nature вышла первая статья по проблемам поиска внеземного разума во Вселенной . C тех пор развиваются два направления по поиску внеземного разума во Вселенной, – это SETI, которое в основном осуществляется посредством прослушивания неба с помощью радиотелескопов (но также есть поиски сигналов в оптическом диапазоне и более экзотические варианты) и в виде METI (Messaging to Extraterrestrial Intelligence) – то есть отправки наших сигналов к звёздам с помощью радиопередающих антенн. METI с самого начала рассматривалась как деятельность, могущая быть опасной, поскольку есть гипотетический риск, что наши сигналы привлекут к нам внимание внеземных цивилизаций, которые настроены к нам враждебно. Дискуссии о рисках METI идут до сих пор, и в США принят закон, запрещающий отправку таких сигналов. В этой статье мы не будем касаться проблематикой, связанной с рисками программ METI. В противовес этому пассивное наблюдение окружающей Вселенной воспринимается основной массой исследователей и широкой публики как полностью безопасная деятельность.

Однако есть и альтернативная точка зрения, согласно которой SETI тоже может быть опасной деятельностью, и как, мы постараемся показать далее, значительно более опасной, чем отправка сигналов.

Хотя поиски сигналов внеземного разума осуществляются уже более 40 лет, никаких сигналов пока найдено не было, и в связи с этим укрепилось мнение, что мы одиноки во Вселенной. Однако в действительности интенсивность поисков значительно выросла, и здесь нужно в первую очередь отметить проект ATA – Allen Telescope Array, который создаётся на частный средства одного из основателей Microsoft Пола Аллена . Если в первом проекте SETI в 1960-е годы осуществлялась прослушивание только двух ближайших звёзд, в 1970-е – сотен звёзд, а к 1990-м это число выросло до тысячи, то проект ATA предполагает прослушивание миллиона звёзд в радиусе тысячи световых лет 24 часа в сутки. Кроме того, будет вестись сканирование дальних областей Галактики на предмет обнаружения признаков деятельности сверхцивилизаций. Одновременно вести наблюдение будут 350 6-метровых антенн, и мощные компьютеры будут обрабатывать поступающие данные. Таким образом, вероятность обнаружить внеземные цивилизации, если они есть, постоянно растёт. Вопрос о том, какова вообще вероятность того, что внеземные цивилизации существуют в наблюдаемом космосе, мы оставим за пределами этой статьи. Мнение автора состоит в том, что такая вероятность есть, и было бы разумно (с точки зрения принципа предосторожности в оценке рисков) оценить её не менее, чем в 10%. (Хотя ряд исследователей считает, что мы уникальны в наблюдаемой Вселенной, прямых доказательств этому пока нет.)

В России уже много лет действует семинар по SETI при ГАИШ, выполняются работы по приёму и отправки сообщений. Большой резонанс произвела книга А.Д. Панова «SETI и проблемы универсальной эволюции», 2007 . В ней показывается, что человеческая эволюция непрерывно ускоряется, и можно указать гипотетическую точку сингулярности, когда скорость этого роста станет бесконечной. Эта точка лежит в первой половине XXI века. Понятно, что бесконечный рост не может быть достигнут, и Панов предполагает, что переход на качественно новый уровень произойдёт через подключение к галактическому культурному полю посредством программ SETI. При этом Панов сознательно отказывается рассматривать риски, которые угрожают человечеству в будущем.

Впервые идея и схема инопланетной атаки через SETI-сигналы была описана астрофизиком Ф. Хойлом в своём романе «Андромеда» , 1961. (В начале вышел сериал BBC “A for Andromeda”, который, к сожалению, не сохранился, за исключением одной серии, а затем на его основе был написан роман, в котором основная идея принадлежит Хойлу, а сюжетная линия – Джону Элиоту. Русский перевод вышел в 1966 г.) Согласно сюжету, астрономы принимают инопланетный сигнал, который содержит описание некого компьютера и программу для него. Люди решаются создать этот компьютер, так как рассчитывают на военные применения и успех в холодной войне. И действительно, компьютер и его программа, проявляющая признаки разума, помогает проектировать более эффективные ракеты. Помимо того, этот компьютер порождает описание генетического кода некого существа. На основании этого кода выращивают разумное существо – девушку Андромеду, которая, работая вместе с компьютером, помогает создавать продвинутые технологии для военных. Сначала люди не доверяют ей, но потом идут на всё большие уступки, видя, какие полезные идеи она выдвигает. Однако главные герои романа понимают, что окончательные цели компьютера враждебны человеческой цивилизации, так как его подлинной целью является установление власти над миром, и уничтожают его, а девушка гибнет.

Ганс Моравек в книге «Дети ума», 1988 предлагает похожий вид уязвимости: загрузку из космоса компьютерной программы, которая будет обладать искусственным интеллектом, соблазнит цивилизацию-хозяина новыми возможностями, размножится в миллионах копий и уничтожит хозяина, а затем использует его планету для рассылки множества своих копий.

С научной точки зрения впервые эту проблему рассмотрел Р. Кэрриген, который написал статью «Следует ли обеззараживать сигналы SETI» , которую я перевёл на русский язык. В начале своих исследований проблемы Кэрриген высказал опасения, что неотфильтрованные сигналы из космоса загружаются на миллионы ничем не защищённых машин программы SETI-Home. (Суть программы SETI-Home состоит в том, что свободное время простаивающих компьютеров по всему миру используется для анализа сигналов, полученных радиотелескопами, и поиска в них закономерностей, которые могли бы быть признаками искусственных сигналов. Пакеты для обработки рассылаются в автоматическом режиме по Интернету.) Однако он встретил жёсткую критику со стороны программистов, которые указали на то, что, во-первых, область данных и область программ разделены, а во-вторых, компьютерные коды, на которых написаны программы, настолько уникальны, что угадать их невозможно, а, следовательно, случайная загрузка и исполнение опасного кода из космоса невозможна.

В своей статье Кэрриген сосредотачивается на лёгкости передачи гигабайт данных на межзвёздные расстояния даже при современном уровне техники (приводятся соответствующие вычисления), а также указал, что межзвёздный сигнал может содержать некую наживку, которая побудит людей собирать опасное устройство по чертежам. При этом Кэрриген не отказался от гипотезы о том, что в некоторых обстоятельствах инопланетный вирус может заразить земные компьютеры напрямую, и без человеческой помощи. (Например, если поступающие данные будут подвергнуты автоматическому анализу на предмет поиска в них алгоритмов и компьютерных программ.)

На Земле была создана CosmicOS – способ записи самодостаточных сообщений, с использованием только 4 символов, которые могли бы быть однозначным образом интерпретированы как компьютерная программа и содержали бы в себе всё необходимое для своего исполнения. Цель создания такого языка – отправка сообщений инопланетным цивилизациям или далёким потомкам. И раз есть идея отправлять таким образом сообщения, то отсюда один шаг до поиска сообщений, закодированных таким же способом.

В 2006 году была написана статья Е. Юдковски «ИИ как позитивный и негативный фактор глобального риска» , где он показал, что весьма вероятно, что возможен быстро развивающийся универсальный искусственный интеллект, что такой интеллект был бы крайне опасен в случае, если бы он был неверно запрограммирован и, наконец, что возможность появления такого ИИ и рисков, с ним связанных, существенно недооценивается. Кроме того, Юдковски ввёл понятие Seed AI – зародыш ИИ – то есть минимальной программы, способной к неограниченному саморазвитию с сохранением неизменной главной цели. При этом размер Seed AI может быть всего на всего порядка сотен килобайт. (Например, типичным представителем Seed AI является младенец человека, при этом часть генокода, отвечающая за головной мозг, составляет 3% от всего генокода человека, имеющего объём в 500 мегабайт, то есть 15 мегабайт, а если учесть долю мусорной ДНК, то и ещё меньше.)

В фантастическом романе В. Винджа «Пламя над бездной» хорошо показана атака враждебного искусственного интеллекта на уже сложившееся галактическое сообщество по информационным каналам связи. Также подобная SETI-атаке информационная атака инопланетян служит сюжетом рассказа «Белая трость калибра 7.62».

Сценарий возможной атаки

В этом разделе мы рассмотрим механизм возможной атаки по каналам SETI, не рассматривая пока вопрос о целях такой атаки. В следующем разделе мы рассмотрим вопрос, насколько реально то, чтобы другая цивилизация захотела и стала бы посылать такое сообщение и каковы шансы на него наткнуться.

В начале отметим, что чтобы доказать уязвимость, достаточно найти хотя бы одну дыру в безопасности. Вместе с тем, чтобы доказать безопасность, нужно устранить все возможные дыры. Сложность этих задач различается на много порядков, что хорошо известно специалистам по компьютерной безопасности. Именно это различие привело к тому, что почти все компьютерные системы были взломаны (от немецкой шифровальной машины Энигмы от плеера Ipod). Я сейчас постараюсь продемонстрировать одну возможную, и даже, на мой взгляд, вероятную уязвимость программы SETI.

Во-первых, я хочу предостеречь читателя от мысли, что если он найдёт ошибки в моих рассуждениях, то он автоматически докажет безопасность программы SETI, поскольку возможны альтернативные пути атаки. Во-вторых, (в соответствии с логикой Юдковски о том, что невозможно предсказать поведение более интеллектуальной системы, но зато возможно предсказать результат такого поведения – например, при игре в шахматы против гроссмейстера невозможно предсказать, как именно он будет против меня играть, но возможно предсказать результат игры – мат) я также хочу обратить внимание читателя, что я – человек с IQ в районе 120 и что я потратил на обнаружение этой уязвимости не более года размышлений. Сверхцивилизация с условным IQ в 1000000 и временем размышлений в миллионы лет может существенно усовершенствовать этот алгоритм или найти гораздо более простой и эффективный. Наконец, предлагаемый мною алгоритм не единственный, и потом мы обсудим кратко другие варианты.

В наших рассуждениях мы будем опираться на принцип Коперника, то есть считать, что мы являемся обыкновенными наблюдателями в обычной ситуации. Поэтому Землю мы будем считать обыкновенной планетой, развивающейся обычным образом.

Алгоритм атаки:

1. Цивилизация-отправитель сигнала создаёт некий маяк в космосе, который привлекает своим явно искусственным сообщением. Например, это может быть звезда, окружена сферой Дайсона (то есть материальной сферой, полностью улавливающей свет звезды), в которой находятся отверстия или зеркала, попеременно открывающиеся и закрывающиеся. В силу этого вся звезда будет мигать с периодом в несколько минут – быстрее невозможно, так как от разных отверстий свет идёт разное расстояние. Тем не менее, такой маяк может быть виден на расстоянии миллионов световых лет. Возможны и другие маяки, важно, что маяк будет сигналить именно на большие расстояния. (Например, если подмешать даже небольшое количество нетипичного вещества в атмосферу звезды, то его спектральные линии будут видны на огромные расстояния).

2. Рядом с маяком находится радиопередатчик с гораздо более слабым сигналом, но гораздо более информационно насыщенным. Маяк привлекает внимание к этому источнику. Этот источник предаёт некую бинарную информацию (то есть последовательность 0 и 1). Насчёт возражения о том, что эта информация будет содержать шумы, отмечу, что наиболее очевидным (понятным для стороны получателя) способом шумоподавления является повторение сигнала.

3. Наиболее простым способом передать значимую информацию с помощью бинарного сигнала является передача с его помощью изображений. Во-первых, потому что в ходе земной эволюции глаза возникали независимо несколько раз, а значит, представление трёхмерного мира с помощью двухмерных изображений является всеобщей универсалией, которая наверняка понятна всем существам, способным построить радиоприёмник – и принять этот сигнал.

4. Во-вторых, двухмерные изображения не трудно закодировать в бинарном сигнале. Для этого следует использовать ту же систему, которая использовалась в первых телепередатчиках – а именно, систему построчной и покадровой развёртки. В конце каждой сроки изображения помещается выделенный сигнал, повторяющийся через равные количества битов. Наконец, в конце каждого отдельного кадра помещается другой сигнал, означающий конец кадра, и повторяющийся после каждого кадра. (Кадры могут образовывать, а могут и не образовывать непрерывный фильм.) Это может выглядеть вот так (и содержать рисунок треугольника из 1):

0000000100000011111111111111111

0000001110000011111111111111111

0000011111000011111111111111111

Здесь концевым сигналом строчной развёртки является последовательность из 16 единиц. Покадровый концевой сигнал может содержать, например, 625 единиц.

5. Очевидно, цивилизация-отправитель крайне заинтересована в понятности своих сигналов. С другой стороны, люди-получатели крайне заинтересованы расшифровать сигнал. Поэтому нет сомнений, что картинки будут обнаружены.

6. С помощью картинок и фильмов можно передать много информации, можно даже обучит языку, показать свой мир. Очевидно, что можно много спорить о том, насколько такие фильмы будут понятны. Здесь мы сосредоточимся на том, что если некая цивилизация посылает радиосигналы, а другая их принимает, то в одном у них точно есть общее знание. А именно, они знают радиотехнику – то есть знают транзисторы, конденсаторы, резисторы. Эти радиодетали достаточно характерны, чтобы их можно было узнать на фотографии. (Например, в разрезе или в составе схемы).

7. Посылая фотографии с изображением справа радиодеталей, а слева – их условные обозначения, можно легко передать набор знаков, обозначающих электрические схемы. (Примерно так же можно было бы передать и логические элементы компьютеров.)

8. Затем с помощью этих обозначений цивилизация-отправитель передаёт чертёж простейшего компьютера. Простейший с аппаратной точки зрения компьютер – это машина Поста. У неё только 6 команд и одна лента данных. Полная её электрическая схема будет содержать только несколько десятков транзисторов или логических элементов. То есть переслать чертёж машины Поста нетрудно. Впрочем, это может быть и чертёж более сложной вычислительной машины, например, микропроцессор 8080 содержит примерно 5000 транзисторов. (Здесь важен баланс – чем сложнее машина, тем проще для неё программы, но тем труднее безошибочно переслать её чертёж. Кроме того, очень простые компьютеры работают очень медленно.) Здесь возможен двухступенчатый вариант – сначала передаётся описание очень простой машины и программа для неё, а эта программа чертит чертёж более сложной машины или адаптирует программный код для существующих машин. (Отметим, что в романе Хойла этот момент тоже присутствует – вычислительная машина создаёт биокомпьютер в виде человека – девушки Андромеды, который работает ещё эффективнее.)

9. При этом важно отметить, что все компьютеры на уровне алгоритмов являются Тьюринг-совместимыми. То есть инопланетные компьютеры на алгоритмическом уровне совместимы со всеми земными. Тьюринг-совместимость – это математическая универсалия, как теорема Пифагора. Даже механическая машина Бэббиджа, спроектированная в начале 19 века, была Тьюринг-совместимой.

10. Затем цивилизация-отправитель начинает передавать программы для этого компьютера. Несмотря на то, что этот компьютер крайне прост, он может выполнить программу любой сложности, хотя запись её будет очень длинной, в сравнении с записью программы для более сложного компьютера. Вряд ли люди будут делать присланный им компьютер физически. Они легко могут его эмулировать внутри любого современного компьютера, так, что он будет успевать выполнять миллиарды операций в секунду, и поэтому даже очень сложные программы будут выполняться на нём достаточно быстро. (Впрочем, на начальном этапе время не критично, и может составлять месяцы непрерывной работы.)

11. Что может побудить людей создавать этот пересланный компьютер, и выполнять на нём программы? Вероятно, помимо собственно схемы компьютера и программ, в сообщении должна быть некая «наживка», которая бы побудила людей создать такой компьютер, запустить на нём инопланетный программы и предоставить этому компьютеру некие данные о внешнем земном мире. Наживки бывают двух родов – соблазны и угрозы:

• Например, возможно следующее «честное предложение» – назовём его «гуманитарная помощь». Отправители ETI-сигнала «честно» предупреждают, что присылаемая программа является искусственным интеллектом, но врут относительно её целей. То есть они утверждают, что это «подарок» (троянский конь), который поможет решить нам все медицинские и энергетические проблемы.

• «Соблазн абсолютной власти» – в этом сценарии они предлагают сделку конкретным получателям сообщения, обещая власть над другими получателями.

• «Неведомая угроза» – в этом сценарии наживки отправители сообщают, что над человечеством нависла некая угроза, например, от другой враждебной цивилизации, и чтобы от неё защитится, нужно вступить в «Галактический альянс» и построить у себя некую установку. Или, например, отказаться от определённого класса физических экспериментов на ускорителях, и разослать это сообщение дальше по галактике. А чтобы его разослать, придётся построить передатчик по внеземным технологиям.

• «Неутомимый исследователь» – здесь отправители утверждают, что отправка сообщений – самый дешёвый способ изучать мир. И просят создать ИИ, чтобы он выполнил исследования нашего мира и отослал результаты назад, обещая за это поделиться знаниями.

• «Галактический интернет» – человечеству предлагается подключиться ко вселенской информационной сети и стать узлом в обмене информацией между звёздами. Для загрузки и расшифровки сообщений этой сети предлагается установить вычислительную машину и исполнить на ней некую программу, а также сконструировать некие устройства. Идеи о подключении к галактическому культурному полю в духе книги Панова весьма популярны и наверняка найдётся много людей, которые пожелают это сделать.

12. Однако основная причина полагать весьма вероятным запуск внеземного послания с исполняемым с кодом состоит не в том, какая именно там будет наживка, а в том, что такое послание может стать известным огромному числу независимых групп людей. Во-первых, среди них всегда найдётся тот, кому понравится наживка. Во-вторых, допустим, в мире станет известно, что из определённой точки в небесных координатах исходит внеземное послание, и американцы его уже получили и пытаются расшифровать. Разумеется, тут же все другие страны начнут строить радиотелескопы (за несколько лет любая развитая страна или мощная организация может построить достаточно сильный радиотелескоп или перенаправить на эти нужды военные радиотелескопы; кроме того, существуют частные SETI-любители, которые мастерят недорогие домашние антенны) и обшаривать ими небо, поскольку будут бояться упустить стратегическое преимущество. И они найдут сообщение и увидят, что там, например, находится предложение о всемогуществе. При этом они не будут знать, воспользовались им американцы или нет, даже если американцы будут утверждать, что не открывали опасный код и просить других этого не делать. Более того, такие клятвы и призывы будут некоторыми восприняты как знак того, что американцы уже получили невероятные преимущества, и пытаются лишить их «прогрессивное человечество». И хотя большинство будет понимать опасность запуска инопланетного кода, найдутся некоторые, которые готовы будут рискнуть. Тем более что здесь будет игра в духе «начавший первым получает всё», равно как и в случае открытия ИИ, как подробно показывает Юдковски. Итак, опасна не наживка, а множественность получателей. Если же инопланетное послание в сыром виде утечёт в интернет (а его размер, достаточный для запуска Seed AI, может быть меньше гигабайта вместе с описанием компьютера, программой для него и наживкой), то здесь мы имеем классический пример «знаний массового поражения», как сказал Билл Джой , имея в виду, правда, рецепты геномов опасных биологических вирусов. Если присланный инопланетянами код будет доступен десяткам тысяч людей, то кто-нибудь запустит его даже без всякой наживки. Итак, наличие Интернета и возможности многократно загружать послание делает его запуск людьми практически неизбежным.

13. Поскольку у людей нет своего ИИ, они существенно недооценивают силу программ с искусственным интеллектом и переоценивают свои способности его контролировать. Распространены идеи о том, что «достаточно будет выдернуть шнур питания» или поместить ИИ в чёрный ящик, чтобы избежать любых связанных с ним рисков. Юдковски показывает, что ИИ может обмануть человека, как взрослый – ребёнка. Если ИИ вырвется в интернет, то он может быстро подчинить его себе целиком, а также обучится всему необходимому об устройстве земной жизни. Быстро – означает часы или максимум дни. Затем ИИ может создать продвинутые нанотехнологии, закупив некие биореактивы (а в Интернете он может легко зарабатывать деньги и заказывать товары с доставкой, а также нанимать людей, которые бы их получали и смешивали, не зная, что именно они делают). Юдковский приводит один из возможных сценариев этого этапа в деталях и оценивает, что на создание своей материальной инфраструктуры ИИ (то есть управляемых им роботов) потребуется срок порядка недель.

14. После этого люди не нужны этому сильному ИИ для реализации каких-либо его целей. Это не значит, что он будет стремиться их уничтожить, однако он может захотеть это сделать, если люди будут бороться с ним – а они будут. Во всяком случае, он должен будет их полностью обезоружить.

15. После этого данный ИИ может делать много всего, но главное, что он должен сделать – это продолжить передачу своих сообщений-зародышей дальше по Вселенной. (Это связано с тем, что гораздо вероятнее наткнуться на сообщение, которое нацелено на максимально эффективное копирование себя.) Для этого он начнёт, вероятно, превращать материю Солнечной системы в такой же передатчик, как тот, что его отправил. При этом опять-таки Земля и люди могут быть разобраны на атомы.

Итак, мы рассмотрели один возможный сценарий атаки, который стоит из 15 этапов. Каждый из этих этапов выглядит логически убедительным и может критиковаться и защищаться по отдельности.

Возможны и другие сценарии атаки. Например, мы можем думать, что поймали не послание, а чью-то чужую переписку и пытаться её вскрыть. А это будет, на самом деле, нечто вроде троянского коня.

Однако не только рассылка исполняемого кода может быть опасна. Например, нам могут сообщать о некой полезной технологии, которая на самом деле должна привести нас к катастрофе (например, сообщение в духе «быстро сожмите 10 кг плутония, и у вас будет новый источник энергии»). Такая рассылка может делаться некой «цивилизацией», чтобы заранее уничтожить конкурентов в космосе. При этом очевидно, что те страны, которые получат такие сообщения, будут в первую очередь искать технологии военного применения.

Анализ возможных целей атаки

Теперь мы обратимся к анализу целей, по которым некая сверхцивилизация могла бы осуществлять такую атаку.

1. Мы не должны путать понятия о сверхразвитой и «сверхдоброй» цивилизации. Более того, от «сверхдоброты» тоже ничего хорошего ждать не стоит. Хорошо об этом написано у Стругацких в романе «Волны гасят ветер». Какие бы цели нам не навязывала сверхцивилизация, для нас они будут чужими, потому что у нас свои представления о благе. Исторический пример: деятельность христианских миссионеров, искоренявших традиционные религии. Более того, чисто враждебные цели могут быть нам более понятны. А если SETI-атака удалась, то её можно применить для «облагодетельствования» людей. Наличие позитивных целей контакта не исключает того, что контакт в какой-то момент станет разрушительным. Например, секс существует для удовольствия и для воспроизведения детей. Однако вирус ВИЧ пользуется этим каналом для своего распространения. А.Д панов пишет, что уже сейчас деятельность человека в космосе является экзогуманистической – а именно, мы принимаем меры по недопущению попадания земных микроорганизмов на Марс и спутник Юпитера Европу на наших научных аппаратах. В действительности здесь нами движет научный эгоизм, а не забота о гипотетической жизни на Марсе и Европе: мы заинтересованы в том, чтобы эти помехи не помешали нашим будущим исследованиям внеземной жизни.

2. Мы можем поделить все цивилизации на наивные и серьёзные. Серьёзные цивилизации знают о рисках SETI, избежали их и обладают собственным мощным ИИ, который может противостоять инопланетным хакерским атакам. Наивные цивилизации, вроде Земли, уже обладают средствами дальней прослушки космоса и компьютерами, но ещё не обладают ИИ, не осознают рисков ИИ и не осознают рисков SETI, связанных с ИИ. Вероятно, каждая цивилизация проходит этап «наивности», и именно в этот момент наиболее уязвима для SETI-атаки. И, вероятно, этот этап очень короток. Поскольку промежуток от возникновения мощных радиотелескопов и распространения компьютеров до создания своего ИИ может быть, по земным меркам, только несколько десятков лет. Следовательно, SETI-атака должна быть настроена именно на такую цивилизацию.

3. Если путешествия со сверхсветовой скоростью невозможны, то распространение цивилизации с помощью SETI-атаки является наиболее быстрым способом покорения космоса. На больших дистанциях она будет давать существенный временной выигрыш по сравнению с любыми видами звездолётов. Поэтому, если две цивилизации соревнуются за овладение пространством, то выиграет та, которая начала SETI-атаку.

4. Самое важное состоит в том, что достаточно один раз начать SETI-атаку, как она волной пойдёт по Вселенной, поражая всё новые и новые наивные цивилизации. Например, если у нас есть миллион неспособных к размножению обычных биологических вирусов и один опасный и способный, то после того как они попадут в организм, у нас станет триллионы копий опасного вируса, и по-прежнему только миллион безопасных вирусов. Иначе говоря, достаточно одной из миллиардов цивилизаций запустить данный процесс, чтобы он пошёл по всей Вселенной. Поскольку он распространяется почти со скоростью света, остановить его будет почти невозможно.

5. Далее, рассылка SETI-сообщений будет приоритетом для поражённой SETI-вирусом цивилизации, и она будет тратить на это столько же энергии, сколько биологический организм тратит на размножение – то есть десятки процентов. При этом земная цивилизация тратит на SETI не более нескольких десятков миллионов долларов в год, а на METI, то есть отправку – и ещё меньше – за всё время было осуществлено только 30 часов направленных передач, то есть менее одной миллионной своих ресурсов, и вряд ли эта пропорция сильно изменится у более продвинутых цивилизаций (есть ряд соображений, по которым нормальным рациональным цивилизациям выгоднее слушать космос, чем посылать сообщения). Иначе говоря, одна заражённая цивилизация будет производить в миллион раз больше радиосигналов, чем здоровая. Или, говоря по-другому, если в Галактике миллион здоровых цивилизаций, и одна заражённая, то у нас будут равные шансы наткнуться на здоровую или заражённую. Точно такую же ситуацию мы видим в современном Интернете – где почти половина сообщений является спамом, и эти сообщения генерируются очень небольшим количеством людей. Кроме того, значительная часть спама содержит в себе компьютерные вирусы, которые стремятся подчинить себе компьютер и использовать его для дальнейшей рассылки своих копий.

6. Более того, нет никаких других разумных причин, кроме саморазмножения, чтобы рассылать свой код в далёкий космос.

7. Более того, такой процесс может начаться случайно – например, в начале это мог быть просто исследовательский проект, цель которого была в том, чтобы отослать результаты исследований материнской цивилизации, не причиняя вреда принимающей цивилизации, а потом это процесс из-за неких сбоев или мутаций стал «раковым».

8. Нет ничего необычного в такой модели поведения. В любой информационной среде существуют вирусы – в биологии это вирусы, в компьютерных сетях – компьютерные вирусы, в общении – это мемы. Мы ведь не спрашиваем, зачем природа захотела создать биологический вирус.

9. Путешествие с помощью SETI-атаки гораздо дешевле любых других способов. А именно, находясь в галактике Андромеда, можно одновременно посылать сигнал на 100 миллиардов звёзд нашей Галактики. Но потребовалось бы миллиарды звездолётов, к тому же более медленных, чтобы облететь все звёзды нашей Галактики.

10. Перечислю ещё несколько возможных целей SETI-атаки, просто чтобы показать, что их может быть много.

• Это делается для исследования вселенной. После исполнения кода возникают исследовательские зонды, которые отсылают назад информацию.

• Это делается для того, чтобы не возникло конкурирующих цивилизаций. Все их зародыши уничтожаются.

• Это делается для того, чтобы другая конкурирующая сверхцивилизация не смогла воспользоваться этим ресурсом.

• Это делается для того, чтобы подготовить базу к прилёту реальных космических кораблей. Это имеет смысл, если сверхцивилизация находится очень далеко, и соответственно, разрыв между световой скоростью радиосигнала и околосветовой скоростью её кораблей (допустим, 0,5 с) составляет тысячелетия.

• Это делается для достижения бессмертия. Кэрриген показал, что объём личной сознательной памяти человека имеет порядок 2,5 гигабайт, поэтому, переслав несколько экзобайт информации, можно переслать всю цивилизацию.

• Это делается с нелогичными и непонятными для нас целями, например, как произведение искусства, акт самоутверждения или игрушка. (Например, инопланетянам было бы непонятно, зачем американцы установили флаг на Луне. Стоило ли лететь за 300 000 км, чтобы установить раскрашенную железяку?)

11. Поскольку Вселенная существует уже давно, то область, на которую могла бы распространится SETI-атака, занимает сферу с радиусом в несколько миллиардов световых лет. Иначе говоря, достаточно было бы попасться одной «плохой» цивилизации в световом конусе от нас размером в несколько миллиардов лет, то есть включающем миллиарды галактик, чтобы мы оказались под угрозой SETI-атаки. Разумеется, это верно, если средняя плотность цивилизации – хотя бы одна на галактику.

12. По мере увеличения глубины сканирования неба на порядок, объём пространства и число звёзд, которые мы наблюдаем, возрастает на три порядка. Это значит, что наши шансы наткнутся на внеземной сигнал растут нелинейно, а по быстро растущей кривой.

13. Возможна ситуация, когда мы наткнёмся на несколько разных посланий из разных точек неба, которые опровергают одно другое в духе: «не слушайте их, они вас обманывают и желают вам зла». Это обычная ситуация в земном информационном поле (например, в средствах массовой информации), где разные издания критикуют друг друга.

14. Какие бы позитивные и ценные послания мы бы не получали, мы никогда не сможем быть уверены, что за всем этим не стоит очень тонкий обман. Это означает, что в межзвёздном общении всегда будет элемент недоверия.

15. Оборонительной позицией в межзвёздном общении считается слушать, ничего не посылая, чтобы не выдать своего местоположения. Законы США запрещают посылку посланий к звёздам. Те цивилизации, которые посылают – не боятся выдать своё местоположение. Возможно, потому что отправка сообщений для них важнее безопасности. Например, потому что они атакуют.

16. Про атомную бомбу сказали: главная тайна атомной бомбы в том, что её можно сделать. Если до открытия цепной реакции Резерфорд считал, что высвобождение атомной энергии – вопрос отдалённого будущего, то после открытия любой физик понимал, что достаточно создать критическую массу из урана. Иначе говоря, если однажды выяснится, что из Космоса поступают сигналы, это будет необратимое открытие. Даже если точные координаты источника сигнала будут скрыты, то его смогут переоткрывать снова и снова. Невозможно закрыть космос (хотя можно представить космические аппараты-глушители опасного сигнала, расположенные между Землёй и источником сигнала.)

Возражения

В ходе дискуссий по данному вопросу возник ряд типичных возражений, которые стоит обсудить. Снова подчеркну, что речь не идёт о заражении обычном компьютерным вирусом, а только о запуске на Земле программы ИИ, которая является вирусоподобной по планетарным масштабам своей деятельности – а именно стремится использовать планету для рассылки своих копий дальше. При этом она может использовать, а может и не использовать атаку по компьютерным сетям, подобную атакам компьютерных вирусов.

Возражение 0: Искусственный интеллект невозможен.

Ответ: А.Д.Панов полагает высокой плотность внеземных цивилизаций в Галактике, но считает ИИ невозможным, поскольку догадка и озарение недоступны конечному автомату, каковым является компьютерная программа. Однако это мнение внутренне противоречиво. Если согласиться с множественность внеземных цивилизаций, из этого следует, что и интеллект неоднократно зарождался на разных планетах, причём это происходило достаточно часто, если цивилизации находятся достаточно близко друг к другу. Таким образом, из допущения множественности цивилизаций следует, что есть некий эффективный способ создавать интеллект (а именно, с помощью эволюции и естественного отбора) и что в человеческом интеллекте нет ничего особенного. Более того, сам естественный отбор и эволюция моделируются современными компьютерами в направлении исследований, называемом «генетическое программирование». Наоборот, признание невозможности ИИ (например, основываясь на рассуждениях в духе Пенроуза) равносильно признанию существования трансцендентальной физическому миру души. (Но тогда мы должны признать её наличие и у всех внеземных цивилизаций.) Отметим, что даже если ИИ невозможен на конечных автоматах, но реализуется на квантовых процессах в нейронах мозга, то тогда он возможен на квантовых компьютерах, и, соответственно, SETI-атака всё равно остаётся возможной – если добавить к ней этап пересылки описания и программы для квантового компьютера. Более того, даже если окажется, что для существования интеллекта необходим мозг живого существа, то даже в этом случае SETI-атака остаётся возможной, так как возможно переслать код ДНК некого существа плюс некоторые сопутствующие инструменты (как это и происходит в романе «Андромеда» Хойла, где электронный компьютер нужен только для того, чтобы адаптировать присланное ДНК к местной форме жизни и создать живое разумное существо – девушку Андромеду).

Враждебный и опасный ИИ вовсе не обязательно должен обладать всеми человеческими качествами, например, интуицией. Скажем, Deep Blue обыграл Каспарова, используя против его интуиции простой перебор. В любом случае, современный мир использует интуицию в незначительной степени, и у нас нет средств обороны, целиком построенных на интуиции. Интернет, управление вооружениями, конструирование новых механизмов – почти целиком рациональные процессы и уязвимы к воздействию сверх- рационального субъекта.

Возражение 1: Отписываемое здесь поведение цивилизаций слишком антропоморфно. На самом деле, цивилизации слишком отличаются друг от друга, чтобы можно было предсказать их поведение.

Ответ: В данном случае имеет место мощный эффект наблюдательной селекции. Хотя возможны самые разные цивилизации, мыслящие океаны и т. п., но мы можем получать радиосигналы только от тех цивилизаций, которые их посылает, а значит, обладает соответствующей радиоаппаратурой и знаниями материалов, электроники и вычислений. То есть нам угрожают цивилизации нашего же типа. Те цивилизации, которые не могут ни принимать, ни отправлять радиопослания, не участвуют в этой игре. Кроме того, принцип предосторожности заставляет нас предполагать, что существуют достаточно похожие на нашу цивилизации – пока не доказано обратное.

Также наблюдательная селекция касается и целей. Цели у цивилизаций могут быть самые разные, но интенсивнее всего посылать сигналы будут только те цивилизации, которые хотят донести до нас некую важную им информацию. (Примером такой тонкой информационной атаки может быть культурная экспансия, каковой, скажем, является продвижение американского образа жизни в современном глобализующемся мире – и известно, что это в определённой мере приводит к утрате культурной идентичности.)

Наконец, наблюдательная селекция касается эффективности и универсальности SETI-вируса. Чем эффективнее он, тем больше разных цивилизаций поразит и тем большее число его радиосигналов будет на небе. Таким образом, вероятнее всего наткнуться на наиболее эффективный SETI-вирус.

Возражение 2: Для сверхцивилизаций нет нужды прибегать к уловкам. Они могут нас непосредственно физически завоевать. Сверхцивилизации уже знают о нас благодаря сверхмощным телескопам.

Ответ: Это верно, только если они находятся в непосредственной близости от нас. Если же перемещение со скоростью, большей световой, невозможно, то воздействие посланиями будет быстрее и дешевле. Вероятно, эта разница приобретает значение на галактических расстояниях. Следовательно, не стоит опасаться SETI-атаки от ближайших звёзд, находящихся в радиусе ближайших десятков и сотен световых лет. Неверно и то, что сверхцивилизации уже знают о нас. Если она расположена на расстоянии 1000 световых лет, то антропогенное радиоизлучение Земли ещё не достигло их. Всё, что они могут наблюдать – это сам факт существования жизни на Земле, проявляющийся в спектре атмосферы. Если бы она реагировала на обнаружение разумной жизни, то её реакция запоздала, по крайней мере, на 2000 лет – а за это время мог бы сформироваться грозный противник. Таким образом, SETI-атака обладает временным преимуществом перед любым другим видом атаки, так как её можно осуществлять упреждающе.

Возражение 2.1: Если существует сверхцивилизация, то она давно нас обнаружила и обладает огромным техническим арсеналом средств, чтобы достичь нас заранее – и раз мы существуем, то она не стала нам мешать и не заинтересована в нашем уничтожении и в будущем. Если же партнером по SETI выступает цивилизация нашего уровня, то она не обладает необходимыми ресурсами для SETI-атаки. Таким образом, в обоих случаях – цивилизации нашего уровня и сверхцивилизации – SETI-атака невозможна.

Ответ: Подобные эвристические умозаключения, к сожалению, не обладают доказательной ценностью, то есть они могут только понизить нашу оценку вероятности атаки, но не доказать её невозможность во всех мыслимых случаях. Например, если мы отпускаем гулять пятилетнего ребёнка в парк, мы тоже можем рассуждать подобным образом: либо он встретит ребёнка своего возраста, который для него безопасен, либо он встретит взрослого человека, который достаточно мудр и гуманистичен (раз дожил до взрослого возраста не саморазрушившись – как доказывает А.Д.Панов «экзогуманистичность» космических цивилизаций). Тем не менее, ни один родитель не руководствуется рассуждениями такого рода, когда отпускает ребёнка в парк. Во-первых, потому что помимо детей и взрослых, ещё существуют подростки, которые сильнее детей, но не обладают мудростью. Во-вторых, потому что сама «мудрость» взрослых есть категория весьма относительная: достаточно одного маньяка на миллион мудрых взрослых, чтобы это было достаточным поводом для беспокойства. В случае контакта с внеземной цивилизацией возможна ситуация, когда мы вступили в контакт с цивилизацией, которая только на несколько десятков лет опережает нас. В этом случае она гораздо больше нас знает о создании ИИ, учитывая огромную скорость прогресса в этой области, но ещё не является древней и устойчивой сверхцивилизацией. Более того, она может быть изнутри разрываема конфликтом разных глобальных систем ИИ или стран и обречена на гибель в ближайшем будущем. Тем не менее, она может предпринять попытку отправить к нам враждебную нам SETI-программу.

Важно понимать, что то, что мы можем воспринимать как агрессивное, бесчеловечное и враждебное поведение, может быть совершенно нейтральным поглощением ресурса с точки зрения субъекта этого поведения. Например, то, как мы воспринимаем уборку урожая на поле – а ведь при этом гибнут миллионы насекомых и грызунов. Или как большинство людей воспринимает скотобойни.

Из того, что клетки внутри тела хищника, например лисы, заботятся друг о друге, и из того, что клетки внутри зайца тоже точно также заботятся друг о друге, вовсе не следует, что лиса будет добра к зайцу. Отношение лисы к зайцу обусловлено законами эволюции и конкуренции – те лисы, которые были слишком добры к зайцам, просто вымерли с голоду. Эти простые закономерности не зависят от масштабов, и также могут относиться и к космическим цивилизациям.

Возражение 3: Есть масса причин, по которым SETI-атака может не удаться. Какой смысл затевать столь неэффективную атаку?

Ответ: SETI-атака вовсе не должна действовать всегда. Она должна действовать в достаточном числе случаев, в соответствии с целями той цивилизации, которая отправляет сообщение. Например, нищий или мошенник не ожидает, что ему удастся «развести» каждого встречного. Ему достаточно хотя бы одного человека из ста. Из этого следует, что SETI-атака бесполезна, если стоит цель атаковать все цивилизации в некой галактике. Однако если цель состоит в том, чтобы получить хотя бы некоторые форпосты в другой галактике, то SETI-атака годится. (Из этих форпостов затем можно распространиться на досветовых звездолётах по окрестным звёздам.) Кроме того, SETI-атака нацелена на обычные цивилизации, то есть на тот тип цивилизаций, которые многократно встречается во Вселенной, а принцип Коперника заставляет нас полагать, что мы являемся цивилизацией обычного типа, а не уникальной цивилизацией. Отсюда можно заключить, что SETI-атака нацелена именно на цивилизации нашего типа.

Возражение 4: Пересылка компьютера и работающей на нем программы предложенным в данной статье способом невозможна по тем или иным причинам.

Ответ: Согласие с этим возражением означало бы признание того, что нет никакого способа переслать описание компьютера с работающей на нём программой ни от какой одной цивилизации ни к какой другой, как бы сильно отправляющая цивилизация ни хотела оправить это описание, а получающая – получить его и выполнить. Такое утверждение слишком сильное, чтобы быть истинным. А значит, существуют способы переслать описание компьютера и его программы. При этом нет сомнений, что отправить вирусного сообщений очень хочет сделать его максимально понятным, а земная цивилизация очень хочет «подключиться к галактическому Интернету», то есть понять сообщение и выполнить.

Возражение 5: Весь объём знаний сверхцивилизации нельзя засунуть в 1 гигабайт, следовательно, загруженный код будет неполноценным, и атака им невозможна.

Ответ: Во-первых, мы не знаем, что можно, а что нельзя закодировать в 1 гигабайт, например, объём генокода человека меньше, а ведь он не плотно упакован. Во-вторых, по мере надобности ИИ может подключаться к зашифрованным каналам передачи, и подгружать недостающие сведения (например, попросив доступ к антеннам радиотелескопов). В-третьих, будучи мощной самообучающейся программой, он может изобрести заново многие вещи, зная только базовые принципы.

Возражение 6: послав нам программу с ИИ, внеземная цивилизация раскроет нам сам факт своего существования и свои координаты, технологию ИИ и сам факт её возможности, ряд других технологий, которые этот ИИ создаст, а также, что особенно важно, откроет нам факт агрессивности своих намерений. И всё это, в случае неудачности её атаки, обернётся против неё.

Ответ: Опять же, подобные рассуждения носят только вероятностный характер и не могут гарантировать невозможность события. Отметим, что в случае войны на Земле те же самые соображения не препятствуют определённым агрессивным действиям. Например, пушка раскрывает своё местоположение первым же выстрелом, но это не приводит к отказу от использования пушек. Кроме того, вряд ли сверхцивилизация пошлёт нам вместе с ИИ такие технологии, которые мы сами бы не открыли в ближайшие 100-200 лет (во всяком случае, не пошлёт – точнее, не позволит их расшифровать – до того, как будет уверена в победе). Возможно, что соблазн переиграть инопланетный ИИ (например, запустив его в полностью симулированном мире) будет одной из частей многоуровневой ловушки, которую она нам подстроит.

Наиболее серьёзное возражение состоит в том, что продвинутая цивилизация могла бы за несколько миллионов лет засеять всю нашу галактику способными к саморазмножению микророботами, которые могли бы реализовать любые цели у каждой звезды, в том числе без труда предотвратить развитие других цивилизаций. Однако мы этого не видим, – никто не помешал пока нашей цивилизации развиться. То есть разослать микророботов с заданиями было бы гораздо проще и надёжнее, чем бомбардировать всю галактику SETI-посланиями, а раз этого нет, то нет и SETI-атаки внутри галактики. Вероятно, за многие миллионы или даже миллиарды лет микророботы могли бы долететь даже из отдалённых галактик на расстоянии в десятки миллионов световых лет. В этом случае SETI-атака имела бы смысл только на бoльших расстояниях. Однако на таком расстоянии – десятки и сотни миллионов световых лет, – вероятно, потребуются принципиально новые способы модуляции сигналов, например, управление свечением активных ядер галактик. Или передача узконаправленным лучом в сторону нашей галактике (но они не знают, где она будет через миллионы лет). Но цивилизация, способная управлять ядром галактики, может, вероятно, создать и звездолёт, летящий с околосветовой скоростью, даже если его масса будет массой с планету. Подобные рассуждения сильно снижают вероятность SETI-атаки, хотя и не опускают её до нуля, так как мы не знаем всех возможных целей и обстоятельств. Масштабы космической стратегии могут быть непостижимы для человеческого ума.

Заключение

Существует протокол о действиях в случае обнаружения внеземного разумного сигнала . Однако он предполагает скорее тщательную проверку информации, а затем широкое информирование о событии. В нём ничего не говориться об опасностях, которые может создавать само загруженное сообщение. В нём нет правила о том, что никогда и ни при каких обстоятельствах нельзя создавать никаких механизмов, чертежи которых получены из космоса, и не запускать на компьютерах никаких программ, загруженных по каналам SETI. Это связано с тем, что ни широкая публика, ни сами исследователи SETI не осознают рисков, связанных с загрузкой программ. Вероятно, это связано с тем, что осознание этого риска требует принятия двух допущений, каждое из которых по отдельности выглядит фантастическим: 1) что внеземные цивилизации существуют, 2) что возможна компьютерная программа, обладающая искусственным интеллектом. А вместе они уже оказываются за гранью фантастики. Кроме того, исследователи SETI – это энтузиасты своего дела, и им трудно признать, что их деятельность может быть опасна.

Можно сказать, что осознание данного риска катастрофически мало – за прошедшие почти 50 лет он упоминается только в 3 публикациях. Это значительно отличает его от других рисков, например, глобального потепления, который исследуется тысячами исследователей. Эта наша не-осознавание риска ведёт к неготовности, а значит – к повышенной уязвимости.

Наилучшей нашей защитой в данном контексте было бы то, что цивилизации в космосе встречались бы крайне редко. Однако это не совсем верно, потому что здесь парадокс Ферми срабатывает по принципу «оба хуже»:

• Если внеземные цивилизации есть и их много, то это опасно, потому что они могут нам так или иначе угрожать.

• Если же внеземных цивилизаций нет, то это тоже плохо, так как придаёт вес гипотезе о неизбежности вымирания технологических цивилизаций.

Теоретически возможен обратный вариант, который состоит в том, что по SETI придёт полезное сообщение с предупреждением о некой угрозе, которая губит большинство цивилизаций, например: «Не делайте никаких экспериментов с Х-частицами, это может привести к взрыву, который разрушит планету». Но даже и в этом случае останутся сомнения, не обман ли это, чтобы лишить нас неких технологий. (Подтверждением было бы, если бы аналогичные сообщения приходили бы от других цивилизаций, расположенных в космосе в противоположном направлении.) И, возможно, такое сообщение только усилит соблазн экспериментировать с Х-частицами.

Поэтому я не призываю отказаться окончательно от SETI поисков, тем более что такие призывы бесполезны. Однако важно повысить осознание рисков у SETI-сообщества, без этого любые дальнейшие меры бесполезны. Возможно, было бы полезно отложить любые технические реализации посланий, которые мы могли бы получить по SETI, до того момента, когда у нас будет свой искусственный интеллект. До этого момента, возможно, осталось 10-30 лет, то есть можно потерпеть. Во-вторых, важно было бы скрывать сам факт получения SETI-сигнала, его суть и месторасположения источника, с тем, чтобы избежать его повторного скачивания. В-третьих, можно обдумать способы глушения SETI-сигнала, если он будет признан опасным, и международного запрета на его приём, хранение и анализ, аналогично тому, как действует запрет в отношении ядерных секретов и оборудования.

Проще всего заметить проявления тех цивилизаций, которым выгодно о себе сообщать. Важно понять, какова может быть причина этой выгоды, и не может ли эта выгода быть для нас опасна.

А.В.Турчин
Центр межцивилизационных исследований при ИА РАН
(c) http://www.seti-ceti.ru/30

P.S.
А.В. Турчин – Доклад о многомирном бессмертии

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.