Бог, человек, животное, машина. Поиски смысла в расколдованном мире - Меган О’Гиблин
Шрифт:
Интервал:
Закладка:
Хотя эти непроницаемые технологии подвергаются нападкам со стороны организаций по защите гражданских прав, апологеты часто указывают, что традиционная судебная система тоже едва ли может похвастаться прозрачностью. Спросите судью, чем она руководствовалась при выносе приговора, и ее ответ будет не более достоверным, чем ответ алгоритма. «Человеческий мозг – это тоже „черный ящик“, – говорит Ричард Берк, профессор криминологии и статистики в Пенсильванском университете. Аналогичный вывод был сделан в работе, подготовленной корпорацией Rand, где отмечалось: «Мыслительный процесс судьи, как и COMPAS, – это „черный ящик“, который может выдавать непоследовательные и ошибочные решения». Часто так рассуждают люди, у которых есть свои интересы в технологической сфере, хотя эту позицию разделяют и большинство нейробиологов. Выражаясь словами Дэниела Деннета, мы не имеем «привилегированного доступа» к собственному мыслительному процессу. Отношение к человеческому сознанию как к «черному ящику» в итоге приводит к тому, что доверие к непрозрачной логике алгоритма представляется столь же оправданным, как и доверие к собственному разуму.
Но это очень спекулятивный аргумент. Мы доверяем объяснениям других людей, потому что как вид выработали в ходе эволюции схожие методы рассуждения. Даже если речь идет об интуитивных догадках, мы все равно знаем, что за ними стоят человеческие мыслительные процессы. Машинный способ рассуждения радикально отличается от человеческого – это и почувствовал бывший чемпион по го, когда, наблюдая за работой алгоритма AlphaGo, воскликнул: «Это не человеческий ход!» В исследованиях глубокого обучения часто встречается выражение alien intelligence – «чуждый» или даже «инопланетный интеллект». Когда модели глубокого обучения учат играть в видеоигры, они придумывают хитроумные способы жульничать, которые не пришли бы в голову человеку: используют ошибки в коде, позволяющие им обманом набирать очки, или подстрекают противника к самоубийству. Когда Facebook научил две сети общаться, не уточняя, что разговор должен вестись на английском, алгоритмы придумали свой собственный язык. В 2003 году Ник Бостром предупреждал, что наличие интеллекта не подразумевает человеческих моральных ценностей. Сверхразумная система может стать причиной катастрофы, даже если у нее будет нейтральная цель и не сформируется самосознание. «Мы не можем слепо полагать, – пишет Бостром, – будто сверхразум непременно должен разделять ту систему ценностей, которая обычно у человека связана с такими понятиями, как мудрость и интеллектуальное развитие, – это научная пытливость, доброжелательное отношение к людям, духовная сила, тяга к просвещению, собственное мировоззрение, бескорыстие, вкус к высокой культуре, умение получать удовольствие от простых вещей, непритязательность в жизни, самоотверженность и многое другое»[65].
Однако истинные сторонники глубокого обучения считают, что не-человеческий интеллект – именно то, что нам нужно. «Люди, которые умеют думать по-человечески, у нас уже есть, – говорит Янн Лекун, глава отдела исследований искусственного интеллекта Facebook. – Может быть, умные машины тем и ценны, что совершенно не похожи на нас». Дэвид Уайнбергер соглашается, что в глубоком обучении «другое» не означает «неправильное». «Что касается понимания того, как все устроено, – пишет он, – может быть, машины ближе подходят к истине, чем когда-либо удавалось людям». Многие специалисты в этой области не захотели бы сделать технологию более прозрачной и понятной, даже если бы это было возможно. Согласно одной из теорий, чем меньше мы вмешиваемся в алгоритмы, тем точнее будут результаты. Если у технологических элит есть своя особая герменевтика, то она наследует принципам Sola Fide и Sola Scriptura[66]: это убежденность в том, что алгоритмические откровения совершенны и что любая интерпретация или вмешательство человека рискуют подорвать их авторитет. «Бог – это машина, – говорит исследователь Юре Лесковец, резюмируя консенсус в своей области. – „Черный ящик“ – это истина. Если он работает, значит, работает. Нам не следует даже пытаться понять, что именно выдает машина».
Когда бум машинного обучения достиг своего пика, трудно было найти статью, в которой алгоритмы описывались бы без религиозных метафор. «Словно боги, эти математические модели были непостижимы, а их работа незрима для всех, кроме верховных жрецов: математиков и программистов, – пишет специалист по анализу данных Кэти О’Нил, вспоминая о появлении этих алгоритмов. – Их вердикты, даже если они были ошибочными или опасными, не подлежали оспариванию или обжалованию». В своей книге «Homo Deus» Юваль Ной Харари проводит практически такую же аналогию: «По примеру христианства, согласно которому нам не дано постичь Бога и Его замысел, датаизм объявляет, что человеческий мозг не способен осмыслить новые алгоритмы высшего порядка»[67]. Выражение «алгоритм высшего порядка» отсылает к работам Педро Домингоса, одного из ведущих специалистов в сфере машинного обучения. Он утверждает, что рано или поздно алгоритмы неизбежно превратятся в единую всеведущую и всё понимающую систему – своего рода оракула, с которым мы сможем консультироваться практически по любому вопросу: в этой фантазии идея Брайдла о «новых Темных веках» доходит до буквального воплощения. В своей книге «Верховный алгоритм» Домингос отметает опасения по поводу этой технологии, ссылаясь на наше заколдованное прошлое. «На самом деле мы всегда жили в мире, который понимали лишь отчасти, – пишет он. – Вопреки тому, во что нам хочется верить сегодня, люди довольно легко подчиняются другим, а любой достаточно развитый искусственный интеллект неотличим от Бога. Возможно, никто не станет возражать против приказов, исходящих от огромного компьютерного оракула».
* * *
«У истоков искусственного интеллекта стоит древнее желание создавать собственных богов», – пишет Памела Маккордак в своей книге «Машины, которые думают» (1979). В этих словах слышен отголосок вольтеровского афоризма о том, что если бы Бога не существовало, его следовало бы придумать. Естественно, на протяжении веков мы придумывали и перепридумывали Бога не с помощью науки, но с помощью теологии, и божество каждой эпохи свидетельствует о потребностях и желаниях создавших его людей. Несмотря на то что искусственный интеллект постоянно описывают в религиозных терминах, теологические позиции его создателей и сторонников обычно определяют неверно. Доктрина, формирующаяся вокруг искусственного интеллекта, – это отнюдь не пережиток Темных веков. Ничем не ограниченное, абсолютно отличное от человека божество, которое описывают технофилософы, – это Бог Кальвина и Лютера, Бог Нового времени. Вопрос в том, почему мы решили воскресить этого Бога из мертвых и почему спустя столько лет он все еще кажется нам привлекательным.
Строго говоря, Темные века называются «темными» потому, что мы мало знаем об этой эпохе (объемы произведенной в этот период информации действительно невелики). Но этот термин часто используют, подразумевая нечто противоположное Просвещению, – в соответствии с популярным мифом, что средневековое христианство было враждебно по отношению к учености и знаниям. На самом деле философы-схоласты относились к возможностям человеческого разума с оптимизмом – об этом свидетельствуют многочисленные логические доказательства существования Бога. Богословие этого периода в значительной мере находилось под влиянием платонизма и опиралось на





