В 2062 году, по мнению экспертов, эта вероятность составит пятьдесят процентов. Отсюда и название книги – год, в который, по мнению моих коллег, человек сможет построить ИИ, не уступающий ему. Неэксперты называли 2039 год, то есть дату на два десятилетия раньше. Они чуть оптимистичнее Рэя Курцвейла, футуролога и технического директора Google, который предполагает, что машины превзойдут человека в 2045 году.
Наконец, десятипроцентная вероятность такого развития событий станет возможна, по мнению экспертов, в 2034 году. Неэксперты считают, что это произойдет в 2026 году, то есть менее чем через десять лет. Почти в два раза ближе, чем дата, названная экспертами.
Почему эксперты менее оптимистичны, чем обычные люди? Одна из проблем заключается в том, что люди, которые видят, как ИИ великолепно играет в сложные игры вроде шахмат или го, делают из этого вывод, что раз это игры, требующие выдающихся интеллектуальных способностей, то ИИ уже ими обладает. В случае с людьми это действительно так. Хороший игрок в го скорее всего окажется умным человеком, но с компьютерами все иначе, ведь хорошая программа для игры в го необязательно должна уметь даже играть в шахматы. Между игрой в го и многими другими интеллектуальными задачами, которые могут решать люди, большая пропасть.
Мое мнение не отличается от мнения большинства моих коллег: пройдет как минимум полвека, прежде чем мы увидим человекоподобный компьютер. Учитывая, сколько для этого нужно совершить прорывов, которые тоже неизвестно, когда произойдут, это может занять даже сто или больше лет. В таком случае вам сегодня не о чем беспокоиться.
Технологическая сингулярность
Одним из поводов поверить в то, что машины вскоре догонят человека или даже превзойдут его, является привлекательная, но опасная идея технологической сингулярности. Ее история берет начало пятьдесят лет назад и обязана своим появлением нескольким людям: одному из создателей компьютера Джону фон Нейману и математику и криптографу, работавшему в Блетчли-парк, Ирвингу Дж. Гуду. В последние годы идея была популяризирована научным фантастом Верноном Винджем и футурологом Рэем Курцвейлом.
Сингулярность – это предполагаемая точка в человеческой истории, когда будет разработан компьютер с таким интеллектом, который позволит ему самостоятельно развиваться и становиться умнее с каждым днем. Идея заключается в том, что интеллект машины начнет экспоненциально увеличиваться и быстро превосходить человеческий в разы.
Как только мы достигнем технологической сингулярности, мы перестанем быть самыми умными существами на планете. Наступит действительно интересный этап истории. Некоторые боятся, что это произойдет так быстро, что мы не успеем отследить и проконтролировать развитие ИИ, что приведет к – намеренному или ненамеренному – уничтожению человеческого рода.
Сторонники этой теории – чаще философы и футурологи, чем ученые, занимающиеся ИИ, – говорят об этом так, словно сингулярность неизбежна. Для них этот факт не подлежит сомнению, вопрос лишь в том, когда это произойдет. Однако, как и большинство моих коллег, я имею веский повод сомневаться в неизбежности наступления сингулярности.
В результате полувековых исследований мы осознали, насколько сложно создать компьютер, обладающий хотя бы примитивным интеллектом. Нам не удалось разработать ни одной системы, которая могла бы сама себя улучшить. Даже самая развитая интеллектуальная система, существующая на земле, – человеческий мозг – лишь несущественно повысила собственные когнитивные способности. Нам, например, все так же тяжело выучить второй язык. То скромное представление, которое мы имеем о человеческом мозге, не очень облегчает задачу. С 1930 года наблюдается значительный постоянный рост в результатах тестирования на интеллект в разных частях света. Этот феномен носит название «эффекта Флинна» в честь новозеландского ученого Джеймса Флинна, который многое сделал для того, чтобы его понять. Объяснения феномена сосредоточены скорее на улучшении питания, здравоохранения и большем доступе к школьному образованию, чем на том, как именно мы обучаем молодых людей[29 - Некоторые данные тестов IQ в датских и американских вооруженных силах свидетельствуют, что показатели в последнее время даже стали снижаться.].
Существуют множественные технические причины, по которым технологическая сингулярность может и не случиться. Многие из них я рассматривал в своей предыдущей книге. Тем не менее мнение о неизбежности сингулярности все еще достаточно популярно. Учитывая важность темы – на кону судьба человеческой расы, – я снова подробно остановлюсь на этих причинах в свете последних обсуждений феномена. Кроме того, я приведу новые аргументы в защиту своей позиции.
Быстро думающая собака
Мое первое возражение против неизбежности технологической сингулярности – это идея под названием «аргумент быстро думающей собаки». Он рассматривает последствия, к которым приводит способность мыслить быстрее. Несмотря на то что скорость компьютера не меняется, скорость обработки им данных продолжает расти. Это происходит благодаря тому, что он может выполнять все больше разных задач одновременно, как человеческий мозг.
Есть предположение, что если машины научатся размышлять над проблемами дольше и интенсивнее, они в конце концов станут умнее нас. Мы, разумеется, извлекли немало пользы из возросшей мощности компьютера, смартфон – лучшее тому доказательство. Однако скорость обработки данных сама по себе не приведет к сингулярности.
Предположим, что вы бы смогли увеличить скорость работы мозга вашей собаки. Такая собака все равно не смогла бы говорить с вами, играть в шахматы или сочинять сонеты. Как минимум потому что она не владеет языком. Такая быстро думающая собака все равно осталась бы собакой. Она продолжала бы интересоваться только погонями за белками и палками. Точно так же компьютеры, обладающие большей скоростью, не являются носителями большего интеллекта.
Разум – результат множества процессов. Человеку необходимы годы практики, чтобы научиться пользоваться интуицией. Также годы нужны, чтобы освоить абстрактное мышление: научиться брать уже сложившиеся понятия и применять их к новым ситуациям. К нашему здравому смыслу мы прибавляем знания, которые помогают нам адаптироваться к непривычным обстоятельствам. Именно поэтому наш интеллект – это не просто умение быстрее размышлять над проблемой.
Переломный момент
Мой второй аргумент против неизбежности сингулярности – антропоцентризм. Защитники теории технологической сингулярности придают слишком много значения человеческому интеллекту. Как только компьютеры превзойдут его, настанет переломный момент. Они научатся развиваться и делать себя лучше. Но почему человеческий интеллект – особая точка в этой истории?
Человеческий интеллект нельзя оценивать по настолько простой, линейной шкале. И даже если бы это было возможно, наш разум был бы не единой точкой, а широким спектром разных вариантов. Из нескольких людей, находящихся в комнате, одни умнее других. Так какой именно человеческий интеллект компьютеры должны превзойти? Интеллект самого умного человека в комнате? Интеллект самого умного человека, который сейчас живет на планете? Интеллект самого умного человека, который когда-либо жил на планете? Интеллект самого умного человека, который будет жить в будущем? Сама идея единого «человеческого разума» начинает звучать несколько сомнительно.
Но отставим на минуту в сторону эти контраргументы. Почему именно после преодоления человеческого разума искусственный интеллект начнет стремительно развиваться? Предположение основывается на том, что раз мы смогли создать машину, которая умнее нас, то ей тоже удастся создать еще более умную машину и т. д. Однако нет никакого повода думать, что все будет именно так. Может быть, нам все же удастся построить машину, которая умнее нас. Это не значит, что она автоматически будет способна развиваться.
Возможно, действительно существует некий уровень интеллекта, который станет такой переломной точкой, но этот уровень может быть любым. Вряд ли он находится ниже уровня человеческого мышления. Если бы это было так, мы бы уже создали подобную машину и запустили процесс ее бесконечного совершенствования.
Вероятно, эта переломная точка располагается где-то на уровне человеческого разума или выше. Естественно, она может находиться намного выше. Однако если нам для этого нужно создать компьютер, в разы превосходящий человека, то встает вопрос: достаточно ли мы для этого умны?
За гранью разумного
Третий мой аргумент, направленный против идеи неизбежности технологической сингулярности, затрагивает проблему метаинтеллекта. Как я уже отмечал ранее, понятие разума включает в себя множество различных способностей. Например, умение не только воспринимать мир, но и рефлексировать над этим миром, а также множество других навыков, таких как креативность.
Утверждение, что сингулярность неизбежна, сталкивает две разные способности интеллекта: это умение выполнять задачи и умение совершенствоваться в выполнении этих задач. Мы можем создать ИИ, который развивает свою способность выполнять конкретные задачи и выполняет их лучше нас. Например, Baidu создали Deep Speech 2, алгоритм машинного обучения, который лучше, чем люди, переводит с китайского. Однако Deep Speech 2 не развивается. Ему необходимо столько же времени на то, чтобы понять, как перевести с китайского, сколько и раньше. Его сверхчеловеческая способность переводить с китайского никак не улучшила суть алгоритма глубинного обучения. Чем больше люди учатся, тем лучше они начинают это делать. С Deep Speech 2 все иначе.
Совершенствование алгоритмов глубинного обучения происходит по-старому: люди долго и напряженно размышляют над тем, как это сделать. Пока мы не создали машины, способные развиваться самостоятельно. Нельзя быть уверенным, что это вообще когда-нибудь произойдет.
Убывающая отдача
Четвертый аргумент – закон убывающей отдачи. Даже если бы машины могли бесконечно себя совершенствовать, это вовсе не означает, что мы бы получили бесконечное их улучшение. Закон убывающей отдачи работает во многих областях человеческой деятельности. Например, мы не раз увеличивали топливную эффективность двигателей автомобилей, но чем дальше, тем меньше это приносит результатов, в то время как показатель продолжает увеличиваться.
Предположим, мы сначала создадим машину с интеллектом на уровне среднестатистического представителя нашего вида. По умолчанию ее IQ будет равен ста. Также допустим, что IQ этого искусственного интеллекта будет с каждым новым поколением увеличиваться на пятьдесят процентов от разницы с предыдущим поколением. IQ – не самый лучший показатель интеллекта, но это не главное. Второе поколение таких машин будет иметь IQ в размере ста пятидесяти – довольно впечатляющая цифра. Однако пока она, возможно, даже не обогнала вас. Коэффициент третьего поколения будет равен ста семидесяти пяти, четвертого – ста восьмидесяти семи с половиной и т. д. IQ этих машин никогда не преодолеет отметку в двести, как бы долго они ни просуществовали.
Даже если мы поднимем процент от пятидесяти до девяноста, мы все равно столкнемся с теми же ограничениями. У второго поколения IQ будет сто девяносто. У третьего – двести семьдесят один. Здесь и находится задокументированный предел человеческого интеллекта. Четвертое поколение его преодолеет и достигнет отметки в триста сорок три целых и девять десятых. Но как бы далеко в будущее мы ни заглянули, IQ этих впечатляющих компьютеров никогда не составит больше тысячи. Они будут невероятно умны, но все же их развитие будет иметь вполне определенные границы.
Пределы интеллекта
Мой пятый аргумент против неизбежности сингулярности – это пределы интеллекта. Даже если машины будут рекурсивно совершенствоваться, развитие может упереться в естественные пределы. Многие другие сферы жизни имеют границы, почему интеллект должен от них отличаться?
Наука полна ограничений. Физика, например, утверждает, что нельзя разогнаться выше скорости света. Химия – что скорость химической реакции тоже имеет свои пределы. Биология – что человеческую жизнь невозможно увеличить намного больше ста двадцати лет или что невозможно бежать марафон в течение двух часов. Возможно, ИИ тоже столкнется с подобными ограничениями?
При игре в рулетку не имеет значения, насколько вы умны, – вы никогда не обыграете казино. Колесо в буквальном смысле настроено против вас. Самый умный человек в этом случае просто не станет играть. Компьютеры умеют считать вероятности гораздо лучше людей. Они могут поступать намного рациональнее. Однако более точный подсчет вероятности не поможет им победить природу. Лучшим решением может оказаться то, для нахождения которого достаточно гораздо более простых и грубых расчетов.
Вычислительная сложность
Мой шестой аргумент основан на понятии вычислительной сложности – хорошо разработанной математической теории, которая описывает сложность разрешения некоторых вычислительных проблем. Пока мы не изобретем машины, основанные на еще неизвестных формах вычисления, даже экспоненциальные улучшения не помогут нам из-за существования фундаментальных пределов возможного для компьютеров.
Закон Мура – увеличение мощности компьютеров каждые два года – убедил нас в том, что технологический прогресс сможет решить большинство вычислительных задач[30 - Закон Мура назван в честь Гордона Мура, сооснователя компаний Fairchild Semiconductor и Intel. В 1965 году он описал ежегодное удвоение количества компонентов на интегральной схеме. В 1975 году он округлил срок до двух лет. Закон Мура действовал больше пятидесяти лет. Мало кто знает, что он устарел уже несколько лет назад. Любой экспоненциальный тренд, существующий в реальном мире, рано или поздно заканчивается. В этом случае проблема заключалась в квантовых пределах. International Technology Roadmap for Semiconductors (ITRS) – это отраслевой орган, который, как следует из его названия, разрабатывает «дорожную карту» для достижения закона Мура. В 2014-м ITRS объявил о том, что цель индустрии больше не заключается в удвоении компонентов каждые два года. Учитывая, что теперь это не входит в планы больших компаний, производящих микропроцессоры, мы можем быть уверены в том, что этого не произойдет. Никто не собирается тратить миллиарды долларов, необходимых для изготовления следующего поколения станков для производства чипов, чтобы еще больше сократить размеры транзисторов. Любопытно, что нынешние цели Intel – это уменьшить потребление энергии, чтобы мобильные устройства могли иметь больше вычислительной мощности.]. Мы живем в экспоненциальное время, и экспоненциальные улучшения в вычислительной мощности дают повод верить, что нам остается подождать нужного поколения компьютеров. Через десять лет машины станут в тысячу раз мощнее, чем нынешние компьютеры. Через двадцать лет – в миллион раз. Через тридцать – в миллиард. То есть можно с уверенностью сказать, что однажды компьютеры будут владеть такой вычислительной мощностью, что мы сможем делать с их помощью все, что захотим? К сожалению, это предположение далеко от правды.
Ученые разработали серьезную теорию вычислительной сложности. Она описывает, сколько вычислений нужно, чтобы решить разные проблемы конкретным или абстрактным способом. Для теории вычислительной сложности не имеет значения, какой именно компьютер используется. Это может быть персональный компьютер, смартфон или умные часы. Разница в устройстве обусловливает только разницу во времени выполнения задачи, ее постоянный коэффициент. То, что нас интересует, касается гораздо больших изменений во времени выполнения, чем постоянный коэффициент задачи. Для нас важен экспоненциальный рост, и, как мы увидим в дальнейшем, даже больше, чем экспоненциальный.
Допустим, вы хотите вычислить наибольшее число в списке. Это – линейная проблема. Вам необходимо просканировать весь список. Этот процесс займет время, пропорциональное количеству входных данных, то есть объему списка. Если список удвоить, это займет в два раза больше времени. Если утроить – в три раза.
А теперь представим, как можно упорядочить этот список – от меньшего к большему. Простейший метод заключается в том, чтобы найти для начала меньший пункт; как мы только что выяснили, это займет пропорциональное объему списка время. Затем необходимо найти предпоследнюю по величине вещь и т. д. В итоге время, которое нужно потратить на сортировку этого или любого другого списка, увеличивается в геометрической прогрессии. Если удвоить длину списка, это займет в четыре раза больше времени. Если утроить – в девять раз. Если учетверить – в шестнадцать. Звучит так себе. Однако вычисления могут масштабироваться еще хуже.
Существуют такие вычислительные проблемы, в которых время выполнения растет экспоненциально вместе с объемом входных данных. Представьте себе такую задачу: супруги при разводе хотят поделить свое имущество на две равноценные части. Простейший метод решения – это высчитать сумму каждой возможной комбинации вещей. Если стоимость одной из таких комбинаций равна половине стоимости всего имущества, то ответ найден. Каждый раз к входным данным – списку вещей – прибавляется одна единица, количество комбинаций, которые надо учитывать, удваивается, как и (в худшем случае) время выполнения алгоритма.
Хорошие новости заключаются в том, что экспоненциальный рост вычислительной мощности поможет решить подобные проблемы. Каждое удвоение мощности позволит выполнить задачу, в которой на одну вещь больше. Каков бы ни был объем входных данных, в конце концов он попадет в этот диапазон. Для того чтобы обработать информацию, включающую в себя на десять единиц больше возможного, нужно просто подождать еще десять поколений компьютеров.
Однако есть и вычислительные задачи, в которых время выполнения увеличивается быстрее. В таком случае экспоненциальный рост не спасет. Например, проблема вычисления площади множества Мандельброта. Множество Мандельброта – это тот прекрасный фрактал, который выглядит как спирали и морские коньки. Его называют самым сложным числом в математике.
Нам известно, что площадь множества Мандельброта ограничена. Этот фрактал находится внутри круга радиуса два, а его площадь соответственно меньше 4? (=12,566…). Однако высчитать его точную площадь, как нам известно, очень непросто. Лучший возможный метод – это медленно вычислять точки площади. Нужно сложить 10
членов, чтобы высчитать площадь с точностью до сотых, 10
– с точностью до тысячных. 10
– это больше, чем атомов во Вселенной. Экспоненциальный рост не поможет справиться с такими сложными вычислительными задачами.
Петли обратной связи
Мой седьмой аргумент против неотвратимости технологической сингулярности основывается на вероятности того, что в дело вступят неожиданные ответные факторы, которые помешают наступлению сингулярности. Такие петли обратной связи могут быть экономическими или экологическими.
Подобный аргумент, основанный на экономических причинах, приводит Мартин Форд[31 - См. Martin Ford (2009) The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, USA, Acculant Publishing.]. Еще до наступления сингулярности компьютеры станут настолько разумными, что большинство профессий будет автоматизировано. Это приведет к безработице огромных масштабов. Следовательно, если система капитализма не подвергнется радикальным изменениям, безработица приведет к падению спроса. Падение спроса, в свою очередь, приведет к уничтожению экономики и отсутствию инвестиций в исследования, необходимые для того, чтобы технологическая сингулярность наступила.