Я увидел компьютер до того, как узнал, что такое Кремниевая долина. Это был декабрь 1979 года, наш сосед принес домой набор для самостоятельной сборки компьютера. Я помню, как он собирал устройство на полу в гостиной и подключал его к черно-белому телевизору. После того как сосед сосредоточенно ввел несколько команд, экран превратился в гобелен из пикселей.
Для меня, семилетнего мальчишки, эта машина была настоящим чудом. До этого я видел компьютеры только по телевизору и в кино. Теперь же я мог его потрогать. Но как мне сейчас представляется, еще большим чудом было то, что в 1970-х годах такое устройство добралось до скромного пригорода Лусаки в Замбии. Глобальная цепочка поставок была примитивной, системы удаленных покупок практически не существовало, и все же первые признаки цифровой революции уже были налицо.
Этот набор для сборки вызвал у меня огромный интерес. Через два года я получил свой первый компьютер – Sinclair ZX81[14]. Случилось это осенью 1981 года, спустя год после того, как мы переехали в городок неподалеку от Лондона. ZX81 до сих пор стоит у меня на книжной полке. Он был размером с обложку семидюймовой пластинки, а высотой – в два пальца, указательный и средний. По сравнению с другими электронными приметами гостиных начала 1980-х годов – телевизором с кинескопом или большим кассетным магнитофоном, – ZX81 был компактным и легким. Его можно было удержать, зажав большим и указательным пальцами. На встроенной клавиатуре, тугой и ошибок не прощающей, печатать было практически невозможно. Она реагировала только на жесткие акцентированные удары, которыми можно было делать внушение другу. Но из этой коробочки можно было извлечь много чего интересного. Я помню, как выполнял на нем простые вычисления, рисовал незатейливые фигуры и играл в примитивные игры.
Это устройство, которое рекламировали в газетах по всей Великобритании, было настоящим прорывом. За 69 фунтов стерлингов (около 145 долларов в то время) вы получали компьютер с полной функциональностью. Его простой язык программирования в принципе позволял решить любую вычислительную задачу, какой бы сложной она ни была (хотя это могло занять много времени)[15]. Но век ZX81 был кратким. Технологии быстро развивались. Уже через несколько лет мой компьютер с его ступенчатой черно-белой графикой, неуклюжей клавиатурой и медленной обработкой данных устарел. Через шесть лет моя семья перешла на более современную ЭВМ от британской компании Acorn Computers. Acorn BBC Master был впечатляющей зверюгой с полноразмерной клавиатурой и цифровой панелью. Ряд клавиш оранжевого цвета со специальными функциями вполне уместно смотрелся бы в какой-нибудь космической одиссее 1980-х годов.
Внешне компьютер отличался от ZX81, и его «железо» претерпело полную трансформацию. Производительность BBC Master была в несколько раз выше: у него было в 128 раз больше памяти. Он мог использовать шестнадцать различных цветов, хотя одновременно отображал только восемь. Его крошечный динамик мог издавать до четырех разных тонов, чего было достаточно для простого воспроизведения музыки: помню, как он пикал, исполняя «Токкату и фугу ре минор» Баха. Относительная сложность внутреннего устройства BBC Master позволяла использовать мощные приложения, включая электронные таблицы (которыми я никогда не пользовался) и игры (это да).
Еще через шесть лет, в начале 1990-х годов, у меня снова случился апгрейд. К тому времени в компьютерной индустрии произошла консолидация. За успех на рынке боролись такие устройства, как TRS-80, Amiga 500, Atari ST, Osborne 1 и Sharp MZ-80. Некоторые небольшие фирмы добились кратковременного успеха, но в итоге проиграли нескольким набиравшим силу новым технологическим компаниям.
Победителями из смертельной эволюционной схватки 1980-х годов вышли Microsoft и Intel: они оказались самыми приспособленными представителями двух соответствующих видов – операционной системы и центрального процессора. Следующие несколько десятилетий они провели в симбиозе: Intel предоставляла все больше вычислительных мощностей, а Microsoft использовала их для создания лучшего программного обеспечения. Каждое поколение ПО нагружало компьютеры все больше, заставляя Intel совершенствовать свои процессоры. «Что Энди дает, то Билл забирает», – шутили в IT-мире (Энди Гроув – на тот момент CEO Intel, а Билл Гейтс – основатель Microsoft).
Но в 19 лет меня мало интересовала динамика развития IT-индустрии. Я знал только, что компьютеры становятся все быстрее и лучше, и мечтал себе позволить один из них. Студенты, как правило, покупали так называемые PC-клоны – дешевые псевдофирменные ящики, копировавшие персональный компьютер IBM. Это были компьютеры, собранные из различных компонентов, соответствующих стандарту PC, то есть были оснащены новейшей операционной системой Microsoft – программным обеспечением, которое позволяло пользователям (и программистам) управлять «хардом» («железом»).
Мой клон, кубовидный уродец, был оснащен новейшим процессором Intel 80486. Он мог обрабатывать одиннадцать миллионов команд в секунду, что было в четыре-пять раз больше, чем у моего предыдущего компьютера. Кнопка на корпусе с надписью Turbo могла заставить процессор работать процентов на двадцать быстрее. Однако, как в автомобиле, водитель которого слишком часто давит на педаль газа, дополнительная скорость часто приводила к катастрофам.
Этот компьютер поставлялся с четырьмя мегабайтами памяти (или ОЗУ), то есть в четыре тысячи раз больше, чем у ZX81. Графика была потрясающей, хотя и не самой передовой. Я мог выводить на экран 32 768 оттенков цветов, пользуясь не самым современным графическим адаптером, который я подключил к машине. Эта палитра впечатляла, но была не совсем реалистичной: например, плохо отображались оттенки синего цвета. Если бы мой бюджет был на 50 фунтов стерлингов (около 85 долларов в то время) больше, я мог бы купить видеокарту с шестнадцатью миллионами оттенков цветов – так много, что человеческий глаз вряд ли различает некоторые из них.
Десятилетний путь от ZX81 до моего клона PC отражал период экспоненциальных технологических изменений. Процессор клона PC был в тысячи раз мощнее, чем у ZX81, а сам компьютер 1991 года – в миллионы раз эффективнее своего собрата из 1981 года. Эта трансформация стала результатом быстрого прогресса в развивающейся вычислительной индустрии, что выразилось в удвоении скорости компьютеров примерно каждые два года.
Чтобы понять эту трансформацию, необходимо изучить принцип работы компьютеров. В XIX веке английский математик и философ Джордж Буль попытался представить логику с помощью операций, включающих два состояния – ложь и истину. В принципе любую систему с двумя состояниями можно изобразить с помощью чего угодно. Например, вы можете механически представить ее двумя положениями рычага: вверх или вниз. Вы можете теоретически представить ее в виде конфеток M&M’s двух цветов – синих и красных (это, безусловно, вкусно, но непрактично). В итоге ученые решили, что лучше всего эту систему изображать цифрами 0 и 1 (такой двоичный разряд еще называют битом).
На заре вычислительной техники пользоваться Булевой логикой было сложно и громоздко. Именно поэтому компьютеру – а попросту любому устройству, которое могло выполнять операции, используя эту логику, – требовались десятки неуклюжих механических составляющих. Но в 1938 году произошел настоящий переворот: Клод Шеннон, тогда аспирант Массачусетского технологического института, понял, что можно построить электронные схемы с применением Булевой логики, а именно представить включенное состояние как 1, а выключенное – как 0. Это было революционное открытие, давшее толчок созданию компьютеров с использованием электронных компонентов. Первый программируемый электронный цифровой компьютер известен тем, что во время Второй мировой войны им пользовались шифровальщики, в том числе Алан Тьюринг[16].
Через два года после окончания войны ученые из Bell Labs разработали транзистор – полупроводниковое устройство, способное управлять электрическим током. Транзисторы могли выполнять функцию переключателей, и их можно было использовать для создания логических вентилей – элементов, способных выполнять элементарные логические вычисления. Если собрать несколько таких логических вентилей вместе, можно было получить работающее вычислительное устройство.
Звучит очень «технически», но смысл простой: новые транзисторы были меньше и надежнее, чем электронные лампы, которые использовались в первых компонентах электронных схем, и они проложили путь к созданию более сложных компьютеров. Созданный в декабре 1947 года первый транзистор был громоздким, собранным из множества деталей, в том числе скрепки для бумаг. Но он работал! С годами транзисторы превратились из такой импровизации в сложные стандартные устройства.
С конца 1940-х годов целью стало уменьшение размеров транзисторов. В 1960 году Роберт Нойс из компании Fairchild Semiconductor разработал первую в мире интегральную схему, которая объединила несколько транзисторов в одном устройстве. Эти транзисторы были крошечными, и по отдельности их невозможно было обработать ни вручную, ни машиной. Их изготавливали с помощью сложного процесса, немного схожего с химической фотографией, – фотолитографии. Специалисты направляли ультрафиолетовый свет через пленку с шаблоном – изображением схемы (похоже на детский трафарет). Схема отпечатывалась на кремниевой пластине; процесс можно было повторять на одной и той же пластине несколько раз, пока определенное количество транзисторов не накладывалось друг на друга. Каждая пластина могла содержать несколько идентичных копий схем, уложенных в сеть. Отрежьте одну копию – и получите кремниевый «чип».
Одним из первых силу этой технологии оценил Гордон Мур – исследователь, работавший на Нойса. Через пять лет после изобретения босса Мур понял, что физическая площадь интегральных схем ежегодно уменьшается примерно на 50 %, при этом количество транзисторов меньше не становится. Пленки (или «маски»), используемые в фотолитографии, становились все более детальными, транзисторы и соединения – все меньше, а сами компоненты – более замысловатыми. Это снижало стоимость и повышало производительность. Новые, более плотно упакованные чипы из меньших компонентов были быстрее старых.
Изучив такой прогресс, Мур в 1965 году выдвинул гипотезу. Он предположил, что эти разработки позволят удвоить эффективную скорость чипа при той же стоимости в течение определенного периода времени. В итоге он остановился на оценке, что каждые два года (в среднем от 18 до 24 месяцев) чипы, не меняясь в стоимости, будут становиться вдвое мощнее[17]. Мур стал соучредителем компании Intel, крупнейшего производителя чипов в XX веке. Но, вероятно, он более известен благодаря своей гипотезе, которая теперь называется законом Мура.
Этот закон легко трактовать неправильно: он не похож на законы физики. Законы физики, основанные на эмпирических наблюдениях, обладают предсказуемостью. Законы Ньютона не могут быть опровергнуты повседневным человеческим поведением. Ньютон утверждал, что сила равна массе, умноженной на ускорение, – и это почти всегда так[18]. Не имеет значения, что вы делаете или не делаете, какое сейчас время суток или какую прибыль вы намерены получить.
Напротив, закон Мура не предсказывает, это описательный закон. Как только Мур его изложил, компьютерная индустрия – от производителей чипов до обслуживающих их многочисленных поставщиков – начала рассматривать его как цель. Он стал социальным фактом – не чем-то присущим самой технологии, а тем, что существует благодаря пожеланиям компьютерной индустрии. Компании, поставляющие материалы, разработчики электроники, производители лазеров – все они хотели, чтобы закон Мура работал. И он работал[19].
Но это никак не ослабило закон. С тех пор как Мур его сформулировал, он был весьма удачным руководством по компьютерному прогрессу. В чипах действительно становилось больше транзисторов. И они следовали экспоненте, поначалу увеличиваясь в числе не очень заметно, но затем – почти непостижимо.
Посмотрим на следующие графики. На рис. 1 показан рост количества транзисторов на микрочип с 1971 по 2017 год. То, что этот график выглядит таким унылым до 2005 года, свидетельствует о мощности экспоненциального роста. На рис. 2 отражены те же данные, но по логарифмической шкале – шкале, где экспонента изображается прямой линией. Мы видим, что между 1971 и 2015 годами количество транзисторов на чипе увеличилось почти в десять миллионов раз.
Рис. 1. Число транзисторов на микропроцессор в млрд (линейная шкала)
Источник: Our World In Data[20]
Рис. 2. Число транзисторов на микропроцессор в млрд (логарифмическая шкала)
Источник: Our World In Data
Грандиозность этих изменений с трудом поддается осмыслению, но мы можем попытаться это сделать на примере стоимости одного транзистора. В 1958 году компания Fairchild Semiconductor продала компании IBM 100 транзисторов по 150 долларов за штуку[21]. К 1960-м годам цена упала примерно до 8 долларов за транзистор. К 1972 году (когда я родился) его средняя стоимость составляла 15 центов[22], а полупроводниковая промышленность выпускала от ста миллиардов до триллиона транзисторов в год. К 2014 году человечество производило 250 квинтиллионов (то есть миллиардов миллиардов) транзисторов в год – это во много раз больше, чем число звезд в нашей Галактике. Каждую секунду мировые «фабы» – специализированные фабрики по производству интегральных схем – выплевывали восемь триллионов транзисторов[23]. Стоимость одного транзистора упала до нескольких миллиардных долей доллара.
Почему это важно? Потому что в результате компьютеры стали совершенствоваться в невероятном темпе. Скорость, с которой компьютер может обрабатывать информацию, приблизительно пропорциональна количеству транзисторов в его процессоре. Чем больше в чипе становилось транзисторов, тем они становились быстрее. Намного быстрее. А сами чипы становились все дешевле.
Это необычайное падение цены и привело к компьютерной революции, случившейся, когда я был подростком, и по этой причине мой BBC Master был намного лучше моего ZX81. А потом из-за этого же вся наша жизнь снова изменилась. Когда вы берете в руки свой смартфон, вы держите устройство с несколькими чипами и миллиардами транзисторов. Компьютеры – когда-то бывшие сферой военных или научных исследований – стали обыденностью. Вспомните первый электронный компьютер, который Алан Тьюринг использовал для взлома кодов в Блетчли-парке в 1945 году. Десятилетие спустя в мире существовало всего 264 компьютера, месячная аренда которых стоила десятки тысяч долларов[24]. Прошло шесть десятилетий, и в мире насчитывается более пяти миллиардов компьютеров – в их число входят и смартфоны, наши карманные суперкомпьютеры. Наши кухонные шкафы, кладовки, чердаки завалены вычислительными устройствами, им всего по несколько лет, но они уже слишком устарели, и использовать их не имеет смысла.
Закон Мура – это самое известное выражение экспоненциального развития цифровых технологий в чистом виде. За последние полвека компьютеры неуклонно становились быстрее, что принесло с собой стремительные технологические, экономические и социальные преобразования. Цель этой главы – объяснить, как произошел этот сдвиг и почему в обозримом будущем он, похоже, будет продолжаться. Она также служит введением к определяющей силе нашего века – развитию экспоненциальных технологий.
Если выражаться простыми словами, то экспоненциальный рост – это возрастание величины со скоростью, пропорциональной самой этой величине. Линейный процесс – это то, что происходит, например, с нашим возрастом, который увеличивается ровно на один год с каждым оборотом Земли вокруг Солнца. Экспоненциальный процесс подобен сберегательному счету со сложными процентами. Сумма на счете увеличивается на фиксированный процент, скажем на 2 % ежегодно. Но 2 % в следующем году относятся не только к вашим первоначальным накоплениям, но и к накоплениям плюс проценты за прошлый год. Такой рост стартует медленно – это даже немного скучно. Но в какой-то момент кривая поворачивает вверх и взлетает. С этого момента сумма взлетает с головокружительной скоростью.
Многие природные процессы следуют экспоненциальной закономерности, например рост количества бактерий в чашке Петри или распространение вируса среди популяции. Однако одно из последних событий такого порядка – возникновение экспоненциальных технологий. Я называю экспоненциальной такую технологию, которая при приблизительно постоянных затратах обеспечивает увеличение более чем на 10 % в год в течение нескольких десятилетий. Конечно, ревнитель строгости в математике может сказать, что даже увеличение на 1 % в таких условиях тоже является экспоненциальным ростом. Строго говоря, так и есть. Но 1-процентного годового изменения мало для заметных подвижек. Чтобы удвоить число, увеличивающееся на 1 % в год, потребуется семьдесят лет, то есть почти вся жизнь.
Вот почему так важно вести расчеты, отталкиваясь от 10 % в год. Если ежегодный рост эффективности какой-нибудь технологии составляет 10 % при фиксированной стоимости, то за каждые десять лет при тех же затратах технология будет становиться в 2,5 раза мощнее. Наоборот, если мы зафиксируем мощность технологии, то каждые десять лет ее стоимость будет падать на три пятых с лишним. Десять лет – это всего лишь два традиционных цикла бизнес-планирования, что вполне укладывается в пределы работы на одной должности или одного периода карьеры. Это два парламентских срока в Великобритании или Франции, три – в Австралии или два с половиной президентских срока в США.
Вторая часть моего определения также очень важна. Чтобы технология считалась экспоненциальной, это изменение должно охватывать десятилетия, а не просто представлять собой кратковременную тенденцию. Технология, которая прогрессирует более чем на 10 % в течение нескольких лет, после чего ее прогресс останавливается, будет гораздо менее преобразующей, чем та, которая развивается постоянно. По этой причине дизельный двигатель – это не экспоненциальная технология. В первые годы своего существования дизельные двигатели быстро модернизировались. Но за двадцать лет это развитие сошло на нет. А вот бизнес компьютерных чипов – с его примерно 50-процентным ежегодным ростом в течение пяти десятилетий – определенно соответствует понятию.
Представьте, что вы каждые десять лет меняете свой автомобиль. И представьте, что основные его характеристики – скажем, максимальная скорость или топливная экономичность – становились бы лучше на 10 % в год. В результате ваш новый автомобиль имел бы вдвое большую эффективность использования топлива или ездил бы в два раза быстрее. Как правило, с автомобилями такого не случается. Но со многими технологиями, о которых говорится в этой книге, происходит именно это. На самом деле есть несколько технологий, которые совершенствуются со скоростью от 20 до 50 % (и выше) в год. Такие темпы инноваций означают, что за десятилетие мы получим 6–60-кратное увеличение возможностей за ту же цену.
У этого феномена есть две составляющие: снижение цены и увеличение потенциала. Когда цена на инновационную технологию падает, ее начинают использовать повсюду. Новые продукты на основе экспоненциальных технологий появляются в массовом сегменте рынка. Сначала чипы устанавливали только в специализированные устройства, предназначенные для военных целей и космических агентств. Затем – в мини-компьютеры, которые были доступны только крупнейшим компаниям. Десять лет спустя появились настольные компьютеры, а по мере удешевления и миниатюризации чипов их поместили в мобильные телефоны.
В то же время резко возросла мощность технологий. Возможности типичного смартфона – цветное видео в высоком разрешении, высококачественный звук, быстрые видеоигры, устройства, преобразующие речь в текст, – всего пару десятилетий назад не были доступны никому даже в самых богатых странах. Когда технологии развиваются экспоненциально, это приводит к постоянному удешевлению продуктов, обладающих совершенно новыми функциями.
Этот процесс подробно описывает в своих работах аналитик Хорас Дедью, соратник Клейтона Кристенсена, всемирно известного гарвардского ученого, который написал библию многих технологических компаний Кремниевой долины «Дилемма инноватора»[25]. Собственную репутацию Дедью заслужил благодаря своим исследованиям моделей инноваций. Чтобы понять, с какой скоростью технологии распространялись в американской экономике, за последние два десятилетия он проанализировал данные за двести с лишним лет[26]. Он частым бреднем прошелся по самым разным инновациям – от унитазов, электрификации печати и развития сети автомобильных дорог до пылесосов, дизельных локомотивов, усилителей руля в автомобилях, электродуговых печей, искусственного волокна, банкоматов, цифровых камер, социальных сетей и планшетных компьютеров, а также многого другого. Для каждой из них он установил, сколько времени потребовалось, чтобы достичь 75 % проникновения на американский рынок, то есть сколько времени потребовалось, чтобы инновационная технология стала доступна трем четвертям взрослых американцев (или, в некоторых случаях, домохозяйств).
Хотя речь идет о совершенно разных продуктах, в них есть нечто общее, а именно то, как они распространяются. Для большинства технологий это происходит по логистической кривой, имеющей S-образную форму. Сначала распространение идет медленно. Тот, кто заинтересовался технологией первым, экспериментирует с ней, а в это время производители выясняют, как и что с ней делать, как устанавливать цену, и наращивают мощности. В какой-то момент происходит перелом и скорость распространения продукта резко возрастает. Таким образом, первые две части кривой выглядят как классическая экспоненциальная кривая: сначала медленно и скучно, затем стремительно и захватывающе. Однако, в отличие от чистой экспоненциальной кривой, логистическая кривая имеет предел. В конце концов, автомобилей или стиральных машин нужно столько, сколько нужно семье. По мере того как рынок насыщается, рост потребления идет на спад: семей, в которых еще нет цифровых камер или микроволновок, становится все меньше, как меньше становится и металлургов, которые не перешли на электродуговые печи. Крутой участок кривой начинается расти медленнее и все сильнее приближаться к горизонтальной прямой. Другими словами, картина освоения похожа на упрощенную букву S.
Порой точка насыщения рынка наступает позже предполагаемого. В 1974 году Билл Гейтс сказал, что предвидит «компьютер на каждом столе и в каждом доме». На тот момент в мире насчитывалось менее 500 тысяч компьютеров разных вариантов. На рубеже тысячелетий число компьютеров превышало 500 миллионов – все еще меньше одного устройства на один европейский или американский дом. Однако через пару десятилетий типичная западная семья имела в доме полдюжины компьютеров, включая смартфоны, семейный компьютер, современный телевизор и «умную колонку» вроде Amazon Alexa. В домохозяйстве, члены которого увлекаются всевозможными гаджетами, их количество легко может превысить даже двузначное число.
В целом модель S-образной кривой остается верной. Однако когда мы имеем дело с экспоненциальными технологиями, темп их подъема по S может быть поразительным. Процесс насыщения рынка ускорялся на протяжении десятилетий, и этот растущий темп изменений был заметен любому американцу, большая часть жизни которого прошла в XX веке. Родившийся в 1920 году и проживший чуть менее 55 лет человек мог застать высадку на Луну, но не падение Никсона. За некоторыми исключениями (атомная бомба, космические полеты), технологии, с которыми они сталкивались, оставались, в общем-то, неизменными: автомобили, телефоны, телевизоры, стиральные машины, электричество, унитазы[27]. Некоторые продукты были изобретены относительно давно: например, микроволновки начали продавать еще в 1946 году, но даже в 1970-х они оставались редкостью[28].
Для родившихся уже в эпоху закона Мура все выглядит иначе. Новые продукты появляются гораздо быстрее, а стремительнее всего развиваются технологии, основанные на цифровой инфраструктуре. Чтобы социальные сети охватили семерых из десяти американцев, потребовалось 11 лет, при этом средняя предполагаемая продолжительность жизни тех, кто жил в момент их появления, превысила 77 лет. Таким образом, социальным сетям, чтобы достичь насыщения, потребовалось 14 % средней продолжительности жизни. Для сравнения: электричеству для этого понадобилось 62 года. Если считать относительно той же средней продолжительности жизни на момент внедрения, то смартфоны распространились в 12,5 раза быстрее, чем первые телефоны.
Это можно увидеть на рис. 3. Справа даны определяющие технологии начала XX века: телефон, электроэнергия и автомобиль. Каждая из них появилась в начале века, и на то, чтобы охватить три четверти американских домохозяйств, ушло более 30 лет, притом что средняя продолжительность жизни составляла около 50 лет. Слева указаны несколько первых экспоненциальных технологий нашего времени, все они основаны на растущих компьютерных мощностях. Каждая из них за 8–15 лет охватила три четверти американских домохозяйств, притом что средняя предполагаемая продолжительность жизни в это время превышала 75 лет. И дело не только в том, что технологии настоящего развиваются быстрее, чем технологии прошлого, – постоянно растет темп их развития.
Рис. 3. Число лет, потребовавшихся для распространения от уровня в 10 % до уровня в 75 %
Источник: Хорас Дедью, исследование для Exponential View
Другими словами, технологии – и особенно цифровые – распространяются быстрее, чем что-либо прежде. И этот процесс постоянно ускоряется. Жизнь в эпоху закона Мура определяется экспоненциальным распространением технологий.
Это ускорение происходило в течение полувека, но только в последние десять-двадцать лет оно стало очевидным. Возьмем для примера соцсети. Первой в мире социальной сетью на базе интернета была SixDegrees. Я присоединился к ней через пару дней после запуска в 1997 году. И оказался в числе первых тысяч участников Friendster и LinkedIn, возникших в 2003 году; позже в тот же год появился MySpace. Он рос быстро и стал титаном этой зарождающейся индустрии: на пике развития у него было 115 миллионов пользователей. Но именно Facebook[29] продемонстрировал огромную скорость развития цифровых технологий. Эта социальная сеть была запущена в феврале 2004 года и стала одним из самых быстрорастущих продуктов в истории, набрав первый миллион пользователей всего за пятнадцать месяцев. Основатель соцсети Марк Цукерберг сегодня владеет самым популярным продуктом на планете: к концу 2019 года у него было 2,5 миллиарда пользователей.
Однако сегодня скорость роста Facebook выглядит однозначно устаревшей. Предлагаю посмотреть на компанию Lime. Основанная в Сан-Франциско в январе 2017 года, она предлагает прокат легко узнаваемых зеленых электрических скутеров и велосипедов. Нажмите кнопку на своем смартфоне, и за минуту вы сможете воспользоваться одним из них. Хотя бизнес у Lime намного сложнее, чем у Facebook, – ему необходимы велосипеды, оснащенные GPS- и GSM-навигаторами, зарядка, техническое обслуживание и система отслеживания, – компании потребовалось всего шесть месяцев, чтобы обслужить миллион поездок, и еще семь месяцев, чтобы довести количество поездок до десяти миллионов[30]. Все это стало возможным благодаря революции в компьютерных технологиях: цены упали настолько, что компания Lime смогла установить небольшой компьютер и GSM-связь в каждый из сотен тысяч своих велосипедов[31].
Ускоряющийся рост цифровых технологий не ограничивается США. KakaoTalk – ведущая корейская социальная сеть, эквивалент WeChat или WhatsApp. В январе 2016 года компания решила создать банк. За две недели два миллиона корейцев – около 4 % населения страны – открыли в нем счета. К лету 2019 года это сделали более 20 % корейцев[32]. Стоит нам разобраться в одном быстро развивающемся продукте экспоненциального века, как уже появляется другой. Возьмите TikTok, социальную сеть для забавных видео. За несколько месяцев она прошла путь от никому не известного сервиса до самого скачиваемого приложения в мире. С этим ростом пришел беспрецедентный поток продаж. ByteDance, материнская компания TikTok, в 2018 году сообщала о продажах на сумму семь миллиардов долларов, а два года спустя ее доходы увеличились более чем в пять раз[33]. Сравните: за пять лет до этого Facebook перешел тот же рубеж в семь миллиардов долларов, но за следующие два года его доходы выросли лишь в три раза. Настоящая эпидемия ускорения.
Таково истинное наследие закона Мура. Аппаратное обеспечение цифровых технологий постоянно наращивает мощности, и с тем же постоянством снижается его цена. Поскольку чипы развиваются с экспоненциальной скоростью, возрастая на 50 % и более в год в течение многих лет, они за пустяковые деньги предоставляют доступ к невообразимой вычислительной мощности. Эта гипердефляция создает все более широкие возможности – новые продукты, которые, в свою очередь, могут распространяться в нашей экономике все быстрее. Весь этот процесс представляет собой постоянное ускорение.
К началу XXI века некоторые специалисты начали обращать внимание на замедление действия закона Мура. Удивляться этому не стоит. Технологии не могут бесконечно развиваться экспоненциально. Сегодняшние автомобили ездят ненамного быстрее, чем в конце Второй мировой войны. Современные пассажирские самолеты летают со скоростью примерно 500 миль в час – немногим более, чем 468 миль в час, которые выдавали первые пассажирские реактивные самолеты в 1950-х годах.
Есть веские основания полагать, что наш нынешний подход к проектированию микросхем близок к границам возможного. Ученые придумывают все более сложные процессы, чтобы соответствовать предсказаниям Мура. Поскольку транзисторы становятся все меньше, для их создания требуется все более точное оборудование: сегодняшние фабрики по производству полупроводников используют невероятно сложную лазерную технологию, а самые современные лазеры стоят по сто миллионов долларов и более. При этом любое, даже крошечное, изменение атмосферных условий на фабриках представляет смертельную угрозу для микроскопических транзисторов: испортить кремниевые пластины может одна пылинка. По этой причине сегодня помещения, в которых производятся чипы, – самые неподвижные в мире: они покоятся на огромном количестве амортизаторов. Они также и самые чистые. Воздух в этих помещениях, площадь которых иногда достигает почти двадцать тысяч квадратных метров, часто фильтруется около шестисот раз в час. (Для сравнения: в больничной операционной воздух необходимо очищать всего лишь пятнадцать раз в час.)
Именно это мы и имеем в виду, когда говорим, что закон Мура – это социальный факт, а не жесткое правило: полупроводниковая промышленность была чрезвычайно заинтересована в том, чтобы ему соответствовать. По оценкам некоторых экономистов, объем исследований, направленных на поддержание закона Мура, с 1971 по 2018 год увеличился в восемнадцать раз. Стоимость строительства полупроводниковых фабрик росла примерно на 13 % в год – самые современные стоят пятнадцать миллиардов долларов и более[34].
Несмотря на все усилия, в конце 2010-х годов рост числа транзисторов на единицу площади начал замедляться. Подобно притиснутым друг к другу и изнывающим от пота пассажирам в жаркий день, эти микроскопические схемы стали раздражать друг друга. Каждый миниатюрный транзистор выделяет тепло, которое может воздействовать на соседние схемы и ухудшать их надежность, и с этой проблемой инженерам все сложнее бороться. Более того, современные транзисторы настолько малы – всего несколько атомов в ширину, – что вскоре на них могут начать действовать причудливые законы квантовой физики. При таких масштабах частицы настолько малы, что ведут себя как волны, то есть способны проходить через физические барьеры и проникать туда, где им не место. Закон Мура перестает выполняться из-за квантовых эффектов, влияющих на электроны.
Однако это не означает, что рост компьютерной мощности замедлится. Компьютерная революция не демонстрирует никаких признаков замедления. Рэй Курцвейл, один из ведущих мировых аналитиков технологий, выдвигает теорию технологического развития, которая пытается объяснить почему. Он считает, что технологии имеют тенденцию развиваться ускоренными темпами – в соответствии с тем, что он называет законом ускоряющейся отдачи. В основе модели Курцвейла лежит положительная обратная связь. Хорошие компьютерные чипы позволяют нам обрабатывать больше данных, что помогает нам узнать, как делать компьютерные чипы лучше. После чего мы можем использовать эти новые чипы, чтобы создавать еще лучшие чипы, и так далее. По Курцвейлу, этот процесс постоянно ускоряется: отдача от каждого нового поколения технологий наслаивается на отдачу предыдущего, и они даже подпитывают друг друга[35].
Однако важнейшая часть теории Курцвейла не относится к какой-либо определенной технологии вроде автомобиля или микрочипа. Он сосредоточивается на взаимодействии различных технологий. Главная идея Курцвейла состоит в том, что экспоненциальное развитие технологий – это не продвижение отдельных изобретений или даже отдельных секторов экономики. На самом деле иллюзия непрерывного экспоненциального технологического развития обусловлена десятками соединенных в ряд развивающихся различных технологий, которые постоянно взаимодействуют.
Вспомните S-образные кривые в данных Хораса Дедью. Когда технология только создается, ее развитие и распространение идет по пологому градиенту. Это говорит о медленном, но значимом прогрессе. Однако в какой-то момент развитие технологии набирает темп. Происходит быстрый рост, пока на определенном этапе прогресс не сходит на нет. Наш прежде почти вертикальный график становится горизонтальным.
Однако, по мнению Курцвейла, в любой момент времени S-образной кривой следует множество технологий. Когда одна S-кривая достигает своего наивысшего градиента, стартует другая кривая. Как только наша первая кривая начинает приближаться к горизонтали, более молодая технология подходит к взрывной фазе своего ускорения и принимает эстафету быстрого роста. Что самое важное, эти разные технологии подпитывают друг друга: инновации в одном секторе вдохновляют развитие в другом. Когда одна технология достигает предела своего потенциала, новая технологическая парадигма уже ждет своего часа и подхватывает инициативу. В результате – даже если развитие отдельных технологий последовательно замедляется – темп технологического прогресса в обществе все равно ускоряется[36].
Эта теория имеет глубокие последствия для будущего компьютеризации. Хотя парадигма, которую описывает закон Мура, имеет свои пределы, в целом мы не подходим к пределам развития вычислительной мощности. Мы всегда найдем какой-нибудь новый подход, который поможет удовлетворить растущие потребности пользователей. Просто в будущем увеличение вычислительной мощности необязательно будет основываться на втискивании еще большего числа транзисторов на чип.
Пока что теория Курцвейла представляется верной. В первые годы нового тысячелетия, примерно когда мы приблизились к тому, что многие инженеры сочли физическими пределами закона Мура, мы достигли переломного момента. Появилось достаточно данных и достаточно вычислительных мощностей, которые позволили разработать новую техническую парадигму – искусственный интеллект (ИИ). Это послужило катализатором совершенно нового взгляда на вычислительную мощность – вышедшего за пределы нашего прежнего подхода к проектированию микросхем.
Люди с самых давних времен размышляли о возможности создания искусственного интеллекта. По словам Стюарта Рассела, одного из ведущих мировых ученых в области искусственного интеллекта, компьютер можно считать разумным, если он способен предпринимать действия, позволяющие достичь поставленных целей[37]. Что особенно важно, программное обеспечение для ИИ должно быть в состоянии принимать некоторые решения, а не просто слепо следовать каждому шагу программного кода.
После того как в 1955 году ученый Джон Маккарти ввел термин «искусственный интеллект», исследователи приступили к созданию именно таких «интеллектуальных» машин. В следующие шестьдесят лет исследования в области ИИ продвигались медленно. Было много фальстартов – казавшиеся существенными прорывы вели к завышенным ожиданиям, что, в свою очередь, приводило к неудачам и унынию. Проблема состояла в недостатке данных и нехватке вычислительной мощности. В течение десятилетий многие ученые верили, что любой крупный прорыв в области ИИ, вероятно, произойдет благодаря так называемому машинному обучению. Этот метод предполагает сбор огромного количества информации о проблеме и использование алгоритмов для выявления повторяющихся моделей. Например, можно научить ИИ различать кошку и собаку, показав десять миллионов фотографий кошек и собак и недвусмысленно объяснив машине, кто – кошки, а кто – собаки. В итоге «модель» научится отличать фотографии кошек от фотографий собак. Но до сравнительно недавнего времени нам не хватало данных и вычислительных мощностей, чтобы реализовать потенциал машинного обучения. Из-за большого объема громоздких числовых задач такой подход требует большого количества информации и дорогостоящих вычислений. А таких объемов информации и таких вычислительных мощностей просто не было.
Однако к началу 2010-х годов ситуация стала меняться. Внезапно появилось колоссальное количество данных, созданных обычными людьми, которые выкладывали фотографии своей жизни в интернет. Сначала эти данные не были особенно полезны для исследователей ИИ – пока за дело не взялась профессор Стэнфордского университета Фэй-Фэй Ли. Ли – ученый-информатик, она специализируется на пересечении нейробиологии и информатики, особенно интересуясь тем, как люди воспринимают объекты. В 2009 году, вдохновленная мыслью, что цифровое отображение как можно большего количества объектов реального мира позволит улучшить ИИ, Ли создала ImageNet – проект, который за пять лет сам по себе привел к взрывному развитию полезного ИИ. Сайт превратился в подробнейшую коллекцию, содержащую 14 197 122 изображения, вручную размеченных тегами типа «овощ», «музыкальный инструмент», «спорт» и – совершенно верно! – «собака» и «кошка». Этот набор данных использовался как основа для ежегодного конкурса на поиск алгоритма, который смог бы наиболее логично и точно идентифицировать объекты. Благодаря ImageNet внезапно и в большом количестве появились качественные размеченные данные.
Одновременно с обильным потоком данных произошел взрыв вычислительной мощности. К 2010 году закон Мура привел к появлению мощности, достаточной для нового вида машинного обучения – «глубокого обучения», которое состоит в создании слоев искусственных нейронов по образцу клеток, лежащих в основе человеческого мозга. Эти нейронные сети уже давно провозглашались следующей важной составляющей искусственного интеллекта. Однако их разработка тормозилась недостатком вычислительной мощности. Теперь все изменилось. В 2012 году группа ведущих исследователей ИИ – Алекс Крижевский, Илья Суцкевер и Джеффри Хинтон – разработала «глубокую свёрточную нейронную сеть», способную применить глубокое обучение к задачам классификации изображений, с которыми так долго не мог справиться ИИ. Это стало возможным благодаря необычайной вычислительной мощи. Нейронная сеть содержала 650 тысяч нейронов и 60 миллионов параметров, которые можно было использовать для настройки системы. Это изменило всю игру. До AlexNet, как назвали изобретение команды Крижевского, большинство ИИ, участвовавших в конкурсе ImageNet, все время спотыкались, и в течение многих лет результат составлял не более 74 %. AlexNet добился 87 %. Глубокое обучение работало.
Его триумф вызвал бешеный рост интереса к тому, чем занимать искусственный интеллект. Ученые бросились создавать системы ИИ, применяя глубокие нейронные сети и их производные для решения огромного количества задач – от поисков производственных дефектов до перевода с языка на язык, от распознавания голоса до выявления мошенничеств с кредитными картами, от создания новых лекарств до рекомендаций видеофильмов, отвечающих вкусам конкретного зрителя. Инвесторы охотно открывали карманы для поддержки этих изобретателей. В кратчайшие сроки глубокое обучение проникло повсюду. В результате нейронные сети требовали все большего объема данных и все большей вычислительной мощности. В 2020 году нейронная сеть GPT-3, которая использовалась для генерирования текста, порой неотличимого от созданного человеком, использовала 175 миллиардов параметров – примерно в три тысячи раз больше, чем у AlexNet.
Однако если новый подход к вычислениям – искусственный интеллект, то каковы необходимые ему мощности? С 2012 по 2018 год компьютерная мощность, используемая для обучения крупнейших моделей ИИ, росла примерно в шесть раз быстрее, чем темпы, о которых говорилось в законе Мура. На графике ниже показан рост вычислительных операций, используемых в современных системах ИИ, на фоне экспоненциальной кривой закона Мура за тот же период. Если бы использование вычислительных мощностей ИИ следовало кривой закона Мура, то за шесть лет оно бы выросло примерно в семь раз. На деле же оно увеличилось в триста тысяч раз[38].
Рис. 4. Относительная вычислительная мощность, используемая ИИ, по сравнению с прогнозами закона Мура
Источник: Open AI, анализ для Exponential View
Ошеломляющая статистика. Ее можно объяснить именно тем процессом, который Рэй Курцвейл определил десятилетиями ранее. В тот самый момент, когда мы подбирались к пределам старого метода (размещения большего числа транзисторов на чип), ученые, опираясь на несколько иной подход, предложили новое решение.
Ответ кроется в типе используемых чипов. Исследователи ИИ, такие как Алекс Крижевский, заменили традиционные компьютерные чипы теми, что были разработаны для высококачественной графики для видеоигр. Использовать такие чипы для повседневных вычислений смысла не имеет, но они оказались удивительно пригодными для ИИ. В частности, они хороши в математике. Вычисления, необходимые для создания реалистичных сцен в видеоиграх, требовали множества умножений. Чтобы заставить сложную нейронную сеть работать, нужно было выполнить миллионы, а иногда и миллиарды таких умножений, и графические чипы справлялись с этой задачей.
Когда стало понятно, что рынок таких чипов расширяется, компьютерная индустрия приняла вызов. Разработчикам искусственного интеллекта требовалось больше мощности, и специализированные чипы позволяли этого добиваться. Калифорнийская компания Cerebras и британская Graphcore начали производить чипы, предназначенные для одной-единственной задачи – запускать нейронные сети на высоких скоростях.
Результатом стал продолжающийся экспоненциальный рост вычислительной мощности, только уже без оков закона Мура. Этот закон обусловлен миниатюризацией – как разместить все больше транзисторов на все меньшем пространстве. Но современные чипы ИИ не зависят от борьбы за нанометры. На самом деле некоторые из них состоят из гораздо более крупных компонентов. В традиционном процессоре типа того, который стоит в вашем ноутбуке, компоненты расположены на расстоянии около семи нанометров друг от друга, то есть примерно три тысячи таких компонентов можно разместить на площади среза, равной толщине человеческого волоса. Специализированные чипы ИИ от Graphcore размещены на расстоянии шестнадцати нанометров – около 1300 на аналогичную площадь.
Это означает, что в обозримом будущем вычислительная мощность, похоже, будет расти экспоненциально. А если вдруг наши новые виды чипов в итоге окажутся непригодными для удовлетворения растущих потребностей общества в вычислительной мощности, на очереди совершенно новый подход – «квантовые вычисления»[39]