Глава 3 Три типа искусственного интеллекта

Искусственный интеллект пока не претендует на мировое господство и еще довольно долго к нему не приблизится. Не способен он пока и «осознать себя», ибо находится в зародыше, – если провести параллель с нами и нашими предками, ИИ сейчас в стадии всего лишь прибрежной амфибии, которая начинает потихоньку смотреть на сушу. До приматов и сложного сознания ИИ еще далеко. Экспертное сообщество условно разбило эволюцию искусственного интеллекта на три этапа. Сейчас он находится на первом – artificial narrow intelligence (ANI), или узконаправленный ИИ. Все примеры условно умных машин, что мы видим сегодня, начиная от голосовых ассистентов Siri (Apple), Google Assistant, Cortana (Microsoft), Alexa (Amazon) и «Алисы» («Яндекс»), всех умных ботов, роботизированных пылесосов, беспилотных автомобилей, суперкомпьютеров, обыгрывающих человека в шахматы, и заканчивая компьютерным зрением, наводящим ракеты боевого дрона на цель с лицом идентифицированного террориста, – все это примеры ANI, или машин, заточенных под выполнение одной очень узкой задачи. Чем уже задача, тем лучше машина с ней справляется. Например, в системах распознавания лиц и идентификации личности по их изображению в настоящее время достигнута теоретическая эффективность 99,97 % – это мизерные шансы остаться анонимным в условиях, когда на вас смотрит городская камера с подключенной нейронной сетью распознавания. Причем, что важно, этот результат будет доступен и вашей родной полиции, и спецслужбам, и враждебно настроенным хакерам, которые могут использовать идентификацию не по назначению, например выявляя в толпе сотрудников спецслужб, у которых (сюрприз!) тоже есть лица, – но об этом мы поговорим в одной из последующих глав. Если «натравить» машину на распознавание фотографий кошечек и собачек (еще несколько лет назад эта задача считалась непосильной), она будет успешно классифицировать их с вероятностью выше 99 % – хотя лично мне до сих пор непонятно, кому нужна эта функция ☺ Стоит заменить фото животных на рентгеновские снимки легких или мозга, а машину заставить обнаруживать аномалии вроде злокачественных опухолей и ставить диагноз – она и тут справляется с заданием. Это примеры очень узких задач, в которых машина уже работает лучше человека или как минимум наравне с самыми талантливыми из нас.

Успешное обучение ИИ конкретным задачам влечет за собой последствия для рынка рабочих мест: специалисту-человеку становится все сложнее найти работу, ибо Homo sapiens хочет кушать, получать зарплату, страховку и отпуск, люди могут организовываться в профсоюзы и выходить на забастовки, болеть или просто быть не в настроении, а машину можно взять в лизинг и просто регулярно обслуживать, причем она всегда будет «на пике формы». Следовательно, работодатель при прочих равных начнет все чаще предпочитать машину. Но пока этот интеллект крайне несовершенен – достаточно сделать всего лишь шаг в сторону от узкой задачи, и все перестает работать. Например, стоит человеку надеть маску во время пандемии коронавируса или как следует похудеть, и точность распознавания лица резко упадет. Стоит сказать машине «на рентгенах надо смотреть не только на онкологию, но и вообще все диагнозы ставить, например выявлять осколки шрапнели», машина «покрутит пальцем у виска» и перестанет работать, хотя любой человек-рентгенолог без труда справится с задачей. Если попросить ANI, коим является, например, Siri, поставить культовую песню «Let It Be», она вполне может решить, что вы предлагаете ей съесть пчелу (let eat bee), а заказав какао и бриошь, можете, сам того не желая, отдать ей приказ «атаковать Польшу». ANI крайне несовершенен, когда к решаемой задаче подключается то, что для человека является естественным, но для машины – дикостью: любой отход от четкой задачи выводит ее модели из равновесия, ибо ИИ не может интерпретировать и обобщать так же, как человеческий мозг.

Но количество ошибок падает, а горизонтальный функционал (то есть способность на том же рентгене видеть все больше и все лучше) растет – ANI очень резво двигается в сторону AGI, или artificial general intelligence (общего искусственного интеллекта) – уровень ИИ, при котором машина может выполнять любую работу, которую способен делать человек, причем не хуже него. Апологетом движения в сторону AGI традиционно выступает Google – основатели компании Ларри Пейдж и Сергей Брин не раз высказывались о том, что AI ни в коем случае не надо бояться. И Google полным ходом движется в этом направлении – пожалуй, сильно быстрее большинства конкурентов: у Google есть уникальный массив и поисковых, и картографических, и финансовых, и визуальных (YouTube) данных, а браузер Chrome (по состоянию на сентябрь 2020-го им пользуются 68,5 % всех жителей Сети) – это арсенал, которого в таком объеме нет больше ни у кого. Но что важнее, работа с такими массивами данных постоянно подстегивает инженерный гений Google, заставляет придумывать инновационные решения. И на данный момент Google впереди всех.

Пока AGI сделать не получается, ибо это не просто машина, способная качественно выполнять несколько десятков тысяч узких задач. Человеческое сознание отличает непостижимая пока для машины способность обобщать и находить закономерности и стратегии там, где их, казалось бы, совсем нет. Например, человек видит в небе облако, но как бы в форме суслика, а в глубине души словно слышит «Ой, то не вечер, то не вечер» – и как-то тоскливо так, что невольно возникает потребность сделать что-то хорошее и полезное для сусликов, например написать программу для мониторинга их колоний, чтобы природоохранные организации могли взять их под защиту. Машина же просто видит облако – и все.

Но это не означает, что ИИ не эволюционирует в сторону AGI. Напротив, это происходит прямо сейчас при нашей активной помощи. Мутация ANI в AGI – вопрос времени, AGI без ANI был бы невозможен. AGI появляется не в вакууме, его разработка вбирает в себя значительную часть наработок ANI, начиная с перцептрона. Весь этот опыт и накопленный багаж знаний будет использован для создания принципиально новых методов работы ИИ, необходимых для AGI. По сути, мы имеем дело с такой же эволюцией, где каждое значимое качественное изменение, как правило, предвосхищается огромным количеством мелких усовершенствований: появление более сложной формы жизни, такой как приматы, невозможно без миллионов мутаций более простых организмов – по аналогичному принципу, появление ASI (artificial super intelligence), или искусственного суперинтеллекта – версии ИИ, опережающей человеческий интеллект абсолютно во всех задачах, невозможно без AGI и ANI.

Часть ученых, однако, считает, что ИИ никогда не сможет стать разумным и в некотором роде равным человеку (AGI). Основной аргумент противников общего ИИ – мысленный эксперимент в области философии сознания и искусственного интеллекта. Он называется «Китайская комната» и впервые был описан Джоном Серлом в 1980 году в статье «Сознание, мозг и программы»[5]. Суть эксперимента очень проста: представьте изолированную запертую комнату, в которой находится человек, не знающий ни одного китайского иероглифа. У него есть блокнот с инструкциями примерно такого вида: «Возьмите такой-то иероглиф из коробочки номер один и поместите его рядом с таким-то иероглифом из коробочки номер два», но в этих инструкциях отсутствует информация о значении иероглифов, так что человек просто выполняет предписанное. Второй человек (наблюдатель), знающий китайский, через щель под дверью комнаты один за другим просовывает листочки, на которых иероглифами написаны вопросы. На выходе наблюдатель ожидает получить осмысленный ответ. Инструкции для человека в комнате составлены таким образом, что если он будет им следовать, то из своих коробочек достанет нужные иероглифы, представляющие собой ответ на поставленный вопрос, и просунет обратно под дверь. Такой процесс эмулирует деятельность компьютера (человек в комнате) при работе с живым оператором (наблюдатель). В эксперименте с «китайской комнатой» наблюдатель может отправить под дверь любой вопрос, например «Какой ваш любимый цвет?» или «За какую команду будете болеть на чемпионате мира по футболу?», и получить вполне естественно выглядящий ответ – «Красный» или «Я болею за Германию со времен их победы над Аргентиной в 1990-м»; это похоже на общение с разумным человеком, который тоже владеет китайской письменностью. Но загвоздка в том, что человек в комнате ничего не знает ни о китайском языке и иероглифах, ни о том, что у него спрашивают, ни даже о том, что такое «красный» или «сборная Аргентины». Он просто реализует записанную в блокноте последовательность действий по перекладыванию иероглифов из одной коробочки в другую и не может ничему научиться, ибо не знает значения ни одного иероглифа. Противники AGI утверждают, что машина была, есть и будет человеком в «китайской комнате», выполняющим записанный в блокноте алгоритм, а сам принцип работы человеческого сознания для нее непостижим.

«Китайская комната» действительно выглядит убедительно и описывает подавляющее большинство сфер применения узконаправленного ИИ (ANI). Но в этом примере, равно как и в других концепциях, оспаривающих способность машины освоить мыслительную деятельность, на мой взгляд, есть три фундаментальных пробела. Поэтому я бы не спешил ставить крест на эволюции «тупого алгоритма».

Первая проблема заключается в ограниченности подхода автора концепции «китайской комнаты» к описанию проблемы.

История науки и техники полна примеров того, как при освоении новых сфер изобретатели пытались опереться на костыли старых решений или представлений. Тут и шагающий паровоз английского инженера Уильяма Брантона, и пароход с приводом на весла американского изобретателя Джона Фитча, и попытки создать летательные аппараты тяжелее воздуха с машущими крыльями. Карл Маркс в «Капитале» высказывался по этому поводу так: «До какой степени старая форма средства производства господствует вначале над его новой формой, показывает, между прочим, даже самое поверхностное сравнение современного парового ткацкого станка со старым, современных приспособлений для дутья на чугунолитейных заводах – с первоначальным немощным механическим воспроизведением обыкновенного кузнечного меха и, быть может, убедительнее, чем всё остальное, – первый локомотив, сделанный до изобретения теперешних локомотивов: у него было, в сущности, две ноги, которые он попеременно поднимал, как лошадь. Только с дальнейшим развитием механики и с накоплением практического опыта форма машины начинает всецело определяться принципами механики и потому совершенно освобождается от старинной формы того орудия, которое превращается в машину».

Аналогично, наивно предполагать, что AGI, способный обрабатывать информацию с той же эффективностью, что и человек, станет работать по принципу «махания крыльев», или заложенных алгоритмов. Безусловно, AGI окажется сложным симбиозом технологий, но далеко не факт, что он будет состоять из понятных нам алгоритмов и нейронных сетей – возможно (даже скорее всего), при его создании будут использоваться принципиально новые подходы. Но он точно сможет самообучаться, современные методики обучения ИИ подразумевают в том числе обучение по принципу «что хорошо, а что плохо». Да, пока это не означает, что наш человек в комнате сможет выучить китайский по просовываемым ему под дверь иероглифам. Но представьте на секунду, что в комнате стоит огромная плазменная панель. И каждый раз, когда под дверь просовывается листок с иероглифами, на телевизоре включается видеоролик, подробно описывающий значение фразы, иллюстрирующий объект, описываемый иероглифами, и его связи с другими объектами – и все это на всех языках мира, в том числе на китайском. У человека в комнате нулевые знания, но фотографическая память, он ничего не забывает, его нейронные сети постоянно адаптируются под получаемую информацию, а время не имеет значения. При правильно построенном обучении человек в комнате со временем (речь о сотнях тысяч человеческих лет, но для машины это могут быть всего лишь часы) сможет отвечать на любой вопрос не хуже всех людей, которые помогали ему учиться. Просто потому, что машину перестанут учить махать крыльями, как птица, а снабдят планером с мотором. Пример немного утрированный, но ничего невозможного в нем нет.

Вторая проблема заключается в самом понимании принципа сознания. Мы, люди, безусловно, считаем себя венцом природы, а свой мозг – абсолютной загадкой. Во многом это правда, о чем мы поговорим в следующей главе, но с точки зрения машинного обучения мы мало чем отличаемся от индивидуума в «китайской комнате». Раз человек может обучаться, почему бы и машинам не научиться учиться, как мы? Когда человеческий детеныш появляется на свет, он не владеет ни китайским, ни английским, ни русским, не понимает значения слова «красный» и словосочетания «сборная Германии». Он не в курсе, что такое «горячо» или «холодно» и уж точно не знает принципа неопределенности Гейзенберга. Но… он учится. Ребенок несколько лет получает огромное количество информации на вход (листки с иероглифами под дверью), а со стороны родителей и взрослых в целом, равно как и от собственной нервной системы, – подкрепление информации (условную маркировку): если он обжегся и ему больно, он запоминает, что открытый огонь небезопасен. Упал, ушибся, порезался – больно; значит, все, что к этому привело, небезопасно. Если мама говорит, что лезть ножницами в розетку небезопасно, значит, она имеет в виду, что будет больно. Больно – это плохо, не хочу. Так, постепенно, через многочисленные итерации, нейронная сеть мозга получает некую первичную картинку окружающей действительности, определяющую базовые реакции организма на мир – день, ночь, больно, приятно, комфортно, безопасно, вкусный зефир и мороженое… К этим маркерам «притягиваются» новые, связанные с ними, и происходит это в геометрической прогрессии – вчера ребенок не знал, почему небо синее, а сегодня уже задает вопрос о том, откуда берутся дети и он в частности. Если это не прогресс, то что? Родители говорят на определенном языке, что для мозга означает: каждый предмет, действие или абстракция «вкусно» маркируются неким вербальным маркером (звуком, что издает мама). В школе этот голосовой маркер отождествляют с письменным маркером, что позволяет не просто диктовать ответ «обратно под дверь», но и графически писать от руки, а не просто выбирать иероглиф из коробочки. Причем все эти «вкусно» и «радостно» тоже есть не что иное, как разновидность дополнительных маркеров-классификаторов для информации, формируемых на уровне гормонов.

И вот наш ребенок, который 10 лет назад мог только кушать, какать и кричать (не обязательно в такой последовательности), уже постоянно задает вопросы на вполне понятном вам языке, постоянно обогащает свою базу знаний, систему ценностей (хорошо/плохо), словарный запас, и… его уже не остановить! И все потому, что ему не просто совали записки с иероглифами под дверь, но одновременно давали тысячи пояснений к каждой из них, и все были детальными и связными. Мое мнение: человеческое сознание, безусловно, не чета современным нейронным сетям, но тем не менее оно – результат обучения нейронной сети нервной системы на входящих данных с глубокой разметкой и интерполяции уже полученных данных, не более. В каком-то смысле мы тоже машины. Просто, если вернуться к примеру с «китайской комнатой», детей мы учим, не просто просовывая иероглифы под дверь; мы даем им детальные описания, картинки, звуки, сладости (когда информацию надо закрепить), включаем в комнате ТВ-панель со всеми возможными знаниями и делаем еще тысячи вещей, чтобы ребенок учился быстрее. Если мы будем так же поступать с машинным сознанием, результат тоже изменится – ИИ начнет учиться и адаптироваться. С точки зрения описываемого подхода к сути жизни и ее разновидностей человек – это просто очень совершенная машина с конечным сроком годности.

Современный ИИ, безусловно, несовершенен с точки зрения человеческой нервной системы, но, в отличие от нас, срок годности машинного интеллекта неограничен. Рано или поздно при правильном обучении (прогрессирующая методика, не статика) и усовершенствовании технической базы, а конкретно парадигм программирования, квантовых компьютеров, серверов, способных обслуживать многоуровневые нейронные сети без расходования энергии в масштабах небольшой страны, как это делают Google, Apple, Facebook, IBM, Amazon сегодня, машины нас догонят. Так же, как нас догоняют собственные дети, а иногда (как, например, в случае с Эйнштейном и Ньютоном) еще и обгоняют. И произойти это может совершенно обыденно и в то же время неожиданно для человека, как в рассказе Клиффорда Саймака «Театр теней»[6].

Наконец, третья проблема противников возможности AGI, считающих этот тип ИИ невозможным, а саму мысль о нем абсурдной, в том, что в научном сообществе есть группа авторитетных экспертов с полярным мнением. То есть проблема скептиков и критиков AGI в том, что, какими бы умными они ни были, им придется считаться с не менее умными оппонентами. Значимость противодействия в научном сообществе, согласующегося с экспериментальными данными (пример: победа ИИ над человеком при игре в го, как и способность отличать кошек и собак на фото, считалась невозможной, однако практика показывает, что это не так), не стоит недооценивать, ибо отсутствие единства по вопросу безопасности технологии как минимум косвенно говорит о ее небезопасности. Еще на этапе подготовки к публикации работа Джона Серла вызвала критику со стороны 27 исследователей, чьи комментарии были также приведены в том же номере журнала. Речь не о постах в соцсетях, а о серьезных и аргументированных возражениях представителей научного сообщества. Сейчас таких работ более 950. То есть постулат «умные машины невозможны» разделяют не все эксперты. Возможность развития ИИ до уровня AGI и далее, до уровня ASI, полагал вполне вероятной, например, Стивен Хокинг, многократно предупреждавший об опасности и реальности ASI, а в интервью BBC в 2014 году он и вовсе сказал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы»[7]. Илон Маск много лет говорил об опасностях AGI и ASI, несмотря на регулярный троллинг в свой адрес. В интервью Джо Рогану он хорошо разъяснил свою позицию: «Мы просто загрузчик для ИИ – мы прокладываем ему дорогу… если принять весь интеллект за 100 %, сейчас количество искусственного интеллекта незначительно по сравнению с человеческим, но доля искусственного интеллекта растет. Скоро в общем объеме, мы, люди, будем составлять крайне незначительную часть»[8]. Я отношу себя к этой группе и разделяю опасения и Хокинга, и Маска, а сам факт появления ASI считаю исключительно вопросом времени – история полна примеров того, как жестоко ошибались даже великие люди в оценке перспектив того или иного направления. Великий британский физик Эрнест Резерфорд в сентябре 1933-го на заседании Британской ассоциации развития науки заявил: «Всякий, кто видит в превращении атома источник энергии, болтает чепуху», но не прошло и шести лет с момента его выступления, как Отто Ган и Фриц Штрассман открыли деление ядер урана, а еще через шесть лет на свет появилась атомная бомба, положив тем самым начало новой эпохе в истории человечества.

Возможно все. Просто надо вытащить свое сознание из коробки. На искусственный интеллект не стоит смотреть как на изолированный элемент в комнате, который тупо перекладывает бумажки. Он существует не в вакууме. Вместо этого представьте человечество и все, что мы производим, включая машины, в виде роя, муравейника, коллективного разума (ну или «Матрицы»). Сейчас в нашем рое есть интеллектуалы, ученые, прожигатели жизни, популярные блогерши, преступники, президенты стран и есть ноды искусственного интеллекта – точки, элементы роя, которые обслуживают только машины, не люди. Например, вы уже не знаете, как работает поиск по почтовому ящику, – это делает машина. Вы не представляете себе банковское приложение без службы поддержки, на которой первую линию всегда обслуживает машина, вы не умеете ездить в новые места без навигатора (мозг утратил эту способность и отдал ее машине), вы не в силах представить себе сложное устройство сотовой сети во всех деталях вроде идентификации абонентов, маршрутизации звонков, питания и еще множества вещей – ведь всем этим управляют машины. И мы постоянно учим их делать все больше работы и все лучше, ибо сами хотим делать все меньше, а желательно – вообще ничего. С таким подходом наш рой, коллективный разум постепенно будет «выращивать» все больше элементов под искусственным управлением. И однажды встанет простой вопрос: «А это чей вообще муравейник? Кто в нем главный?» И это так же очевидно, как и то, что потомок обезьяны, когда-то взявшей палку в руку, однажды ступит на Марс.

Не стоит списывать со счетов и тот факт, что отец-основатель компьютерной науки и понятия искусственного интеллекта в том виде, в котором оно употребляется на сегодняшний день, Алан Тьюринг считал, что машина рано или поздно сможет общаться с человеком на равных. И даже придумал так называемый тест Тьюринга, пройдя который, машина докажет, что неотличима от человека. Ни одна машина этот тест пока не прошла; вернее, были близкие прецеденты, но четкого мнения по вопросу нет: в 2014 году имел место кейс «Жени Густмана» – алгоритма, который, как заявлялось, формально прошел тест Тьюринга, так как смог убедить около трети судей в том, что он человек. Проблема в том, что сам Тьюринг описал критерии прохождения теста довольно туманно, не определяя долю обманутых собеседников-людей и ограничившись высказыванием, что «у среднего собеседника будет 70 % шансов определить, был ли его ИИ-собеседник человеком или машиной, после пятиминутного собеседования». Если критерий 70 %, то «Густман» не прошел. Главная же проблема в другом: успехи в прохождении теста Тьюринга мало связаны с приближением нас к AGI, ибо «Женя Густман» и все предыдущие претенденты на успешное прохождение теста всего лишь коммуникационные боты разной степени сложности, то есть они решают узкую задачу «обмануть человека, убедив его, что я не робот». Это может считаться версией ANI, но к AGI не имеет отношения.

Это натолкнуло многих на понимание узости подобного подхода к созданию ИИ. В настоящее время ведущие разработчики в области ИИ перестали ставить своей целью прохождение их детищами теста Тьюринга и сфокусировались в основном на изучении и описании самого понятия «разум». Они стремятся не просто скопировать поведение человека, а произвести на свет нечто имеющее именно зачатки разума, то есть сеть принятия решений, способную обучаться самостоятельно и менять свои представления о приоритетах, добре и зле не по указке сверху, а на основании получаемого опыта. Как ни странно, свою значимость и незаменимость на этом пути обнаружили другие науки, например нейробиология, психология (книга «Думай медленно… решай быстро»[9] нобелевского лауреата Даниеля Канемана никогда еще не была так актуальна), генетика, эволюционная биология и биоинформатика, так что сегодня ИИ пытаются создать не только математики или программисты. В их вселенной ИИ – это действительно «китайская комната», но, когда им помогают светила других наук, все меняется. И вопрос появления ASI – тоже, как ни странно, лишь вопрос времени.

ASI – это искусственный интеллект, который превосходит лучшего представителя людей в любой возможной области. Например, в математике ASI будет сильнее Григория Перельмана, в физике – умнее Альберта Эйнштейна (что представить даже страшно), в области инжиниринга и управления продуктом – совершеннее Илона Маска, в области борьбы за права человека (или машины?) – успешнее Харви Милка, Мартина Лютера Кинга и Александра Солженицына; еще он сможет писать книги лучше Льва Толстого, размышлять о Вселенной в разы увлекательнее, чем Митио Каку и Юваль Харари, снимать фильмы лучше Джеймса Кэмерона и да – готовить борщ лучше вашей бабушки. С появлением ASI, скорее всего, случится то, что предрекал коллега Тьюринга, британский математик Ирвинг Гуд, – это будет нашим последним изобретением. О возможностях суперинтеллекта и вероятных сценариях нашего сожительства с ним мы поговорим в заключительных главах. Сейчас же, когда мы понимаем типы ИИ, важно разобраться в том, где мы, человечество, находимся в том самом муравейнике и какую роль выполняем уже сейчас.

С точки зрения банальной индукции…

История науки знает множество несбывшихся прогнозов и предсказаний, но пальма первенства, несомненно, принадлежит французскому философу-позитивисту Огюсту Конту, в 1835 году приведшему в качестве примера вещи, недоступной для человеческого познания, вопрос о составе звезд: «Мы никогда и никоим способом не сможем изучить их химический состав и минералогическую структуру».

При этом его предсказание базировалось на прочном, как казалось, философском фундаменте: «Истинная наука, далеко не способная образоваться из простых наблюдений, стремится всегда по возможности избегать непосредственного исследования, заменяя последнее рациональным предвидением, составляющим во всех отношениях главную характерную черту положительной философии. Такое предвидение, необходимо вытекающее из постоянных отношений, открытых между явлениями, не позволит никогда смешивать реальную науку с той бесполезной эрудицией, которая механически накапливает факты, не стремясь выводить одни из других… Истинное положительное мышление заключается преимущественно в способности видеть, чтобы предвидеть, изучать то, что есть, и отсюда заключать о том, что должно произойти согласно общему положению о неизменности естественных законов»[10].

Злая ирония заключалась в том, что все «простые наблюдения», способные дать ключ к определению химического состава звезд, на тот момент были уже сделаны. В 1814 году баварский оптик Йозеф Фраунгофер, бившийся над задачей точного определения коэффициента преломления различных сортов стекол для разных длин световых волн, сконструировал спектроскоп, в котором свет, проходивший сквозь призму, разлагался в многоцветный спектр, и обнаружил, что в спектре излучения Солнца есть темные линии (их еще в 1802 году наблюдал английский физик Уильям Волластон, но решил, что это естественные контуры, обрамляющие цветные линии). В ходе исследований он выделил и описал в солнечном спектре 576 темных линий. Это диктовалось чисто практическими соображениями, ведь, изготавливая призмы спектроскопа из разных сортов стекла и замеряя расстояния между зафиксированными темными линиями, можно было определить показатель преломления для стекла для любой области спектра. Но Фраунгофер попутно обнаружил, что спектры других звезд, в частности Сириуса, обладают различным набором темных линий и что особенно четкая двойная темная линия солнечного спектра находится точно там же, где и яркая желтая двойная линия в спектре пламени масляной лампы. Следующий факт в копилку «бесполезной эрудиции» положил один из изобретателей фотографии Уильям Тальбот, в 1826 году обнаруживший, что при внесении в пламя солей различных металлов они дают различающиеся картины спектров.

Но лишь в 1859 году создатели спектрального анализа Роберт Бунзен и Густав Кирхгоф обнаружили, что каждый химический элемент не только испускает свет определенных спектральных частот, но и поглощает свет тех же длин волн от источника излучения, разогретого до более высоких температур. Загадка темных линий разрешилась – они появляются в результате поглощения части спектра веществом в поверхностных слоях Солнца, а обнаруженная Фраунгофером характерная двойная темная линия принадлежит натрию. Определение химического состава звезд было уже, как говорится, делом техники.

Эта история наглядно демонстрирует ограниченность индуктивного мышления, на которое опирался Конт в своих «рациональных предвидениях». Оно оперирует неким набором фактов (в случае предсказания Конта довольно произвольным и неполным), и результат определяется полнотой исходных данных. Искусственный интеллект в некотором роде индуктивная машина, результаты работы которой зависят от того, что называется big data, – данных на входе.

Загрузка...