Книга: Эволюция разума

Глава одиннадцатая Критика

<<< Назад
Вперед >>>

Глава одиннадцатая

Критика

Если машина окажется неотличима от человека, нам придется относиться к ней с тем же уважением, что и к человеку, — нам придется признать, что у нее есть разум.

Стивен Харнад[168]

Наиболее важным источником возражений против моего тезиса о законе ускорения отдачи и его применения к расширению человеческого разума является линейная природа человеческого мышления. Как я уже рассказывал, все сотни миллионов распознающих модулей новой коры обрабатывают информацию одновременно. Один из результатов такой организации коры заключается в том, что будущее мы можем предвидеть только линейным образом, и поэтому критики применяют линейный интуитивный подход к оценке экспоненциальных явлений.

Подобные возражения я называю «критикой из-за недоверия»: экспоненциальные прогнозы кажутся невероятными по той причине, что наша предсказательная способность имеет линейный характер. Один из создателей компании Microsoft Пол Аллен (род. в 1953 г.) и его коллега Марк Гривс недавно озвучили некоторые из подобных возражений в статье «Сингулярность еще не близка», опубликованной в журнале Technology Review[169]. Хотя здесь я буду отвечать именно на возражения Аллена, они являются типичными для критиков тех тезисов, которые я выдвигаю в отношении будущих исследований в области мозга. В заголовке своей статьи Аллен апеллирует к моей книге «Сингулярность уже близка», однако цитирует он только статью, которую я написал в 2001 г. («Закон ускорения отдачи»). Более того, в его статье не признаются и не рассматриваются аргументы, действительно изложенные мной в книге. К сожалению, это часто происходит с критиками моих работ.

Когда в 1999 г. вышла книга «Эпоха духовных машин», а за ней в 2001 г. та статья, это вызвало несколько критических замечаний следующего толка: закону Мура приходит конец; возможности железа могут изменяться экспоненциально, но программное обеспечение отстает; мозг слишком сложен; в мозге слишком много такого, что нельзя воспроизвести с помощью компьютеров, и т. д. Книгу «Сингулярность уже близка» я написал в том числе для того, чтобы ответить на эти возражения.

Я не могу сказать, что Аллен и другие критики обязательно должны были поверить моим аргументам, но они, по крайней мере, могли ответить на мои рассуждения. Аллен пишет, что «закон ускорения отдачи (ЗУО)… не является физическим законом». Я же утверждаю, что большинство научных законов — не физические законы, а являются результатом проявлений множества событий на более примитивном уровне. Классический пример — законы термодинамики. Если рассмотреть математические закономерности в основе этих законов, мы увидим, что каждая частица ведет себя случайным образом, так что по определению мы не можем предсказать, где она окажется в следующий момент времени. Но при этом общие свойства газов вполне предсказуемы с большой степенью точности, в соответствии с законами термодинамики. И то же самое относится к закону ускорения отдачи: каждый технологический проект развивается непредсказуемым образом, но общая траектория, выраженная в терминах цены — производительности и емкости, тем не менее идет по совершенно предсказуемому закону.

Если бы компьютерные технологии развивались лишь усилиями нескольких ученых, прогресс этих технологий действительно был бы непредсказуем. Однако здесь функционирует большая динамическая система конкурирующих проектов, что определяет параметр цены — производительности (например, выраженный в объеме информации в секунду в расчете на один доллар). И процесс этот следует гладкой экспоненциальной зависимости, начиная с американской переписи населения 1890 г., о чем я писал в предыдущей главе. Хотя теоретические основы ЗУО подробно изложены в книге «Сингулярность уже близка», мной и другими исследователями проведено множество эмпирических наблюдений.

Аллен пишет: «Подобные „законы“ работают лишь до тех пор, пока не перестают работать». Однако здесь он путает отдельные парадигмы с общим направлением развития информационных технологий. Если проанализировать процесс создания радиоламп все более и более мелкого размера (одна из парадигм в рамках общего проекта развития компьютерных технологий в 1950-х гг.), мы действительно увидим, что процесс этот развивался до своего логического конца. Но когда конец приблизился, исследователи переключились на другие направления. Дальнейший экспоненциальный рост поддерживался за счет технологии транзисторов, и это привело к пятой парадигме (закону Мура) и последовательному сокращению размеров интегральных схем. Закону Мура постоянно предсказывают конец. Международный план по развитию полупроводниковой технологии (ITRS) предусматривает переход на 7-нм технологию в начале 2020-х гг.[170] На этом этапе ключевые элементы схем будут составлять в толщину 35 атомов углерода, и дальше сокращать их размер станет сложно. Однако компания Intel и другие производители схем уже обдумывают первые шаги шестой парадигмы (трехмерных вычислений), которая позволит поддержать экспоненциальные изменения параметров цены — производительности. По прогнозам компании Intel, трехмерные схемы станут главным направлением исследований на протяжении десятилетия; трехмерные транзисторы и 3D-память уже стали реальностью. Эта шестая парадигма будет поддерживать ЗУО в отношении цены — производительности компьютеров в последующие годы, пока компьютеры за тысячу долларов не станут в триллионы раз мощнее человеческого мозга[171]. (Кажется, мы сходимся с Алленом во мнении, что именно такой уровень вычислительной техники необходим для функциональной симуляции человеческого мозга.)[172]

Далее Аллен приводит стандартный аргумент, заключающийся в том, что развитие программного обеспечения не успевает за экспоненциальным развитием компьютерного оборудования. В книге «Сингулярность уже близка» я подробно останавливался на этом вопросе и приводил разные методы оценки сложности и емкости программ, которые подтверждают-таки наличие экспоненциального роста[173]. В одном недавнем исследовании («Доклад президенту и Конгрессу относительно будущего цифровых технологий: исследования на федеральном уровне и развитие сетей и информационных технологий»), представленном Президентским экспертным советом по науке и технологии, говорится следующее.

«Еще более удивительным — и гораздо менее оцененным — фактом является то, что во многих областях повышение производительности за счет улучшения алгоритмов намного опережает значительное повышение производительности за счет ускорения работы процессоров. Используемые сегодня алгоритмы для распознавания речи, перевода разговорной речи, игры в шахматы и логистического планирования значительно эволюционировали за последние десять лет… Вот лишь один пример, приведенный профессором Мартином Грётшелем из Музея Конрада Цузе. Профессор Грётшель, эксперт в области оптимизации, замечает, что для решения задачи планирования в 1988 г. с помощью линейных алгоритмов и компьютеров того времени потребовалось бы 82 года. Через 15 лет, в 2003 г., ту же задачу можно было бы решить за одну минуту, что быстрее примерно в 43 млн раз. При этом примерно тысячекратное ускорение было бы достигнуто за счет повышения скорости процессоров, а фактор 43 тыс. объясняется усовершенствованием алгоритмов! Грётшель также отмечает 30 000-кратное улучшение алгоритмов смешанного целочисленного программирования в период между 1991 и 2008 гг. Создание и анализ алгоритмов, а также анализ вычислительной сложности задач являются важнейшими направлениями исследований в компьютерной области».

Обратите внимание, что упомянутое Грётшелем линейное программирование — тот математический метод, который используется для оптимального распределения ресурсов в таких иерархических системах памяти, как обсуждавшиеся выше иерархические скрытые модели Маркова. В книге «Сингулярность уже близка» я привел множество подобных примеров[174].

Что касается искусственного интеллекта, Аллен, как и многие другие критики, не признают способностей Ватсона. Многие из этих критиков практически ничего о Ватсоне не знают, кроме того, что это некая компьютерная программа (хотя и действующая на 720 процессорах). Аллен пишет, что подобные Ватсону системы «остаются хрупкими, пределы их возможностей строго определены их внутренними установками и алгоритмами, они не могут обобщать и часто дают бессмысленные ответы в тех областях, которые выходят за рамки их специфической области знаний».

Прежде всего, такое же замечание можно сделать и в отношении людей. Я также замечу, что «специфические области знаний» Ватсона включают в себя всю информацию, содержащуюся в «Википедии», а также много других баз данных, что составляет весьма широкий спектр. Ватсон владеет большим объемом человеческих знаний и способен воспринимать различные формы речи, включая каламбуры, шутки и метафоры, относящиеся практически к любой области человеческой деятельности. Он не идеален, но и люди не идеальны, однако он достаточно хорош, чтобы обыгрывать лучших игроков в «Джеопарди!»

Аллен пишет, что Ватсон был собран учеными, объединившими свои специфические знания в узких областях. Но это неправда. Хотя некоторые знания Ватсона были запрограммированы напрямую, значительную часть информации он раздобыл сам, изучая документы на человеческом языке, например «Википедию». В этом заключается его главная сила, а также в его способности понимать сложно сформулированные вопросы викторины «Джеопарди!», но знания свои он получил сам, читая литературу.

Как я уже упоминал выше, многие критики Ватсона сходятся на том, что его функция основана на определении статистической вероятности, а не на «истинном» понимании. Многие понимают это так, что Ватсон просто статистическим образом перебирает последовательности слов. На самом деле в случае Ватсона под «статистической информацией» подразумеваются коэффициенты распределения и символические связи в таких самоорганизующихся моделях, как иерархические скрытые модели Маркова. Точно так же «статистической информацией» можно назвать распределение концентрации нейромедиаторов и избыточность образов в человеческой новой коре. На самом деле неясные вопросы мы разрешаем во многом тем же способом, что и Ватсон, — путем рассмотрения вероятности различных интерпретаций той или иной фразы.

Аллен продолжает: «Любая структура [мозга] тщательно оттачивалась на протяжении миллионов лет эволюции для выполнения конкретной функции. Он не похож на компьютер, в котором содержатся миллиарды идентичных транзисторных ячеек памяти, контролируемых центральным процессором и некоторыми другими элементами. В мозге каждая отдельная структура и каждая нервная цепочка вырабатывалась под действием эволюции и внешних факторов в индивидуальном порядке».

Идея о том, что каждая структура и каждая нервная цепочка мозга уникальна и создана по отдельному проекту, просто несостоятельна, поскольку означает, что для проектирования мозга понадобились бы сотни триллионов байт информации. Структурный план мозга (а также всех других отделов тела) содержится в геноме, и в самом мозге нет никакой дополнительной структурной информации. Замечу, что эпигенетическая информация (например, пептиды, контролирующие экспрессию генов) лишь немного дополняет объем генетической информации. Объем содержащейся в мозге информации значительно увеличивается в процессе обучения и приобретения опыта, однако то же самое можно сказать и о системах ИИ, таких как Ватсон. В книге «Сингулярность уже близка» я показал, что после обратимого сжатия (за счет массивной избыточности генома) объем структурной информации генома составляет около 50 млн байт, и примерно половина этой информации (то есть около 25 млн байт) относится к мозгу[175]. Это нелегко, но это такой уровень сложности, с которым мы можем работать, и он проще, чем многие современные компьютерные системы. Кроме того, значительная часть из этих 25 млн байт генетической информации касается биологических потребностей нейронов, а не алгоритмов обработки информации.

Как же на основании лишь десятков миллионов байт структурной информации возникают 100 или 1000 трлн контактов нейронов в мозге? Понятно, что ответ кроется в значительной избыточности мозга. Руководитель исследовательской группы в компании IBM Дхармендра Модха пишет: «Нейроанатомы нашли не безнадежно спутанную, случайную сеть, полностью уникальную для мозга каждого человека, а повторяющиеся структуры внутри каждого мозга и большое сходство между разными видами… Потрясающее природное свойство реконфигурации дает надежду на то, что ключевые алгоритмы процессов в нейронах не зависят от специфической сенсорной или моторной модальности и что многие наблюдаемые вариации структуры коры отражают более тонкую настройку канонических цепей; на самом деле именно эти канонические цепи мы и хотим создать с помощью обратного проектирования»[176].

Аллен указывает на неизбежность существования «тормоза, ограничивающего прогресс в понимании человеческого мозга и воспроизведении его возможностей», на основании представлений о том, что каждый из 100 или 1000 трлн контактов в человеческом мозге создан по индивидуальному плану. Тут спутаны представления о том, что есть лес, а что деревья. Если вы хотите изучить, смоделировать, симулировать и воссоздать поджелудочную железу, вам не нужно воссоздавать или симулировать каждую органеллу в каждой клетке островков поджелудочной железы. Вам нужно понять механизм функционирования одной такой клетки и ее участие в контроле уровня инсулина, а затем распространить эти знания на группу аналогичных клеток. Для островковых клеток этот алгоритм абсолютно ясен. Сейчас проходят тестирование искусственные ткани поджелудочной железы, созданные на основе этой функциональной модели. Безусловно, в мозге значительно больше сложности и вариаций, чем в более или менее однородных клетках островков поджелудочной железы, но и здесь имеет место значительная повторяемость функций, как я уже неоднократно подчеркивал.

Критикам, придерживающимся той же точки зрения, что и Аллен, присуще свойство, которое я называю «научным пессимизмом». Исследователи, занимающиеся созданием нового поколения технологии или моделированием нового научного направления, неизбежно сталкиваются с таким огромным набором проблем, что если кто-нибудь скажет им, как будет выглядеть эта технология примерно через десять поколений, у них глаза вылезут на лоб. Один из пионеров в области создания интегральных схем недавно напомнил мне происходившую 30 лет назад борьбу за сокращение размера микросхемы от 10 до 5 микрон (от 10 000 до 5000 нм). Ученые понимали, что смогут решить эту задачу, но если бы кто-то предсказал, что однажды мы будем иметь микросхемы толщиной меньше одного микрона (1000 нм), большинство из ученых, сконцентрированных на своих сиюминутных задачах, подумали бы, что это абсолютно невозможно. Аргументами были хрупкость схем такого размера, тепловые эффекты и т. д. А сегодня Intel использует 22-нм чипы.

Примерно такие же пессимистические комментарии сопровождали и реализацию проекта «Геном человека». Проект длился около 15 лет, за первую половину этого срока был проанализирован лишь 1 % генома, и критики указывали на невозможность повышения скорости секвенирования генома без нарушения тонких генетических структур. Однако благодаря экспоненциальному росту памяти, а также показателя цены — производительности через семь лет проект был завершен. Проект по обратному проектированию человеческого мозга продвигается аналогичным образом. Например, еще совсем недавно мы получили возможность с помощью неинвазивных методов сканирования в реальном времени наблюдать за тем, как образуются и возбуждаются отдельные контакты между нейронами. Многое из того, о чем я рассказывал выше, стало возможно совсем недавно благодаря подобным достижениям.

Аллен описывает мою идею об обратном проектировании человеческого мозга просто как сканирование мозга для понимания его тонкой структуры с последующей симуляцией всего мозга «вверх дном» без детального понимания его методов обработки информации. Но я предлагаю совсем другое. Нам действительно нужно подробно изучить, как работают отдельные типы нейронов, а затем собрать информацию о соединении функциональных модулей. А дальше функциональные методы, выведенные на основе этих данных, будут направлять развитие разумных систем. Грубо говоря, мы ищем биологические методы, способные ускорить исследования в сфере ИИ, которые пока во многом продвигаются без серьезного прорыва в понимании того, как аналогичную функцию выполняет мозг. На основе собственного опыта по распознаванию речи могу сказать, что работа сильно продвинулась, когда мы поняли, как мозг подготавливает и трансформирует звуковую информацию.

Дифференцировка повторяющихся структур мозга реализуется в процессе обучения и приобретения опыта. При сегодняшнем положении дел в сфере ИИ компьютерные системы тоже могут учиться на собственном опыте. Самодвижущиеся машины Google обучаются на своем водительском опыте, а также на данных машин Google, управляемых людьми. Ватсон получил большую часть информации за счет самостоятельного чтения. Интересно отметить, что математические принципы методов, заложенных в основу функционирования систем ИИ, очень близки соответствующим принципам функционирования новой коры.

Еще одно часто высказываемое возражение против возможности создания «сильного» ИИ (искусственного интеллекта на уровне человеческого разума и выше) заключается в том, что человеческий мозг активно использует аналоговые методы, а цифровые методы не могут воспроизводить плавные изменения параметров, доступные для воспроизведения аналоговыми методами. Это верно, что с помощью одного бита информации нельзя описать сложную зависимость, однако многобитные слова легко отражают множество значений, причем с любой степенью точности. Это постоянно происходит в цифровых компьютерах. А вот точность аналоговой информации в мозге (например, синаптический потенциал) составляет лишь один уровень из 256 возможных, которые могут быть представлены 8 битами информации.

В девятой главе я приводил доводы Роджера Пенроуза и Стюарта Хамероффа, касающиеся микротрубочек и квантовых вычислений. Вспомните, они утверждают, что микротрубочки нейронов осуществляют квантовые вычисления, а в компьютерных системах этого добиться нельзя. В этом заключается принципиальное отличие и, по-видимому, превосходство человеческого мозга. Я прокомментировал, что пока нет никаких доказательств того, что микротрубочки нейронов осуществляют квантовые вычисления. Человек на самом деле очень плохо решает такие задачи, которые не представляют никакой сложности для квантовых компьютеров (например, факторизация больших чисел). Но, если идеи Пенроуза и Хамероффа окажутся верны, ничто не мешает нам использовать квантовые вычисления в наших компьютерах.

Джон Серль знаменит, в частности, тем, что придумал мысленный эксперимент, называемый «китайская комната» (я подробно описывал его в книге «Сингулярность уже близка»[177]). Если говорить кратко, речь идет о человеке, который в письменном виде получает вопросы на китайском языке и отвечает на них. Для этого он пользуется сложной книгой правил. Серль утверждает, что человек не знает китайского языка и действует «неосознанно» (то есть не понимает смысла ни вопроса, ни ответа), хотя и отвечает на вопросы по-китайски. Серль сравнивает эту ситуацию с компьютером и приходит к выводу, что компьютер, который отвечает на вопросы по-китайски (и проходит тест Тьюринга на китайском языке), как и человек в китайской комнате, по-настоящему не понимает языка и не осознаёт, что делает.

В аргументах Серля есть несколько философских трюков. Например, человека из мысленного эксперимента сравнивают только с центральным процессором компьютера. Можно сказать, что центральный процессор не имеет реального представления о том, что он делает, но это лишь часть общей системы. В китайской комнате всю систему составляют человек и его книга правил. И эта система в целом понимает китайский язык, иначе она не могла бы убедительно отвечать на вопросы по-китайски, а это нарушило бы условие мысленного эксперимента Серля.

Притягательность этого эксперимента связана с тем, что сегодня нам трудно приписать компьютерной программе такие атрибуты, как истинное понимание и сознание. Однако слабость аргумента в том, что точно такие же рассуждения можно применить собственно к человеческому мозгу. Каждый распознающий модуль (вообще говоря, каждый нейрон и каждый его компонент) следует определенному алгоритму. Здесь действуют молекулярные механизмы, подчиняющиеся природным законам. Если считать, что следование алгоритму — процесс неосознанный и не требующий реального понимания, придется заключить, что человеческий мозг тоже не обладает этими способностями. Используйте аргумент Серля и замените слова «манипуляция символами» словами «манипуляция межнейронными контактами и синаптическими потенциалами», и вы получите убедительный аргумент в пользу того, что человеческий мозг по-настоящему ничего не понимает.

Еще одна линия аргументации связана с сущностью самой природы, которая является святыней для многих наблюдателей. Например, новозеландский биолог Майкл Дентон (род. в 1943 г.) усматривает глубокое различие между принципами строения машин и биологических систем. Дентон характеризует биологические существа как «самоорганизующиеся, самореплицирующиеся, взаимовыгодные, самообучающиеся и целостные»[178]. Он утверждает, что такие биологические формы могут быть созданы только в биологических процессах, являются «неизменной… недостижимой и… фундаментальной» реальностью бытия и поэтому относятся принципиально к другой философской категории, нежели машины.

Однако реальность, как мы видели, такова, что машины могут быть созданы на основе тех же принципов. Изучение специфики структуры самого разумного создания природы — человеческого мозга — как раз и является задачей исследований в области обратного проектирования мозга. Кроме того, неверно, что биологические системы полностью «целостны», как утверждает Дентон. Впрочем, было бы ошибкой заявить, что машины обязательно должны иметь модульное строение. В природных системах, особенно таких, как мозг, мы с очевидностью идентифицируем иерархические функциональные структуры. И системы ИИ используют аналогичные методы.

Мне кажется, многие критики не удовлетворятся до тех пор, пока компьютеры не смогут в обычном порядке проходить тест Тьюринга, но, возможно, даже этого окажется недостаточно. Наверняка начнут возникать сомнения в пригодности соответствующих тестов Тьюринга. Возможно, сам я буду среди критиков, отвергающих подобные ранние заявления. К тому моменту, когда появятся доказательства способности компьютеров проходить тест Тьюринга, компьютеры уже долгое время будут превосходить невооруженный человеческий разум.

Я делаю акцент на слове «невооруженный», поскольку вооружение, усиление человеческого разума — именно та цель, которую мы преследуем при создании этих «детей разума», как называет компьютеры Ганс Моравек[179]. Сочетание распознавания образов на уровне человеческих возможностей со скоростью и точностью компьютеров приведет к созданию очень мощных машин. Однако это не будет нашествием вражеского марсианского разума: мы создаем эти машины, чтобы сделать умнее самих себя. Я верю, что большинство людей согласятся со мной, что именно в этом заключается уникальная способность человеческого существа: мы создаем эти машины, чтобы расширить наши собственные возможности.

<<< Назад
Вперед >>>

Генерация: 0.401. Запросов К БД/Cache: 3 / 1
Вверх Вниз