Книга: Вселенная

Глава 39 Каково это — мыслить?

<<< Назад
Вперед >>>

Глава 39

Каково это — мыслить?

В романе Роберта Э. Хайнлайна «Луна жёстко стелет» колонисты-лунтики восстают против Главлуны. Их положение было бы практически безнадёжным, если бы не Майк — центральный компьютер, управлявший всеми основными автоматизированными процессами в большинстве лунных городов. Майк был не просто очень важной машиной — он совершенно спонтанно обрёл самосознание. Вот как это описывает рассказчик, Мануэль О’Келли Дэвис.

В мозгу у человека что-то около десяти в десятой нейронов. По третьему году в Майка нейристоров запичужили столько и ещё полстолько.

И он созрел.

Мануэль О’Келли Дэвис — наладчик компьютеров, не особенно задумывающийся о том, как у Майка пробудилось сознание и каковы глубинные причины этого. Совершается революция, она должна победить, а появление самосознания — вероятно, такая штука, которая всегда происходит с думающими устройствами, как только они становятся достаточно крупными и сложными.

Вероятно, в реальности всё несколько сложнее. В человеческом мозге много нейронов; но они не просто соединены как попало. У коннектомы есть структура, постепенно развившаяся под действием естественного отбора. Есть такая структура и в архитектуре компьютера как на программном, так и на аппаратном уровне, но представляется маловероятным, что подобная компьютерная архитектура может обрести самосознание просто по воле случая.

А что, если бы такое произошло? Как бы мы узнали, что компьютер именно думает, а не просто выполняет бездумные операции с числами? (И есть ли разница?)

* * *

Некоторыми из этих проблем ещё в 1950 году занимался британский математик и информатик Алан Тьюринг. Тьюринг описал так называемую игру в имитацию, более известную под названием «Тест Тьюринга». С восхитительной прямотой Тьюринг начинает статью словами: «Я собираюсь рассмотреть вопрос “Могут ли машины мыслить?”». Но сразу же решает, что подобный вопрос потонул бы в бесконечных спорах о терминологии. Поэтому, в лучших научных традициях, он отбрасывает этот вопрос и заменяет более прикладным: может ли машина беседовать с человеком таким образом, чтобы человек принял эту машину за другого человека? (Самые лучшие философские традиции с упоением увлекли бы нас в споры о терминологии). Тьюринг утверждал, что способность сойти за человека в таком испытании — разумный критерий, определяющий, что такое «думать».

Тест Тьюринга закрепился в нашем культурном лексиконе, и мы регулярно читаем новостные сюжеты о том, что та или иная программа наконец-то прошла тест Тьюринга. Пожалуй, в это сложно не поверить — ведь мы живём в окружении машин, которые рассылают нам электронную почту, управляют нашими автомобилями и даже говорят с нами. На самом деле ни один компьютер и близко не подобрался к прохождению настоящего теста Тьюринга. Те соревнования, о которых пишут в новостях, неизменно устроены так, чтобы собеседники не могли озадачить компьютер таким образом, как предполагал Тьюринг. Вероятно, когда-нибудь мы достигнем такого уровня, но современные машины не «думают» в тьюринговском понимании.

Когда и если нам удастся сконструировать такую машину, которая к почти всеобщему удовлетворению пройдёт тест Тьюринга, мы по-прежнему будем спорить о том, на самом ли деле машина «думает» именно так, как думает человек. Существует проблема сознания, а также смежная с ней проблема «понимания». Неважно, насколько умные беседы сможет вести компьютер, — вопрос в том, сможет ли он по-настоящему понимать, о чём говорит? Если речь зайдёт об эстетике или эмоциях, сможет ли программа, работающая на кремниевом транзисторе, оценить красоту или испытать скорбь, подобно человеку?

Тьюринг догадывался об этом и действительно выдвинул так называемое возражение с точки зрения сознания. Он довольно точно определил эту проблему как различие между точкой зрения «от третьего лица» (как мои действия воспринимают окружающие) и «от первого лица» (как я вижу и понимаю сам себя). Возражение с точки зрения сознания казалось Тьюрингу в конечном счёте солипсическим: единственный способ убедиться в том, что данный человек действительно мыслит, состоит в том, чтобы стать именно этим человеком. Как вы узнаете, что и другие люди в мире обладают сознанием, кроме как по их действиям? Тьюринг предвосхищал идею философского зомби — существа, выглядящего в точности как обычный человек, но не обладающего внутренним опытом, или квалиа.

Тьюринг считал, что, для того чтобы достичь прогресса в этом отношении, нужно сосредоточиться на решении вопросов, на которые можно объективно ответить, наблюдая мир, а не прикрываться рассуждениями о личном опыте, который по определению скрыт от стороннего наблюдателя. С долей очаровательного оптимизма он приходит к выводу о том, что любой, кто глубоко задумается об этих вещах, в конечном итоге с ним согласится: «Большинство из тех, кто поддерживает возражение с точки зрения сознания скорее откажутся от своих взглядов, чем признают солипсистскую точку зрения».

Однако можно утверждать, что о мышлении и сознании нельзя судить извне, но при этом признавать, что остальные люди, вероятно, обладают сознанием. Кто-то может подумать: «Я знаю, что у меня есть сознание, и другие люди похожи на меня, поэтому, вероятно, сознание есть и у них. Однако компьютеры на меня не похожи, поэтому к ним я могу относиться более скептически». Я не думаю, что такая точка зрения правильна, но логически она непротиворечива. Тогда возникает вопрос, на самом ли деле компьютеры настолько от нас отличаются? Правда ли, что такое мышление, которое происходит в моём мозге, качественно отличает его от компьютера? Главный герой Хайнлайна так не думает: «Не вижу никакой разницы, протеиновые это цепи или платиновые».

* * *

«Китайская комната» — это мысленный эксперимент, предложенный американским философом Джоном Сёрлем. Эксперимент призван заострить внимание на том, почему тест Тьюринга, возможно, не позволяет ухватить истинный смысл «мышления» или «понимания». Сёрль предлагает вообразить человека, запертого в комнате с огромными кипами бумаги, причём на каждом листе записан какой-либо китайский текст. В стене есть прорезь, через которую можно передавать листы бумаги, а также имеется набор инструкций в форме справочной таблицы. Человек говорит и читает по-английски, но ни слова не понимает по-китайски. Когда в комнату через прорезь просовывают лист бумаги с каким-то китайским текстом, человек может свериться с инструкциями и выйти на один из имеющихся у него листов бумаги. Затем передать этот лист обратно через прорезь.

Тестируемый даже не догадывается, что на попадающих в комнату листках — абсолютно разумные вопросы на китайском языке, а на тех бумажках, которые он по инструкции должен передавать обратно, — совершенно логичные ответы на китайском, которые мог бы дать обычный мыслящий человек. С точки зрения китайца, находящегося за пределами комнаты, всё выглядит именно так: он задаёт вопросы находящемуся в комнате носителю китайского языка, а тот отвечает ему по-китайски.

Но нам же понятно, говорит Сёрль, что в комнате нет никого, кто понимал бы китайский. Там есть только англоговорящий человек, кипы бумаги и исчерпывающий набор инструкций. По-видимому, комната позволяет пройти тест Тьюринга (на китайском языке), но о реальном понимании речь не идёт. Изначально Сёрль ставил перед собой цель исследовать искусственный интеллект, который, на его взгляд, никогда не смог бы достичь истинно человеческого уровня мышления. Компьютер, пытающийся пройти тест Тьюринга, подобен человеку в китайской комнате: он может манипулировать символами, создавая иллюзию понимания, но никакого реального осознания здесь нет.

Мысленный эксперимент Сёрля активно комментируют, как правило стараясь опровергнуть его точку зрения. Простейший контраргумент кажется вполне веским: разумеется, нельзя сказать, что человек в комнате понимает китайский, но китайский язык понятен совокупной системе «человек плюс набор инструкций». Как и Тьюринг с возражением от сознания, Сёрль предвидел появление этого аргумента и затронул его в своей оригинальной статье. Он был не слишком впечатлён:

Я имею в виду идею о том, что хотя индивид и не понимает китайского, но некое соединение индивида с листами бумаги китайский понять может. Мне сложно вообразить, что кто-то также может посчитать эту идею правдоподобной.

Как и во многих подобных мысленных экспериментах, первое условие Китайской комнаты — существование неких листов бумаги и пособия с инструкциями, позволяющими сымитировать человеческую коммуникацию, — это головная боль. Если в пособии буквально даётся всего один ответ на любой возможный вопрос, то комната никогда не пройдёт тест Тьюринга при контакте со сколь-нибудь компетентным собеседником-человеком. Рассмотрим такие вопросы: «Как дела?», «Почему вы так говорите?», «Не могли бы вы рассказать подробнее?». Многие человеческие беседы просто не строятся по принципу «предложение за предложением»; они зависят от контекста и от того, о чём шла речь раньше. На «листках бумаги» должен быть как минимум предусмотрен какой-то способ хранения информации, а также система для обработки информации, которая позволила бы интегрировать зафиксированную информацию в текущий разговор. Представить подобное вполне возможно, однако тогда мы получаем гораздо более сложную систему, нежели кипу бумаги и книгу с инструкциями.

С точки зрения Сёрля, неважно, какие элементы мы включим в данную «систему», — она в любом виде не позволит достичь понимания в полном смысле. Однако эксперимент с Китайской комнатой не позволяет однозначно аргументировать это утверждение. Он иллюстрирует точку зрения, согласно которой «понимание» — это концепция, не сводимая к обычной физической корреляции между вводом и выводом; понимание требует чего-то ещё, то есть такого смысла, в котором происходящее в системе действительно «описывает» обсуждаемую тему. С точки зрения поэтического натурализма «содержательность» не является неким метафизическим качеством, которым может обладать информация; это просто удобный способ рассуждения о корреляциях между различными элементами физического мира.

Используя Китайскую комнату для аргументации того, что машины не могут думать, мы уходим от вопроса, а не решаем его. Эксперимент порождает конкретную модель машины, которая якобы умеет думать, а затем ставится вопрос: «Вы что, считаете, что в этом случае о подлинном понимании речи не идёт, правда?». Наилучший ответ: «Почему бы и нет?».

Если мир — чисто физический, то под «пониманием» имеется в виду способ рассуждения о конкретной корреляции между информацией, локализованной в одной системе (воплощённой в конкретной совокупности материи), и условиями внешнего мира. Ничто в примере с Китайской комнатой не указывает на то, что мы должны думать именно так, если, конечно, мы уже не уверились в том, что не должны.

Здесь мы не пытаемся преуменьшить сложности, возникающие при попытке дать дефиницию «пониманию». В учебнике по квантовой теории поля содержится информация о квантовой теории поля, но сама книга не «понимает» своего предмета. Книга не может ответить на вопросы, которые мы могли бы ей задать, а также не может производить расчёты, пользуясь инструментарием теории поля. Понимание — это по факту более динамичная и процессно-ориентированная концепция, чем простое наличие информации, и сложная работа по формулировке аккуратной дефиниции для неё, несомненно, стоит затраченных усилий. Тем не менее, как указывал Тьюринг, нет никаких причин полагать, что такая сложная работа не может быть выполнена на чисто операционном уровне — в контексте того, как именно устроены вещи, без привлечения недосягаемых свойств («понимание», «сознание»), которые с самого начала обозначаются как абсолютно недоступные для наблюдения извне.

При помощи своего мысленного эксперимента Сёрль изначально пытался решить не проблему сознания (определить, что такое «сознавать» и «испытывать»), а проблему познания и интенциональности (определить, что такое «думать» и «понимать»). Однако эти проблемы тесно взаимосвязаны, и Сёрль позже сам обдумывал аргумент о том, что он якобы продемонстрировал невозможность наличия сознания у компьютерной программы. Такое расширение достаточно очевидно: если вы считаете, что заключённая в комнате система ничего не «понимает», то, вероятно, согласитесь, что она также ничего не сознаёт и не воспринимает.

* * *

Мысленный эксперимент с Китайской комнатой заставляет тех, кто считает сознание чисто физическим феноменом, оценить всю драматичность такого заявления. Даже если мы не претендуем на то, что у нас есть детально разобранное представление о сознании, мы должны попытаться чётко формулировать, какие сущности имеют право называться «сознательными». В случае с Китайской комнатой такой вопрос ставится относительно кипы бумаг и книги с инструкциями, но на самом деле это лишь образные способы рассуждения об информации и её обработке в компьютере. Если мы считаем «сознание» простым способом рассуждения о базовых физических явлениях, то в какие неудобные ситуации мы из-за этого попадаем?

Одна из систем, в сознательности которой мы, в общем, не сомневаемся, — это человеческое существо, в основном его мозг, но при желании можно учесть и тело. Человека можно представить как конфигурацию ста триллионов клеток. Если не существует ничего, кроме физического мира, то нам приходится считать, что сознание — это результат конкретных движений и взаимодействий всех этих клеток как между собой, так и с окружающим миром. Представляется, что важен не факт «клеточности» клеток — важны только их взаимодействия друг с другом, динамические закономерности, выстраиваемые ими в пространстве с течением времени. Здесь мы подходим к варианту множественной реализуемости на уровне сознания, иногда называемой «субстрат-независимостью»: паттерны сознательной мысли могут воплощаться в различных субстанциях.

И если это так, то все возможные сущности могут быть сознающими.

Допустим, мы берём один нейрон из вашего мозга и досконально изучаем всё, что он делает, пока не останется никаких вопросов. Мы точно знаем, какие сигналы он будет посылать в ответ на любые мыслимые входящие сигналы. Затем, не подвергая вас никаким иным изменениям, мы удалим этот нейрон и заменим его искусственным, который точно таким же образом обрабатывает весь ввод и вывод. Это будет «нейристор», как у хайнлайновского компьютера Майка с самосознанием. Однако в отличие от Майка вы почти полностью состоите из обычных биологических клеток, не считая одного заменённого нейрона. Вы по-прежнему обладаете сознанием?

Большинство ответит: да, человек, у которого один нейрон заменён равноценным нейристором, по-прежнему остаётся сознающим. А что, если заменить два нейрона? Или несколько сотен миллионов? Гипотетически все наши внешние действия не изменятся, по крайней мере в том случае, если мир является чисто физическим, а ваш мозг не зависит от вмешательства некой нематериальной души, которая вступает в контакт с органическими нейронами, но не с нейристорами. Человек, у которого все до одного нейроны будут заменены искусственными, действующими совершенно аналогично обычным нейронам, бесспорно, пройдёт тест Тьюринга. Сможем ли мы по-прежнему называть его «сознающим»?

Мы не можем доказать, что такая автоматизированная думающая машина будет обладать сознанием. Логически возможно, что, когда мы будем один за другим заменять нейроны, в какой-то момент случится фазовый переход, но мы не можем спрогнозировать, когда он произойдёт. Однако у нас нет ни доказательств, ни оснований полагать, что такой фазовый переход вообще существует. По Тьюрингу, если киборг, у которого есть как нейроны, так и нейристоры, действует ровно так же, как и обычный человеческий мозг, то мы должны согласиться с наличием у него сознания и всех сопутствующих качеств.

Ещё до того, как Джон Сёрль предложил эксперимент с Китайской комнатой, философ Нед Блок задумывался о возможности смоделировать мозг, взяв за основу всё население Китая. (Почему все выбирают Китай, ставя такие мысленные эксперименты, — подумайте сами.) В мозге гораздо больше нейронов, чем людей в Китае или даже во всём мире, но по меркам мысленного эксперимента это несущественная помеха. Если толпа людей будет обмениваться сообщениями друг с другом, в точности имитируя электрохимические сигналы человеческой коннектомы, можно ли будет трактовать такую совокупность, как «сознание»? Существует ли такой смысл, в котором человеческая популяция — как коллектив, а не как сумма личностей — могла бы обладать внутренним опытом и пониманием?

Допустим, мы картировали человеческую коннектому не только в определённый момент времени, но и в том виде, как она развивается на протяжении жизни. Затем — поскольку мы уже ввязались в столь безнадёжно далёкие от жизни мысленные эксперименты — допустим, что мы записали абсолютно все моменты из жизни человека, в которые сигнал проходит по синапсу. Сохраним всю эту информацию на жёстком диске или запишем её на немыслимо огромном числе листов бумаги. Будет ли эта запись мыслительных процессов индивида как таковая обладать «сознанием»? Требуется ли нам в самом деле развиваться во времени либо статическое представление человеческого мозга в развитии позволит уловить сущность сознания?

* * *

Эти примеры слегка вычурные, но наглядные. Да, если воспроизвести процессы, происходящие в мозге на материале совершенно иной субстанции (будь то нейристоры или люди), то полученный результат определённо должен трактоваться как сознание. Однако если вывести эти процессы на печать и зафиксировать на каком-либо статическом носителе, то никакого сознания не получится.

С точки зрения поэтического натурализма, говоря о сознании, мы не открываем какого-то фундаментального вида материи, существующего во Вселенной. Случай отличается от поиска вируса, вызывающего известное заболевание, когда мы точно знаем, что ищем, и просто хотим зафиксировать вирус нашими приборами, чтобы описать, что он собой представляет. Концепции «сознание» и «понимание», подобно «энтропии» и «теплоте», — из разряда таких, которые мы изобретаем, чтобы получить более полезные или эффективные описания мира. Определять, что концептуально представляет собой сознание, мы должны в зависимости от того, даёт ли нам такая трактовка удобный способ рассуждения о мире, строго согласующийся с данными и подсказывающий, что происходит на самом деле.

На определённом уровне может проявляться множественная реализуемость. Большинство отдельных атомов и многие клетки человеческого организма ежегодно заменяются эквивалентными атомами или клетками — организм напоминает корабль Тесея. Однако не все — так, считается, что атомы зубной эмали перманентно находятся на своих местах. Но ваша индивидуальность определяется тем, каким паттернам подчиняются ваши атомы, какие действия они в совокупности совершают, а не от конкретных свойств каждого атома как самостоятельной частицы. Представляется логичным, что и сознание должно обладать таким же свойством.

И если мы формулируем определение сознания, то «поведение системы с течением времени», естественно, должно играть ключевую роль. Если в сознании и есть какой-либо абсолютно незаменимый элемент, то это должна быть способность к мышлению. Она, вне всякого сомнения, связана с эволюцией во времени. Наличие сознания также подразумевает какое-либо постижение окружающего мира и взаимодействие с ним соответствующим образом. Система, которая просто статично существует, сохраняя в каждый момент времени одинаковую конфигурацию, не может считаться сознательной независимо от уровня её сложности и что бы она собой ни представляла. Распечатка всего, что делает ваш мозг, не годится.

Допустим, вы попытались бы разработать эффективную теорию поведения человеческих существ, но совершенно не затрагивать при этом внутренних ментальных состояний. Таким образом, вы выступаете в роли старомодного бихевиориста: личность получает ввод, действует соответствующим образом — и никакого недоступного для наблюдения нонсенса, связанного с некой внутренней жизнью.

Если бы вы хотели сделать хорошую теорию, то в конце концов заново изобрели бы идею о внутренних ментальных состояниях. Одна из причин этого проста: органы чувств могут донести до вас вопрос: «Как ты?», а вы можете отреагировать так: «Честно говоря, мне сейчас немного муторно». Чтобы учесть такое поведение, проще всего представить себе, что существует ментальное состояние под названием «муторно» и что субъект в данный момент находится именно в таком состоянии.

Однако есть и другая причина. Даже если индивид совершает поступки, которые, на первый взгляд, не связаны с его ментальным состоянием, реальное человеческое поведение является исключительно сложным. Ситуация отнюдь не та, что в случае с двумя бильярдными шарами, которые сталкиваются на столе для пула — и вы можете уверенно спрогнозировать, что произойдёт далее, располагая минимальной информацией (угол удара, вращение, скорость и т. д.). Два разных человека или даже один и тот же человек в несколько разных обстоятельствах могут очень по-разному отреагировать на одинаковый «ввод». Удобнее всего объяснить такую ситуацию с привлечением внутренних переменных: в голове у человека что-то происходит, и нам следовало бы учесть эти процессы, если мы хотим достоверно спрогнозировать его поведение. (Если кто-то, хорошо вам известный, ведёт себя странно, помните: возможно, дело не в вас.)

Если бы мы уже не были знакомы с сознанием, то нам следовало бы его изобрести. Тот факт, что человек ощущает как своё внутреннее состояние, так и внешние стимулы, играет абсолютно ключевую роль в том, кто он такой и как себя ведёт. Внутренняя жизнь неотделима от внешних поступков.

В сущности, Дэниэл Деннетт говорит именно об этом, рассуждая об интенциональной установке. Во многих ситуациях удобно говорить, что у определённых сущностей как будто есть предпочтения и установки. Поэтому мы, что весьма разумно, рассуждаем таким образом — приписываем интенциональность всевозможным феноменам, поскольку она входит в состав теории, хорошо описывающей свойства этих феноменов. В принципе, мы только и делаем, что говорим в контексте «как будто», поскольку не существует метафизически очерченной содержательности, которая связывала бы различные части физического мира, — есть лишь отношения между различными материальными феноменами. В главе 35 мы обсуждали эмерджентность «цели», и точно так же мы можем говорить о намерениях, предпочтениях и сознательных состояниях как о концепциях, играющих ключевые роли в высокоуровневой эмерджентной теории, описывающей всё ту же базовую физическую реальность.

Тьюринг пытался зафиксировать в своей игре в имитацию идею о том, что наиболее важный аспект мышления — это реакция системы на стимулы, например на вопросы, которые выводятся в окне терминала. Полная аудио- и видеозапись человеческой жизни не обладала бы «сознанием», даже если бы нам удалось в точности зафиксировать всё, что человек успел сделать к настоящему моменту, поскольку такая запись не позволяла бы экстраполировать это поведение в будущее. Мы не могли бы задать будущему вопросы или контактировать с ним.

Многие программы, пытавшиеся пройти облегчённые версии теста Тьюринга, были наскоро состряпанными чатботами — простыми системами, которые могут сыпать заранее запрограммированными репликами на различные возможные вопросы. Их легко обхитрить не только из-за отсутствия у них подробных контекстуальных знаний о внешнем мире, которые есть у любого нормального человека, но и из-за того, что они даже не запоминают разговор, который ведут, а тем более не вплетают эти воспоминания в контекст дискуссии. Чтобы приобрести такие возможности, они должны были бы обладать внутренними ментальными состояниями, которые целостным образом зависели бы от всей истории бота, а также иметь возможность продумывать гипотетические ситуации из будущего, отличая при этом будущее от прошлого, себя от окружающей среды и реальность от вымысла. Как предполагал Тьюринг, та программа, которая действительно могла бы убедительно поддерживать разговор на человеческом уровне взаимодействия, действительно могла бы называться «думающей».

* * *

Синтия Брезел, инженер-робототехник из Массачусетского технологического института, поставила ряд экспериментов в области «социальной робототехники». Одним из её наиболее милых изделий является робот-кукла по имени Леонардо, корпус которого спроектировали специалисты из компании Stan Winston Studio, занимающейся разработкой спецэффектов и участвовавшей в подготовке знаменитых голливудских блокбастеров, таких, например, как «Терминатор» и «Парк юрского периода». Леонардо оснащён более чем шестью десятками миниатюрных двигателей, которые позволяют ему совершать разнообразные движения и обеспечивают богатую мимику — он весьма похож на Гизмо, персонажа из фильма «Гремлины» Стивена Спилберга.

Оказывается, мимика — очень полезный ресурс при общении с людьми. Мозг работает лучше, если находится в «теле».

Леонардо общался с исследователями из лаборатории Брезел, распознавал выражения их лиц и изображал мимику сам. Кроме того, в него была запрограммирована теория разума — он не только учитывал те знания, которые приобретал сам (информацию о том, что происходит перед Леонардо, записывали его глаза-видеокамеры), но и что-то узнавал от окружающих людей (имитировал их действия). Не все действия Леонардо были заранее запрограммированы; он изучил новые варианты поведения, общаясь с людьми, подражая жестам и реакциям, которые подмечал у других. Любой человек, ничего не зная о программной составляющей Леонардо, легко догадывался, доволен робот или грустит, страшно ли ему или он запутался — достаточно было понаблюдать за его мимикой.

Один наглядный эксперимент, поставленный с Леонардо, относился к классу задач на понимание ложных убеждений: следовало убедиться, что субъект понимает, что некто может придерживаться определённого убеждения, даже если оно ложно. (По-видимому, у человека такая способность развивается в возрасте около четырёх лет; дети младшего возраста искренне заблуждаются, считая, что все остальные смотрят на вещи точно так же, как и они). Леонардо увидел, как некто кладёт куклу Большая Птица в одну из стоящих перед ним коробок. Затем этот человек удаляется, а в комнату входит другой человек и перекладывает Большую Птицу из одной коробки в другую. Второй человек уходит, а первый возвращается. Леонардо достаточно умён, чтобы понять две вещи: во-первых, Большая Птица во второй коробке, а, во-вторых, первый человек «полагает», что она в первой.

Затем экспериментатор спрашивает: «Лео, как ты думаешь, где, на мой взгляд, лежит Большая Птица?». Это вопрос о метапознании, то есть мышлении о мышлении. Леонардо правильно указывает на первую коробку, согласно собственной модели об убеждениях экспериментатора. Однако, указывая на первую коробку, Леонардо также мельком поглядывает на вторую — он же знает, что кукла там. Такое поведение не было запрограммировано; робот усвоил его из общения с людьми.

Будь вы рыба, выползающая на сушу, либо робот, общающийся с экспериментаторами в лаборатории, вам пригодятся модели окружающего мира, учитывающие присутствие других живых существ, а также их модели мира. Осведомлённость о себе и других, умение поддерживать коммуникацию на нескольких уровнях — важные навыки для выживания в непростом мире.

<<< Назад
Вперед >>>

Генерация: 7.765. Запросов К БД/Cache: 3 / 0
Вверх Вниз