I. ОТВЕТ ОТ СИСТЕМ (БЕРКЛИ)




Джон СЁРЛ

СОЗНАНИЕ, МОЗГ И ПРОГРАММЫ[1]

 

Какую психологическую и философскую значимость следует нам приписать недавним усилиям по компьютерному моделированию познавательных способностей человека? Я считаю, что, отвечая на этот вопрос, полезно отличать «сильный» AI (как я это называю) от «слабого» или «осторожного» AI (Artificial Intelligence — Искусственный Интеллект). Согласно слабому AI, основная ценность компьютера в изучении сознания состоит в том, что он дает нам некий очень мощный инструмент. Например, он дает нам возможность более строгим и точным образом формулировать и проверять гипотезы. Согласно же сильному AI, компьютер — это не просто инструмент в исследовании сознания; компьютер, запрограммированный подходящим образом, на самом деле и есть некое сознание в том смысле, что можно буквально сказать, что при наличии подходящих программ компьютеры понимают, а также обладают другими когнитивными состояниями. Согласно сильному AI, поскольку снабженный программой компьютер обладает когнитивными состояниями, программы — не просто средства, позволяющие нам проверять психологические объяснения; сами программы суть объяснения.

У меня нет возражений против притязаний слабого AI, во всяком случае в этой статье. Мое обсуждение здесь будет направлено на притязания, которые я определил здесь как притязания сильного AI, именно: на притязание, согласно которому подходящим образом запрограммированный компьютер буквальным образом обладает когнитивными состояниями, и тем самым программы объясняют человеческое познание. Когда я далее буду упоминать AI, я буду иметь в виду сильный вариант, выраженный в этих двух притязаниях.

Я рассмотрю работу Роджера Шэнка и его коллег в Йейле (Schank and Abelson 1977), так как я знаком с ней больше, чем с другими подобными точками зрения, и потому что она представляет собой очень ясный пример того типа работ, которые я хотел бы рассмотреть. Но ничего в моем последующем изложении не зависит от деталей программ Шэнка. Те же аргументы приложимы и к SHRDLU Винограда (Winograd 1973), и к ELIZA Вейценбаума (Weizenbaum 1965), и, в сущности, к любому моделированию феноменов человеческой психики средствами машин Тьюринга.
Очень коротко, опуская разнообразные детали, можно описать программу Шэнка следующим образом: цель программы — смоделировать человеческую способность понимать рассказы. Для способности людей понимать рассказы характерно, что люди способны отвечать на вопросы о данном рассказе даже в тех случаях, когда даваемая ими информация не выражена в рассказе явным образом. Так, например, представьте, что вам дан следующий рассказ: «Человек зашел в ресторан и заказал гамбургер. Когда гамбургер подали, оказалось, что он подгорел, и человек в гневе покинул ресторан, не заплатив за гамбургер и не оставив чаевых». И вот если вас спросят: «Съел ли человек гамбургер?», вы, видимо, ответите: «Нет, не съел». Точно так же, если вам предъявят следующий рассказ: «Человек зашел в ресторан и заказал гамбургер; когда гамбургер подали, он ему очень понравился; и покидая ресторан, он перед оплатой по счету дал официантке большие чаевые,» и спросят: «Съел ли человек свой гамбургер?», вы, видимо, ответите: «Да, съел». И вот машины Шэнка могут точно так же отвечать на вопросы о ресторанах. В этих целях они обладают неким «представлением» («репрезентацией») той информации о ресторанах, какая бывает у людей и какая дает людям возможность отвечать на подобные вопросы, когда им предъявлен некий рассказ, вроде тех, что приведены выше. Когда машине предъявляют рассказ и затем задают вопрос, она распечатает такой ответ, какой мы ожидали бы от человека, которому предъявлен подобный рассказ. Приверженцы сильного AI утверждают, что в этой последовательности вопросов и ответов машина не только моделирует некую человеческую способность, но что, кроме того:

 

1. можно сказать буквальным образом, что машина понимает рассказ и дает ответы на вопросы;

2. то, что делают машина и ее программа, объясняет человеческую способность понимать рассказ и отвечать на вопросы о нем.

 

Мне, однако, представляется, что работа Шэнка [2] никоим образом не подкрепляет ни одно из этих двух утверждений, и я сейчас попытаюсь показать это.

Любую теорию сознания можно проверить, например, так: задаться вопросом, что бы это означало, что мое сознание на самом деле функционирует в соответствии с теми принципами, о которых данная теория утверждает, что в соответствии с ними функционируют все сознания. Приложим этот тест к программе Шэнка с помощью следующего Gedankenexperiment [3]. Представим себе, что меня заперли в комнате и дали некий массивный текст на китайском языке. Представим себе далее, что я не знаю ни письменного, ни устного китайского языка (так оно и есть на самом деле) и что я не уверен даже, что распознал бы китайский письменный текст в качестве такового, сумев отличить его, скажем, от японского письменного текста или от каких-нибудь бессмысленных закорючек. Для меня китайское письмо как раз и представляет собой набор бессмысленных закорючек. Представим себе далее, что вслед за этой первой китайской рукописью мне дали вторую китайскую рукопись вместе с набором правил сопоставления второй рукописи с первой. Правила эти на английском языке, и я понимаю их, как понял бы любой другой носитель английского языка. Они дают мне возможность сопоставить один набор формальных символов со вторым набором формальных символов, и единственное, что значит здесь слово «формальный», — то, что я могу распознавать символы только по их форме. Представьте себе теперь, что мне дали третью китайскую рукопись вместе с некоторыми инструкциями, — вновь на английском языке, — дающими мне возможность сопоставлять элементы этой третьей рукописи с первыми двумя, и эти правила учат меня, как в ответ на те или иные формальные символы из третьей рукописи выдавать определенные китайские символы, имеющие определенные очертания. Люди, которые дали мне все эти символы, называют первый текст «рукописью», второй — «рассказом», а третий — «вопросами», но я всех этих названий не знаю. Кроме того, они называют символы, которые я выдаю в ответ на третий текст, «ответами на вопросы», а набор правил на английском языке, который они дали мне, — «программой». Чтобы слегка усложнить эту историю, вообразите себе, что эти люди также дали мне некие рассказы на английском языке, которые я понимаю, и они задают мне вопросы на английском языке об этих рассказах, и я выдаю им ответы на английском языке. Представьте себе также, что после некоторого промежутка времени я так набиваю руку в выполнении инструкций по манипулированию китайскими символами, а программисты так набивают руку в писании программ, что при взгляде со стороны — то есть с точки зрения какого-либо человека, находящегося вне комнаты, в которой я заперт, — мои ответы на вопросы абсолютно неотличимы от ответов настоящих носителей китайского языка. Никто не сможет сказать, — если он видел только мои ответы, — что я ни слова не говорю по-китайски. Представим себе далее, что мои ответы на английские вопросы неотличимы от ответов, которые бы дали настоящие носители английского языка (как этого и следовало ожидать) — по той простой причине, что я и есть настоящий носитель английского языка. При взгляде со стороны, — с точки зрения какого-нибудь человека, читающего мои «ответы», — ответы на китайские вопросы и ответы на английские вопросы равно хороши. Но в случае китайских ответов, в отличие от случая английских ответов, я выдаю ответы, манипулируя неинтерпретированными формальными символами. Что же касается китайского языка, я веду себя попросту как компьютер; совершаю вычислительные операции на формальным образом определенных элементах. В том, что касается китайского языка, я есть просто инстанциация компьютерной программы.

И вот претензии сильного AI состоят в том, что программированный компьютер понимает рассказы и его программа в некотором смысле объясняет человеческое понимание. Но мы теперь можем рассмотреть эти претензии в свете нашего мысленного эксперимента.

1. Что касается первой претензии, мне кажется совершенно очевидным, что в данном примере я не понимаю ни одного слова в китайских рассказах. Мои входы и выходы неотличимы от входов и выходов носителя китайского языка, и я могу обладать какой угодно формальной программой, и все же я ничего не понимаю. По тем же самым основаниям компьютер Шэнка ничего не понимает ни в каких рассказах - в китайских, в английских, в каких угодно, поскольку в случае с китайскими рассказами компьютер — это я, а в случаях, где компьютер не есть я, он не обладает чем-то большим, чем я обладал в том случае, в котором я ничего не понимал.

2. Что касается второй претензии, — что программа объясняет человеческое понимание, - мы видим, что компьютер и его программа не дают достаточных условий понимания, поскольку компьютер и программа работают, а между тем понимания-то нет. Но, может быть, при этом создается хотя бы необходимое условие или делается существенный вклад в понимание? Одно из утверждений сторонников сильного AI состоит в том, что когда я понимаю некий рассказ на английском языке, я делаю в точности то же самое — или, быть может, почти то же самое, — что я делал, манипулируя китайскими символами. Случай с английским языком, когда я понимаю, отличается от случая с китайским языком, когда я не понимаю, просто тем, что в первом случае я проделываю больше манипуляций с формальными символами.

Я не показал, что это утверждение ложно, но в данном примере оно определенно должно казаться неправдоподобным. А той правдоподобностью, которой оно все же обладает, оно обязано предположению, будто мы можем построить программу, которая будет иметь те же входы и выходы, что и носители языка, и вдобавок мы исходим из допущения, что для носителей языка имеется такой уровень описания, на котором они также являются инстанциациями программы. На основе данных двух утверждений мы допускаем, что даже если программа Шэнка не исчерпывает всего, чтобы мы могли бы узнать о понимании, она, возможно, есть хотя бы часть этого. Я допускаю, что это эмпирически возможно, но пока никто не привел ни малейшего основания, чтобы могли полагать, что это истинно, мой пример наводит на мысль, — хотя, конечно, и не доказывает, — что компьютерная программа попросту не имеет никакого отношения к моему пониманию рассказа. В случае китайского текста у меня есть все, что может вложить в меня искусственный интеллект посредством программы, но я ничего не понимаю; в случае английского текста я понимаю все, но пока что нет никаких оснований думать, что мое понимание имеет что-то общее с компьютерными программами, т. е. с компьютерными операциями на элементах, определенных чисто формальным образом. Поскольку программа определена в терминах вычислительных операций на чисто формально определенных элементах, мой пример наводит на мысль, что эти операции сами по себе не имеют интересной связи с пониманием. Они наверняка не составляют достаточных условий, и не было приведено ни малейшего основания считать, что они составляют необходимые условия или хотя бы вносят какой-то существенный вклад в понимание. Заметьте, что сила моего аргумента состоит не просто в том, что различные машины могут иметь одни и те же входы и выходы при том, что их работа основана на разных формальных принципах, — дело вовсе не в этом. Дело в том, что какие бы формальные принципы вы ни закладывали в компьютер, они будут недостаточными для понимания, поскольку человек сможет следовать этим формальным принципам, ничего не понимая. Не было предложено никаких оснований, чтобы думать, будто такие принципы необходимы или хотя бы полезны, поскольку не было дано никаких оснований, чтобы думать, что когда я понимаю английский язык, я вообще оперирую с какой бы то ни было формальной программой.

Но что же все-таки имеется у меня в случае английских предложений, чего у меня нет в случае китайских предложений? Очевидный ответ состоит в том, что в отношении первых я знаю, что они значат, а в отношении вторых у меня нет ни малейшего представления, что они могли бы значить. Но в чем такое представление могло бы состоять и почему мы не могли бы снабдить им машину? Почему машина не могла бы узнать нечто такое обо мне, что означало бы мое понимание английских предложений? Я вернусь к этим вопросам позднее, но сначала хочу продолжить свой пример.

У меня были случаи представить этот пример некоторым людям, работающим в области AI, и, что интересно, они, по-видимому, оказались не согласны друг с другом, что считать правильным ответом на него. У меня скопилось поразительное разнообразие ответов, и ниже рассмотрю самые распространенные из них (классифицированные в соответствии с их географическим происхождением).

Но сначала я хочу упредить некоторые распространенные недоразумения насчет «понимания»: в ряде из этих дискуссий можно найти множество причудливых толкований слова «понимание». Мои критики указывают, что есть много различных степеней понимания; что «понимание» — это не простой двухместный предикат; что есть различные виды и уровни понимания, и часто даже закон исключенного третьего невозможно простым образом приложить к утверждениям формы «х понимает у»; что во многих случаях вопрос, понимает ли х у, оказывается вопросом нашего решения, а не простым фактическим вопросом и так далее. На все это я хочу ответить: «Конечно, конечно». Но все это не имеет никакого отношения к обсуждаемым вопросам. Имеются ясные случаи, в которых можно буквально говорить о понимании, и ясные случаи, в которых о нем нельзя говорить; и мне для моей аргументации в этой статье только и нужны эти два вида случаев [4]. Я понимаю рассказы на английском языке; в меньшей степени я понимаю рассказы по-французски; в еще меньшей степени я понимаю рассказы по-немецки; а по-китайски вообще не понимаю. Что же касается моего автомобиля и моей счетной машинки, то они вообще ничего не понимают; они не по этой части. Мы часто метафорически и аналогически атрибутируем «понимание» и другие когнитивные предикаты автомобилям, счетным машинам и другим артефактам, но такие атрибуции ничего не доказывают. Мы говорим: «Дверь знает, когда открываться, так как в ней есть фотоэлемент», «Счетная машинка знает (умеет, способна), как складывать и вычитать, но не делить» и «Термостат воспринимает изменения температуры». Очень интересно, на каком основании мы делаем такие атрибуции, и это основание связано с тем, что мы распространяем на артефакты нашу собственную интенциональность [5]; наши инструменты суть продолжения наших целей, и поэтому мы находим естественным приписывать им метафорическим образом интенциональность; но я считаю, что такие примеры не решают никаких философских вопросов. Тот смысл, в каком автоматическая дверь «понимает инструкции» посредством своего фотоэлемента, — это вовсе не тот смысл, в каком я понимаю английский язык. Если имеется в виду, что программированный компьютер Шэнка понимает рассказы в том же метафорическом смысле, в каком понимает дверь, а не в том смысле, в каком я понимаю английский язык, то этот вопрос не стоит и обсуждать. Но Ньюэлл и Саймон (1963) пишут, что познание, которое они атрибутируют машинам, есть в точности то познание, которое присуще людям. Мне нравится прямота этой претензии, и именно эту претензию я буду рассматривать. Я буду аргументировать, что в буквальном смысле слова программированный компьютер понимает ровно столько, сколько автомобиль и счетная машинка, то есть ровным счетом ничего. Понимание чего бы то ни было компьютером не просто частично или неполно (подобно моему пониманию немецкого языка); оно попросту равно нулю.

А теперь рассмотрим ответы:

I. ОТВЕТ ОТ СИСТЕМ (БЕРКЛИ)

 

«Это правда, что тот человек, который заперт в комнате, не понимает рассказа, но дело в том, что он всего лишь часть некоей цельной системы, и эта система понимает рассказ. Перед ним лежит гроссбух, в котором записаны правила, у него имеется стопка бумаги и чернила, чтобы делать вычисления, у него есть "банки данных" — наборы китайских символов. И вот понимание приписывается не просто индивиду; оно приписывается всей этой системе, частью которой он является».

Мой ответ теории систем очень прост: позвольте вашему индивиду интериоризовать все эти элементы системы. Пусть он выучит наизусть все правила из гроссбуха и все банки данных - все китайские символы, и пусть делает вычисления в уме. Тогда индивид будет воплощать в себе всю систему. Во всей системе не останется ничего, что он не охватил бы в себе. Мы можем даже отбросить комнату и допустить, что он работает под открытым небом. Все равно он абсолютно не понимает китайский язык, и тем более этот язык не понимает система, ибо в системе нет ничего, чего не было бы в нем. Если он не понимает, то система никаким образом не сможет понимать, ибо эта система — всего лишь часть его. На самом деле, мне неловко давать даже такой ответ представителям теории систем, ибо эта теория кажется мне слишком неправдоподобной, чтобы начинать с нее. Ее идея состоит в том, что если некий человек не понимает китайского языка, то каким-то образом объединение этого человека с листками бумаги могло бы понимать китайский язык. Мне нелегко вообразить себе, как вообще человек, не зашоренный некоей идеологией, может находить эту идею правдоподобной. И все же я думаю, что многие люди, связавшие себя с идеологией сильного AI, склонны будут в конечном счете сказать нечто очень похожее на это; поэтому давайте рассмотрим эту идею еще чуть-чуть подробней. Согласно одному из вариантов данного взгляда, если человек из примера с интериоризованной системой и не понимает китайского языка в том смысле, в каком его понимает носитель китайского языка (потому что, например, он не знает, что в этом рассказе упоминаются рестораны и гамбургеры и т. д.), все же «этот человек как система манипулирования формальными символами» на самом деле понимает китайский язык. Ту подсистему этого человека, которая ответственна за манипуляцию с формальными символами китайского языка, не следует смешивать с его подсистемой английского языка.

Таким образом, в этом человеке на самом деле оказываются две подсистемы: одна понимает английский язык, а другая — китайский, и «все дело в том, что эти две системы мало как связаны друг с другом». Но я хочу ответить, что не только они мало связаны друг с другом, но между ними нет даже отдаленного сходства. Та подсистема, которая понимает английский язык (допустим, что мы позволили себе на минуту разговаривать на этом жаргоне «подсистем») знает, что наши рассказы суть о ресторанах и поедании гамбургеров, она знает, что ей задают вопросы о ресторанах и что она отвечает на эти вопросы, используя все свои возможности, делая различные выводы из содержания рассказа, и так далее. Но китайская система ничего этого не знает. Тогда как английская система знает, что «hamburgers» указывает на гамбургеры, китайская под система знает лишь, что за такой-то загогулиной следует такая-то закорючка. Она знает только, что на одном конце вводятся различные формальные символы и ими манипулируют по правилам, записанным на английском языке, а на другом конце выходят другие символы. Весь смысл нашего исходного примера состоял в том, чтобы аргументировать, что такой манипуляции символами самой по себе недостаточно для понимания китайского языка в каком бы то ни было буквальном смысле, потому что человек может рисовать такую-то закорючку вслед за такой-то загогулиной, ничего не понимая по-китайски. И постулирование подсистем в человеке не составляет хорошего контраргумента, потому что подсистемы Для нас вовсе не лучше самого человека; они по-прежнему не обладают ничем таким, что хотя бы отдаленно напоминало то, чем обладает говорящий по-английски человек (или подсистема). В сущности, в описанном нами случае китайская подсистема есть попросту часть английской подсистемы — та часть, которая манипулирует бессмысленными символами в соответствии с правилами, записанными английском языке.

Спросим себя, какова основная мотивация ответа от теории тем; какие независимые основания имеются, как предполагается, утверждать, что агент должен иметь в себе некую подсистему, которая понимает (в буквальном смысле слова «понимать») рассказы на тайском языке? Насколько я могу судить, единственное основание стоит в том, что в нашем примере у меня имеются те же самые вход и выход, что у настоящих носителей китайского языка, и программа, приводящая от входа к выходу. Но вся суть наших примеров состояла в том, чтобы попытаться показать, что этого недостаточно для понимания — в том смысле слова «понимание», в каком я понимаю рассказы на английском языке, ибо человек, а стало быть, и набор систем, вместе составляющих человека, могут обладать правильной комбинацией входа, выхода и программы и все же ничего не понимать — в том относящемся к делу буквальном смысле слова «понимать», в каком я понимаю английский язык. Единственная мотивация утверждения, что во мне должна быть некая подсистема, понимающая китайский язык, состоит в том, что я имею некую программу и я успешно прохожу тест Тьюринга; я могу дурачить настоящих носителей китайского языка. Но мы как раз и обсуждаем, среди прочего, адекватность теста Тьюринга. Наш пример показывает, что может случиться так, что есть две «системы» — обе успешно проходят тест Тьюринга, но лишь одна из них действительно понимает; и никудышным контраргументом было бы сказать, что раз обе успешно проходят тест Тьюринга, обе должны понимать, поскольку это утверждение не согласуется с аргументом, гласящим, что та система во мне, которая понимает английский язык, обладает чем-то гораздо большим, чем та система, которая просто оперирует с китайским текстом. Короче говоря, ответ от теории систем попросту уклоняется от сути спора, неаргументированно настаивая на том, что данная система должна понимать по-китайски.

Кроме того, ответ от теории систем, по-видимому, ведет к таким последствиям, которые абсурдны по независимым от нашего спора основаниям. Если мы собираемся сделать вывод, что во мне имеется некие познание, на том основании, что у меня имеются вход и выход, а между ними — программа, то тогда, видимо, окажется, что все и всяческие некогнитивные подсистемы станут когнитивными. Например, на некотором уровне описания мой желудок занимается обработкой информации, и он инстанциирует сколько угодно компьютерных программ, но я так понимаю, что мы не хотели бы сказать, что мой желудок что-то понимает (ср. Pylyshyn 1980). Но если мы примем ответ от теории систем, то трудно видеть, как нам избежать утверждения, будто желудок, сердце, печень и т. д. суть понимающие подсистемы, ибо нет никакого принципиального способа отличать мотивацию утверждения, что китайская подсистема обладает пониманием, от утверждения, что желудок обладает пониманием. Не будет, кстати, хорошим ответом на это, если мы скажем, что китайская система имеет на входе и выходе информацию, а желудок имеет на входе пищу и на выходе продукты пищеварения, ибо с точки зрения агента, с моей точки зрения, информации нет ни в пище, ни в китайском тексте; китайский текст — это попросту скопище бессмысленных закорючек. В случае китайского примера информация имеется только в глазах программистов и интерпретаторов, и ничто не может помешать им толковать вход и выход моих пищеварительных органов как информацию, если они этого пожелают.

Это последнее соображение связано с некоторыми независимыми проблемами в сильном AI и имеет смысл отвлечься на минуту, чтобы разъяснить их. Если сильный AI хочет быть отраслью психологии, он должен уметь отличать действительно ментальные системы от тех, что ментальными не являются. Он должен отличать принципы, на которых основывается работа сознания, от принципов, на которых основывается работа нементальных систем; в противном случае он не даст нам никаких объяснений того, что же такого специфически ментального в ментальном. И дистинкция «ментальное — нементальное» не может зависеть только от точки зрения внешнего наблюдателя — она должна быть внутренне присущей самим системам; иначе любой наблюдатель имел бы право, если бы пожелал, трактовать людей как нементальные феномены, а, скажем, ураганы — как ментальные. Но очень часто в литературе по AI эта дистинкция смазывается таким образом, что в конечном счете это смазывание может оказаться фатальным для претензий AI быть когнитивным исследованием. Маккарти, например, пишет: «Можно сказать, что такие простые машины, как термостаты, обладают убеждениями (beliefs), и обладание убеждениями присуще, кажется, большинству машин, способных решать задачи» (McCarthy 1979). Всякий, кто считает, что сильный AI имеет шанс стать теорией сознания, должен поразмыслить над импликациями этого замечания. Нас просят принять в качестве открытия, сделанного сильным AI, что кусок металла на стене, употребляемый нами для регулирования температуры, обладает убеждениями в точности в том же самом смысле, в каком мы, наши супруги и наши дети обладают убеждениями, и более того — что «большинство» других машин в комнате: телефон, магнитофон, калькулятор, выключатель лампочки — также обладают убеждениями в этом буквальном смысле. В цели данной статьи не входит аргументировать против замечания Маккарти, так что я просто без аргументации выскажу следующее.

Исследование сознания начинается с таких фактов, как то, что люди обладают убеждениями, а термостаты, телефоны и счетные машинки не обладают. Если вы получаете теорию, отрицающую этот факт, то это означает, что вы построили контрпример данной теории, и она ложна. Создается впечатление, что те люди, работающие в AI, которые пишут такие вещи, думают, что могут легко отбросить их, ибо на самом деле не принимают их всерьез, и они не думают, что другие примут их всерьез. Я же предлагаю принять их всерьез — хотя бы на минуту. Поразмыслите напряженно в течение одной минуты, что именно необходимо, дабы установить, что вот этот кусок металла, висящий на стене, обладает настоящими убеждениями: убеждениями с направлением соответствия, пропозициональным содержанием и условиями выполнимости; убеждениями, могущими быть сильными или слабыми; нервными, тревожными или безмятежными убеждениями; догматическими, рациональными или суеверными убеждениями; слепой верой или сомневающимся познанием; убеждениями какого угодно рода. Термостат — не кандидат на обладание такими убеждениями. Равно как и желудок, печень, счетная машинка или телефон. Однако раз мы принимаем эту идею всерьез, заметьте, что истинность его была бы фатальной для претензий сильного AI быть наукой о сознании. Ибо теперь сознание — повсюду. Мы-то хотели узнать, чем отличается сознание от термостатов и печеней. И если бы Маккарти оказался прав, сильный AI не имел бы надежды сообщить нам это.

ОТВЕТ ОТ РОБОТА (ЙЕЙЛ)

 

«Предположим, мы написали программу, отличную от программы Шэнка. Предположим, мы поместили компьютер внутрь некоего робота, и этот компьютер не просто воспринимал бы формальные символы на входе и выдавал бы формальные символы на выходе, а на самом деле руководил бы роботом так, что тот делал бы нечто очень похожее на сенсорное восприятие, хождение, движение, забивание гвоздей, еду и питье — в общем, все что угодно. Этот робот, к примеру, имел бы встроенную телекамеру, которая давала бы ему возможность «видеть», он имел бы руки и ноги, которые давали бы ему возможность «действовать», и все это управлялось бы его компьютерным «мозгом». Такой робот, в отличие от компьютера Шэнка, обладал бы настоящим пониманием и другими ментальными состояниями».

Первое, на что следует обратить внимание в ответе от робота, вот что: этот ответ молчаливо соглашается с тем, что понимание — вопрос не только манипуляций с формальными символами, ибо этот ответ добавляет некий набор причинных отношений с внешним миром. Но ответ на ответ от робота заключается в том, что добавление таких «перцептуальных» или «моторных» способностей ничего не добавляет к исходной программе Шэнка в том, что касается понимания в частности или интенциональности вообще. Чтобы увидеть это, обратите внимание на то, что тот же самый мысленный эксперимент приложим и к случаю с роботом. Предположим, что вместо того чтобы помещать компьютер внутрь робота, вы помещаете меня внутрь комнаты, и — как и в первоначальном случае с китайскими текстами — вы даете мне еще больше китайских символов с еще большим количеством инструкций на английском языке насчет того, как сопоставлять одни китайские символы с другими и выдавать китайские символы вовне. Предположим далее, что некоторые китайские символы, приходящие ко мне от телекамеры, встроенной в робота, и другие китайские символы, которые выдаю я, служат для того, чтобы включать моторы, встроенные в робота, так чтобы двигались ноги и руки робота, но я ничего этого не знаю. Важно подчеркнуть, что я делаю только одно — манипулирую формальными символами: я не знаю никаких дополнительных фактов. Я получаю «информацию» от «перцептивного» аппарата робота и выдаю «инструкции» его моторному аппарату, ничего этого не зная. Я — гомункулус этого робота, но в отличие от традиционного гомункулуса, я не знаю, что происходит. Я не понимаю ничего, кроме правил манипулирования символами. И вот в этом случае я хочу сказать, что у нашего робота нет никаких интенциональных состояний; он двигается просто в результате функционирования своей электросхемы и ее программы. И более того, инстанциируя эту программу, я не имею никаких интенциональных состояний соответствующего рода. Я только следую инструкциям о манипулировании формальными символами.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2019-07-14 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: