«Пусть каждый из трех предыдущих ответов, возможно, не является абсолютно убедительным в качестве опровержения контрпримера с китайской комнатой; но если вы объедините все три ответа, то вместе они гораздо более убедительны и даже бесспорны. Вообразите робота, в черепной полости которого встроен имеющий форму мозга компьютер; вообразите, что этот компьютер запрограммирован всеми синапсами человеческого мозга; вообразите далее, что все поведение робота неотличимо от человеческого поведения; и вот взгляните на всю эту штуку как на единую систему, а не просто как на компьютер с входами и выходами. Наверняка в этом случае мы должны были бы приписать нашей системе интенциональность».
Я полностью согласен, что в таком случае мы сочли бы, что рационально и даже неизбежно принятие гипотезы о том, что данный робот обладает интенциональностью, поскольку мы ничего больше не знали бы о нем. В самом деле, никакие иные элементы этой комбинации, кроме внешнего вида и поведения, не имеют значения. Если бы нам удалось построить робота, поведение которого было бы на протяжении крупного интервала времени неотличимо от человеческого поведения, мы атрибутировали бы ему интенциональность — до тех пор, пока не получили бы каких-либо оснований не делать этого. Нам не нужно было бы заранее знать, что его компьютерный мозг -формальный аналог человеческого мозга.
Но я действительно не вижу, как это могло бы помочь претензиям сильного AI, и вот почему. Согласно сильному AI, инстанциирование формальной программы с подходящими входом и выходом представляет собой достаточное условие интенциональности — и в сущности, конституирует интенциональность. Как говорит Ньюэлл (Newell 1979), сущность ментального заключается в оперировании некоей физической системой символов. Но то атрибутирование интенциональности роботу, которое мы совершаем в этом примере, не имеет ничего общего с формальными программами. Оно основывается просто на допущении, что если робот выглядит и действует в достаточной степени подобно нам, то мы предположили бы, — пока не доказано обратное, — что он должен иметь ментальные состояния, подобные нашим, причиняющие его поведение и выражаемые в этом поведении, и он должен иметь некий внутренний механизм, способный продуцировать такие ментальные состояния. Если бы мы независимым образом знали, как объяснить его поведение без таких допущений, мы бы не атрибутировали ему интенциональность, в особенности, если бы мы знали, что у него имеется формальная программа. А это как раз и есть сущность моего изложенного выше ответа на возражение 2.
|
Предположим, что мы знаем, что поведение робота полностью объясняется тем фактом, что некий человек, сидящий внутри него, получает неинтерпретированные формальные символы от сенсорных рецепторов робота и посылает неинтерпретированные формальные символы его двигательным механизмам, и человек этот совершает свои манипуляции с символам в соответствии с неким набором правил. Предположим далее, что данный человек не знает всех этих фактов о роботе; все, что он знает, — какие операции нужно совершать над тем или иным бессмысленным символом. В таком случае мы бы сочли робота хитроумно сконструированной механической куклой. Гипотеза о том, что эта кукла обладает сознанием, была бы теперь ничем не подкрепленной и излишней, ибо нет никаких оснований приписывать интенциональность этому роботу или системе, частью которой он является (кроме, разумеется, интенциональности человека при его манипулировании символами). Манипуляции с формальными символами продолжаются, выход правильным образом соответствует входу, но единственный действительный локус интенциональности — человек, сидящий в кукле, а он не знает ни одного из относящихся к делу интенциональных состояний; он, к примеру, не видит, что отражается в глазах робота, он не намеревается двигать рукой робота, и он не понимает ни одного из замечаний, которые делает робот или которые ему адресуются. И, по изложенным выше основаниям, ничего этого не делает та система, частями которой являются человек и робот. Чтобы понять это соображение, сопоставьте этот случай со случаями, в которых мы находим совершенно естественным приписывать интенциональность членам некоторых других видов приматов — например, обезьянам и таким домашним животным, как собаки. Оснований, по которым мы находим это естественным, грубо говоря, две: мы не можем понять поведение этих животных без приписывания им интенциональности, и мы видим, что эти звери сделаны из материала, похожего на тот, из которого сделаны мы сами: это — глаз, это — нос, а вот это — его кожа и так далее. При том, что поведение животного обладает связностью и последовательностью, а также при допущении, что в его основе лежит тот же самый каузальный материал, мы допускаем, что в основе поведения этого животного должны быть ментальные состояния, и эти ментальные состояния должны продуцироваться механизмами, сделанными из материала, подобного нашему материалу. Мы наверняка сделали бы такие же допущения о роботе, если бы у нас не было оснований не делать их, но раз мы узнали, что его поведение есть результат формальной программы и действительные каузальные свойства физического вещества не имеют к этому отношения, мы отбросили бы допущение об интенциональности. (См. Multiple authors 1978.)
|
Часто встречаются еще два ответа на мой пример (и поэтому заслуживают обсуждения), но на самом деле и они бьют мимо цели.