ОТВЕТ ОТ МОДЕЛИРОВАНИЯ РАБОТЫ МОЗГА (БЕРКЛИ И МАССАЧУСЕТССКИЙ ТЕХНОЛОГИЧЕСКИЙ ИНСТИТУТ)




 

«Предположим, мы построили программу, которая не репрезентирует информацию, имеющуюся у нас о мире, — вроде той информации, которая имеется в сценариях Шэнка, но которая моделирует действительную последовательность возбуждения нейронов в синапсах мозга настоящего носителя китайского языка, когда он понимает рассказы на китайском языке и дает ответы на них. Машина принимает на входе китайские рассказы и вопросы к ним, моделирует структуру настоящего китайского мозга, когда он информационно обрабатывает эти рассказы, и выдает на выходе китайские ответы. Мы можем даже вообразить, что эта машина оперирует не одной-единственной последовательно действующей программой, а целым набором параллельно действующих программ — подобно тому, как, видимо, функционирует настоящий мозг человека, когда он информационно обрабатывает естественный язык. И вот в этом случае мы наверняка должны были бы сказать, что наша машина понимает рассказы; а если мы откажемся признать это, то не должны ли мы будем также отрицать, что настоящие носители китайского языка понимают эти рассказы? На уровне синапсов чем отличались бы или чем могли бы отличаться программа компьютера и программа китайского мозга?»

Прежде чем излагать свои возражения на этот ответ, я хотел бы отвлечься и заметить, что этот ответ странен в устах сторонника искусственного интеллекта (или функционализма и т. д.): я-то думал, что вся идея сильного AI заключается в том, что для того чтобы знать, как работает сознание, нам не нужно знать, как работает мозг. Базовая гипотеза состояла в том (или, по крайней мере, я предполагал, что она состоит в том), что имеется некий уровень ментальных операций, состоящих из вычислительных процессов над формальными элементами, и этот уровень представляет собой сущность ментального, и он может быть реализован в самых разнообразных мозговых процессах — точно так же, как любая компьютерная программа может быть реализована с помощью самых разных аппаратных устройств: согласно допущениям сильного AI, сознание относится к телу как программа относится к аппаратному устройству компьютера, и стало быть, мы в состоянии понимать сознание, не занимаясь нейрофизиологией. Если бы для того чтобы заниматься искусственным интеллектом, нам нужно было бы предварительно знать, как работает мозг, то нам не к чему было бы и утруждать себя занятиями искусственным интеллектом. Однако даже если мы подойдем столь близко к работе мозга, этого не будет достаточно, чтобы продуцировать понимание. Дабы увидеть это, вообразите, что вместо одноязычного человека, сидящего в комнате и тасующего символы, у нас есть человек, который оперирует неким сложным набором шлангов, связанных друг с другом с помощью клапанов. Когда этот человек получает китайские символы, он сверяется в программе, написанной на английском языке, какие клапаны ему нужно открыть и какие закрыть. Каждое соединение шлангов соответствует некоему синапсу в китайском мозгу, и вся система устроена так, что после возбуждений всех нужных синапсов, т. е. после отворачивания всех нужных кранов, на выходе всей этой последовательности шлангов выскакивают китайские ответы.

Ну и где же в этой системе понимание? Она принимает на входе китайские тексты, моделирует формальную структуру синапсов китайского мозга и выдает китайские ответы на выходе. Но этот наш человек определенно не понимает китайского языка, и эти наши шланги не понимают китайского языка, и если мы соблазнились бы согласиться с взглядом, который я считаю нелепым, — именно взглядом, согласно которому каким-то образом обладает пониманием конъюнкция этого человека и шлангов, то вспомните, что в принципе человек может интериоризовать формальную структуру шлангов и проделывать все эти «возбуждения нейронов» в своем воображении. Проблема с моделированием работы мозга состоит в том, что моделируется не то в работе мозга, что нужно. Поскольку моделируется только формальная структура последовательности нейронных возбуждений в синапсах, то не моделируется та сторона функционирования мозга, которая как раз и имеет значение, именно: каузальные свойства мозга, его способность продуцировать интенциональные состояния. А то, что формальных свойств недостаточно для каузальных свойств, показывает пример с шлангами: здесь все формальные свойства налицо, но они отсечены от интересных для нас нейробиологических каузальных свойств.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2019-07-14 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: