Выбрать главу

Хотя Сёрл специально не обсуждал возможность ответа Комнаты на индексикальные вопросы, он рассматривал вариант дополнения Комнаты роботом, полагая при этом, что мысленный эксперимент с Китайской комнатой ничем принципиально не отличается от мысленного эксперимента с Китайским роботом [56] (т. е. с Китайской комнатой, в состав которой входит робот).

Между тем два этих мысленных эксперимента существенным образом отличаются друг от друга. Главное отличие состоит в том, что человек в Китайской комнате знает всю ее программу, а человек в Китайском роботе — нет. В самом деле, человек в Китайском роботе не знает той части программы Китайской комнаты, которая позволяет входящему в ее состав роботу распознавать предметы. Но почему он не может знать ее? Согласно изначальным условиям мысленного эксперимента человек в Комнате знает всю ее программу — иначе эксперимент просто не имел бы смысла (ведь идея была в том, что человек полностью заменяет собой компьютер). Если Китайская комната действительно эквивалентна Китайскому роботу, то испытуемый должен знать всю программу и в Китайском роботе. Но представим, что он действительно узнает всю эту программу. В таком случае он узнает, с какими именно предметами (представленными в своих визуальных и других сенсорных характеристиках) соотносятся те или иные иероглифы. Если в программе это не прописано, робот не сможет распознать эти предметы. Понятно, что робот распознает предметы по каким-то формальным чертам их облика. Но, в конце концов, и люди распознают предметы, ориентируясь на их внешний вид.

Значит, узнав всю программу Китайского робота, человек в Комнате придет к уяснению семантических аспектов иероглифов, которые как раз и задаются через отношение последних к вещам. Но, узнавая эти семантические аспекты, он неизбежно начнет понимать китайский язык в человеческом смысле: одной из особенностей человеческого понимания является то, что оно не ограничивается синтаксисом и является семантически нагруженным.

Таким образом, корректное истолкование Китайской комнаты приводит к выводу, противоположному тому, к которому ведет нас Сёрл: если у Китайской комнаты вообще есть шанс пройти тест Тьюринга, то человек в этой Комнате неизбежно начинает понимать китайский язык. А поскольку человек в этой Комнате просто подменяет компьютер, то можно сказать, что из мысленного эксперимента Сёрла вытекает, что и компьютер, который в принципе мог бы пройти тест Тьюринга, должен мыслить в чем-то как человек.

Осторожность моих выражений связана с тем, что, хотя мы можем уверенно говорить о наличии у Китайского робота семантического понимания, характерного и для человека, мы не можем говорить о том, что этот робот с необходимостью должен обладать субъективным осознанием семантических отношений. Между тем субъективное осознание этих отношений составляет не менее, если не более, важный момент человеческого понимания. Мысленный эксперимент с Китайской комнатой не позволяет ответить на вопрос, будет ли у робота, проходящего тест Тьюринга, субъективное осознание семантики. Дело в том, что эвристических ресурсов Китайской комнаты недостаточно для решения этой проблемы. Ее главный прием — заступание на место компьютера — здесь не срабатывает. Хотя человек, находящийся в Китайском роботе, и обретает субъективное понимание китайского языка, из этого нельзя делать вывод, что его обретает и Робот без человека, так как субъективный аспект понимания изначально был присущ испытуемому и поэтому можно сомневаться, порождается ли он в Роботе или только привносится туда.

Мы, однако, уже разрешили этот вопрос, использовав наш аргумент в пользу интеракционизма. Он, правда, был выстроен так, что речь шла не об одинаковости вербального поведения и, соответственно, не о стандартном тесте Тьюринга, а об одинаковости поведения вообще, а значит, о прохождении тотального теста Тьюринга[57], но это не имеет большого значения (если робот-зомби не может пройти тотальный тест Тьюринга, то он не сможет пройти и стандартный тест: он не сможет описывать человеческое поведение так, как его может описывать человек, — иначе он мог бы и вести себя как человек). И мы заключили, что прохождение тотального теста Тьюринга гарантирует наличие у материальной системы квалитативных состояний.

вернуться

56

 См.: Searle J. R. Minds, brains, and programs // The Behavioral and Brain Sciences 3: 3 (1980). P. 417-424.

вернуться

57

 Cp.: Harnad S. Grounding symbols in the analog world with neural nets: A hybrid model 11 Think. 1993. № 2. P. 12-204