Выбрать главу

Допустим также, что мы не знаем китайского языка, т. е., в частности, не знаем, какие вещи, свойства и отношения обозначают различные иероглифы. В таком случае, несмотря на то что мы будем выдавать внешне осмысленные, т. е. «правильные», ответы на поступающие вопросы, мы не будем иметь представления, о чем идет речь в этих вопросах, в наших ответах и в самом рассказе. Ведь наши ответы будут определяться исключительно формальными характеристиками поступающих на вход иероглифов. Таким образом, если мы, став компьютерами, внешне осмысленно отвечающими на вопросы, не обретаем того понимания сути беседы, которое присутствовало бы у нас, если бы мы знали китайский язык и вели человеческий разговор, то логично заключить, что подобное понимание отсутствует и у самих компьютеров. А из этого следует, что внешне осмысленное речевое поведение компьютеров не свидетельствует о наличии у них специфически человеческого понимания.

Этот вывод, по-видимому, невозможно оспорить, но здесь возникает важный вопрос о границах его применимости. Будет ли он действовать по отношению к такому речевому поведению, при котором мы в принципе не сможем внешне отличить поведение компьютера от поведения человека (в ситуации с тем рассказом мы легко могли бы зафиксировать такое отличие, если бы задали компьютеру вопрос из какой-то другой области)? Будет ли он действовать в тех случаях, когда компьютер сможет проходить тест Тьюринга?

Сёрл считал, что ничто не мешает истолковать его аргумент именно так. Но подобное толкование может быть принято, лишь если будет показано, что описанная им система могла бы проходить тест Тьюринга. В самом деле, если Китайская комната не может проходить тест Тьюринга, т. е. если ее ответы, несмотря на их осмысленность, всегда можно будет отличить от ответов человека, то нет ничего удивительного в том, что мы не сможем с необходимостью приписывать ей специфически человеческого понимания.

Между тем доказательство того, что Китайская комната в ее изначальном виде не может проходить тест Тьюринга, отыскать несложно. Для демонстрации ее неработоспособности достаточно задать человеку в Комнате какой-нибудь индексикальный вопрос, т. е. вопрос, правильный ответ на который зависит от фактуального контекста. Можно, к примеру, заранее принести какой-то предмет в эту комнату и спросить, есть ли он в ней (условия эксперимента не запрещают этого). Или можно спросить: «Сколько сейчас времени?» Ясно, что в программе, имеющейся у человека-компьютера в этой комнате, не может быть заранее прописан правильный ответ на такой вопрос. Программист не может заранее знать, когда мы зададим его. Можно, правда, предположить, что такой ответ все же мог бы быть прописан, если бы программа была составлена всезнающим программистом. Но даже в этом случае нельзя было бы говорить о прохождении устройством, на котором она инсталлирована, теста Тьюринга, так как оно не смогло бы дать правильные ответы при других вопросах, отличных от тех, которые фактически задавались. Иными словами, оно давало бы правильные ответы случайно, тогда как прохождение теста Тьюринга предполагает, что правильные ответы даются неслучайно. Если игнорировать этот критерий, то можно будет утверждать, что тест Тьюринга может, к примеру, пройти и лототрон с иероглифами.

Если отбросить ситуацию с всезнающим программистом, то остается такой вариант: в программе может быть прописан какой-то осмысленный уход от ответа. Например, там может быть прописана такая реакция на вопрос о том, сколько сейчас времени: «У меня нет часов». Но дело в том, что тогда мы зададим другой вопрос: «Какой сейчас день недели?» и т. п.[55] Постоянные уклонения от прямых ответов на подобные вопросы вскоре со всей очевидностью покажут, что мы говорим с компьютером, а не с человеком.

Итак, Китайская комната в ее изначальной конструкции не может пройти тест Тьюринга. Можно, однако, внести в ее конструкцию некоторые изменения, которые сделают прохождение ею этого теста более вероятным. Можно поместить в Китайскую комнату робота. Этот робот будет снабжен специальной программой, которая позволит ему с помощью телекамеры и других устройств распознавать предметы, узнавать, сколько сейчас времени и т. п., и переводить полученные результаты в китайские иероглифы. Увидев иероглифы, означающие: «Есть ли в комнате воздушный шарик?» — человек-компьютер узнает с помощью своей программы, что этот вопрос надо переправить через особый терминал роботу (при этом он может и не знать, что он перенаправляет их именно роботу, и может не знать о его присутствии). Робот переводит вопрос на язык операционных команд, сканирует комнату, распознает воздушный шарик и выдает иероглифический ответ. Испытуемый перенаправляет этот ответ за пределы комнаты — он справился со своей задачей, хотя по-прежнему не понимает, о чем его спрашивали.

вернуться

55

 См. для дискуссии: Волков Д. Б. Бостонский зомби: Д. Деннет и его теория сознания. М., 2012. С. 86-88; Смирнов Е. В. Китайская комната, китайский робот и «системный ответ»: перспективы «сильного» искусственного интеллекта // Философия и культура. 2012. № 2. С. 101-108; Кузнецов А. В. Может ли кока-кола показать неэффективность аргумента Китайской комнаты против теста Тьюринга // Тест Тьюринга: Сборник статей научно-практической конференции. М., 2011. С. 92-97.