Если да, то где гарантия, что люди, ведущие себя аналогично мне, не являются роботами-зомби, лишенными квалитативных состояний? Не опрометчиво ли я приписываю им состояния такого рода?
Чтобы ответить на эти вопросы, воспользуемся еще раз нашим главным аргументом в пользу интеракционизма. Присмотримся к поведению робота-зомби. Оно обусловлено исключительно его нынешним физическим состоянием — неважно, как он пришел к нему: мы убеждены, что физические системы могут по-разному приходить к своим наличным состояниям. Люди тоже могут приходить к своим наличным состояниям разными путями. Но эти пройденные ими пути откладываются в их субъективных воспоминаниях. Таким образом, реально возможно, что одинаковые в физическом смысле люди обладают разными субъективными воспоминаниями. Эти воспоминания фундируют содержание их убеждений и желаний. А из опыта мы знаем, что наши убеждения и желания скоррелированы с нашим поведением. Стало быть, реально возможно то, что совершенно одинаковые в физическом плане люди будут вести себя по-разному. А вот одинаковые в физическом плане роботы не могут вести себя по-разному, потому что кроме физического плана у них, согласно сделанному предположению, ничего нет. Значит, зомбиподобные роботы не могут вести себя так же, как ведут себя люди. А это равносильно тому, что если некий робот ведет себя как человек, то можно уверенно заключать, что ему присущи квалитативные ментальные состояния.
Этот вывод мог бы поставить точку в данном вопросе. Но ставить ее все же рано. Дело в том, что ему, как кажется, противоречат следствия одного из интереснейших мысленных экспериментов, придуманных философами XX в., — Китайской комнаты, сконструированной Джоном Сёрлом в 1980 г.[53]
Мысленный эксперимент Сёрла и основанный на нем Аргумент Китайской комнаты как раз и призваны были показать, что воспроизведения человеческого поведения материальной системой самого по себе недостаточно для заключения о наличии у этой системы внутреннего мира ментальных состояний. Поэтому мы должны внимательно посмотреть на его рассуждения.
Изначально Сёрл говорил не о поведении вообще, а о вербальном поведении, речи, симулируемой компьютером. Он исходил из знаменитого теста Тьюринга[54], согласно которому при невозможности отличения вербального поведения компьютера от поведения человека мы вправе утверждать, что компьютер мыслит — как человек. Но действительно ли это так?
Человеческое мышление, о котором мы судим по собственному опыту, сопровождается субъективным пониманием того, о чем мы мыслим и говорим. И Сёрл попробовал показать, что компьютер, симулирующий внешние проявления осмысленной человеческой речи, в действительности может быть лишен какого-либо субъективного понимания того, о чем он говорит. Чтобы доказать это, он предложил человеку встать на место компьютера. Представим, к примеру, что у нас имеется программа, позволяющая компьютеру осмысленно, т. е. по-человечески, отвечать на вопросы на понимание какого-то рассказа. Программа — это алгоритм, позволяющий преобразовывать данные, поступающие на вход системы, в которой она инсталлирована. Преобразование осуществляется исключительно на основе формальных характеристик этих исходных данных. Допустим также, что данные, поступающие на вход этого компьютера, это китайские иероглифы. То есть вопросы на понимание рассказа задаются на китайском языке. На китайском языке записан и сам рассказ. Наша программа на понятном нам языке позволяет ставить в соответствие входящим иероглифам (вопросам) другие иероглифы, которые являются внешне осмысленными ответами на поставленные вопросы.
Итак, мы занимаем место компьютера. Теперь мы сами будем исполнять программу. Мы будем смотреть, какие иероглифы поступают к нам (для наглядности и для соответствия условий мысленного эксперимента тесту Тьюринга Сёрл предлагает нам представить, что мы находимся в изолированной комнате и общаемся с окружающими через специальный терминал), с помощью программы находить им соответствия (в конечном счете программа и сводится к указанию разного рода соответствий между иероглифами) и передавать полученный результат на выход, т. е. за пределы нашей комнаты.
53