Выбрать главу

Теперь вернемся к вопросу, на который я обещал дать ответ. Предположим, что в первоначальном примере я понимаю английский и не понимаю китайского, и что машина, таким образом, не понимает ни того ни другого. Тем не менее, во мне может иметься нечто, что позволяет мне понимать английский, и отсутствовать нечто, позволившее бы мне понимать китайский. Нельзя ли дать эти свойства, какими бы они ни были, машине?

В принципе я не вижу причины, по которой мы не могли бы дать машине способности понимать китайский или английский, поскольку в некотором важном смысле наше тело с нашим мозгом и есть такая машина. Но я решительно возражаю против того, что мы могли наделить подобным свойством машину, чья деятельность определяется только в терминах вычислительных процессов в приложении к формальным символам — то есть машину, эквивалентную компьютерной программе. Я понимаю английский и обладаю другими формами интенциональности вовсе не благодаря тому, что являюсь воплощением компьютерной программы (вероятно, я являюсь воплощением целого ряда программ). Насколько я знаю, мое понимание объясняется тем, что я принадлежу к определенному типу организмов с определенной биологической (то есть физической и химической) структурой, и эта структура в определенных условиях каузально способна порождать восприятие, действие, понимание, обучение и другие интенциональные феномены. Часть смысла моих доводов в том, что только то, что обладает подобной каузальностью, способно порождать подобную интенциональность. Может быть, другие физические и химические процессы могут производить точно такое же действие; например, марсиане имеют интенциональность, хотя их мозги сделаны из другого материала. Это эмпирический вопрос, подобный вопросу о том, может ли фотосинтез осуществляться с помощью вещества, химически отличного от хлорофилла.

Основной смысл моего аргумента в том, что никакая чисто формальная модель сама по себе не будет достаточна для интенциональности, поскольку формальные свойства сами по себе не являются составляющими интенциональности и не имеют каузальных свойств, кроме свойства переходить к следующему формальному шагу в процессе работы машины. Любые другие каузальные свойства, которые может иметь данное воплощение формальной модели, не имеют прямого отношения к этой формальной модели, поскольку та же формальная модель может быть воплощена в механизме, не имеющем этих каузальных свойств. Даже если, по чудесному стечению обстоятельств, китайцы являются точным воплощением программы Шенка, мы можем снабдить той же программой англо-говорящих людей, водопроводные трубы или компьютеры, и никто из них не будет понимать китайского, несмотря на программу.

В работе мозга важен не призрак формальности, появляющийся благодаря последовательности синапсов, а действительные свойства этих последовательностей. Все доводы в пользу сильной версии ИИ, которые мне встречались, обводят тени, отброшенные когнитивными процессам, и затем утверждают, что эти тени и есть сами процессы.

В заключение я хочу сформулировать некоторые общие философские идеи, которые в неявной форме встретились в этом аргументе. Для ясности я сделаю это в форме вопросов и ответов, начав с классического вопроса:

“Может ли машина думать?”

Ответ на этот вопрос, разумеется, положительный. Мы и есть такие машины.

“Да, но может ли думать искусственная машина, созданная человеком?”

Если предположить, что возможно создать машину с нервной системой, нейронами с аксонами и дендритами и всем остальным, достаточно похожим на то, чем обладаем мы, ответ, очевидно, снова будет положительным. Если вы сможете повторить причины, вы сможете повторить и следствия. На самом деле возможно, что сознание, интенциональность и все остальное удастся получить, используя химические принципы, отличные от тех, на которых основан человек. Как я говорил, вопрос это чисто эмпирический.

“Хорошо, но может ли думать цифровой компьютер?”

Если под “цифровым компьютером” мы понимаем нечто, что может быть на определенном уровне верно описано как воплощение действующей компьютерной программы, то ответ снова будет положительным, поскольку мы сами — воплощение множества компьютерных программ, а мы способны думать.

“Но может ли нечто думать, чувствовать и так далее, всего лишь будучи компьютером с соответствующей программой? Может ли работа программы — верной программы, разумеется — быть достаточным условием возникновения понимания?”

Думаю, что это правильный вопрос, хотя обычно его путают с предыдущими. Ответ на него — отрицательный.

“Почему?”

Потому что сама по себе манипуляция формальными символами не обладает интенциональностью и не имеет смысла. Нельзя даже сказать, что это манипуляция символами, поскольку символы ничего в данном случае не символизируют. Говоря языком лингвистов, они обладают только синтаксисом, но лишены семантического наполнения. Кажущаяся интенциональность компьютеров находится в головах тех, кто их запрограммировал и использует, кто вводит некие данные и интерпретирует ответ.

Цель моего примера с китайской комнатой в том, чтобы показать, что как только в систему вводится компонент, действительно обладающий интенциональностью (человек) и снабженный формальной программой, мы видим, что формальная программа не несет никакой дополнительной интенциональности. В данном примере она ничего не добавляет к способности человека понимать китайский язык.

То самое свойство ИИ, которое казалось таким привлекательным — различение между программой и ее реализацией — оказывается роковым для гипотезы о том, что симуляция может быть идентичной копией. Различие между программой и ее реализацией на определенной аппаратуре повторяет различие между уровнем мышления и уровнем мозговой деятельности. Если бы нам удалось описать мыслительные процессы в виде формальной программы, возможно, удалось бы описать основные характеристики разума, не прибегая к интроспективной психологии или нейрофизиологии мозга. Однако уравнение “разум для мозга = программа для аппаратуры” имеет слабые стороны.

Например, одна и та же программа могла бы иметь любые странные воплощения, некоторые из которых не имели бы интенциональности. Так, Вайценбаум (1976, гл. 2) описывает в деталях, как можно сделать компьютер из рулона туалетной бумаги и горсти маленьких камешков. Точно так же, программа, понимающая китайский рассказ, может быть воплощена в системе водопроводных труб или в англо-говорящем человеке, не понимающем китайского языка. Камни, туалетная бумага, водопроводные трубы и тому подобные материалы не могут иметь интенциональности, поскольку ею может обладать только нечто, приводимое в действие теми же каузальными силами, что и мозг. С другой стороны, хотя англо-говорящий человек и обладает нужным для интенциональности аппаратом, легко увидеть, что зазубрив программу, он не добавит себе интенциональности, поскольку его понимание китайского не улучшится.

Во-вторых, программа чисто формальна, в то время как интенциональные состояния этим типом формальности не обладают. Они определяются своим содержанием, а не формой. Например, убеждение в том, что на улице дождь, определяется не как некая формальная структура, но как содержание мыслей, обладающее условием удовлетворения, направленностью (см. Сирл 1979) и тому подобными характеристиками. В действительности, само убеждение вообще не обладает формальной структурой в синтаксическом смысле, поскольку одно и то же убеждение может быть выражено множеством различных способов в различных языковых системах.

В-третьих, как я уже говорил, ментальные состояния и события являются продуктами деятельности мозга, в то время как программа — не результат деятельности компьютера.

Но если программы не являются составляющими ментальных процессов, почему такое количество людей убеждены в обратном?

На этот вопрос у меня нет ответа. Идея о том, что компьютерная модель может быть тождественна реальному объекту, сомнительна уже потому, что компьютер ни в коем случае не ограничен симуляцией ментальных процессов. Никто не полагает, что компьютерная симуляция пожара может сжечь окрестные постройки или что компьютерная модель ливня промочит присутствующих насквозь. Почему же тогда мы должны считать, что компьютерная симуляция понимания что-либо понимает на самом деле? Иногда говорят, что компьютер очень трудно научить чувствовать боль или любовь, но боль и любовь ничуть не сложнее познания и других ментальных процессов. Для симуляции требуются всего-навсего правильные входные и выходные данные и программа, которая превращает первые во вторые. Это все, что делает компьютер. Принимать симуляцию за идентичную копию в случае боли, любви и познания ошибочно так же, как в случае пожаров или ливней.