Выбрать главу

Отчет Сёрла весьма содержателен: он позволяет уяснить, почему его статья 1980 г. имела такой большой резонанс[111]. В этой статье поначалу действительно идет речь лишь о частном случае программной эмуляции когнитивных способностей — и Сёрл без труда показывает, что при этом сохраняются громадные различия искусственного и человеческого интеллекта. Но там же Сёрл дает понять, что считает возможным обобщить свой анализ на все случаи подобной эмуляции[112]. Таким образом ему удалось добиться мощного эффекта переноса очевидностей частного случая на его глобальный вывод о том, что естественный интеллект не работает как программа.

Чтобы разобраться, имел ли он право на такие обобщения, ненадолго углубимся в детали. Как мы только что слышали, Сёрл ознакомился с программами, обеспечивающими видимость понимания компьютером рассказов. Человеческое понимание всегда контекстуально, и если мы слышим рассказ о том, что человек зашел в ресторан и через час покинул его, оставив чаевые, то мы понимаем больше того, что буквально сказано. К примеру, если спросить нас, съел ли этот человек заказанную им сусину с икрой морского ежа (сам Сёрл скромно пишет о гамбургере, но я хотел бы приспособить его иллюстрации к российской специфике), то мы без колебаний ответим «да». Программа, эмулирующая понимание, должна отвечать на подобные вопросы. И в принципе такую программу можно написать, задавая контекст, на который будут накладываться вводимые данные. Но можно ли сказать, что компьютер, снабженный этой программой, действительно будет понимать рассказ? Сёрл убедительно показывает, что это не так. Но прежде он оговаривается, что подразумевает под программой алгоритм формальной обработки символов, без учета их возможной интерпретации — с такими синтаксическими программами и работают классические компьютеры.

Так вот, программу, понимающую некий рассказ, может «исполнить» и человек. При этом совершенно неважно, на каком языке будет этот рассказ, хоть на китайском, как и допускает Сёрл. Лишь бы этот человек знал — и это знание дает имеющаяся у него или заученная им программа, — какие именно символы выдавать в ответ на поступающие вопросы, в которых его интересуют опять же только символы, т. е. формальная сторона. Заучивший такую программу человек будет полным аналогом компьютера, эмулирующего понимание рассказа. Со стороны — наблюдателю, который находится вне Китайской комнаты, где сидит наш испытуемый, — будет казаться, что тот понимает рассказ. Но в действительности он не будет иметь никакого представления, о чем же идет речь в этом самом рассказе.

Отсюда следует, говорит Сёрл, что компьютер, выполняющий программу по эмуляции человеческого интеллекта, не может рассматриваться как аналог этого интеллекта, так как эта эмуляция происходит без какого бы то ни было реального понимания, характерного для нашего интеллекта. А это, в свою очередь, означает, что человеческий интеллект не есть программа, выполняемая на нейронном компьютере мозга. Тем самым, по мнению Сёрла, он опровергает концепцию «сильного искусственного интеллекта» (ИИ), согласно которой наличие сознания эквивалентно выполнению программы или необходимо связано с ним. Но все, на мой взгляд, могло бы повернуться иначе, если бы он не сделал одну ремарку — вначале относительно конкретной программы понимания рассказов, а затем тоже обобщенную на все случаи, — а именно что, отвергая «сильный ИИ», он является сторонником так называемого «слабого ИИ», т. е. считает, что действия человеческого интеллекта могут[113]успешно симулироваться на компьютере. В самом деле, почему бы и нет, рассуждает Сёрл. На компьютере можно смоделировать все, в том числе и работу интеллекта. Но моделирование человеческого интеллекта так же мало может породить в компьютере понимание, как моделирование грозы может вызвать дождь в этом самом компьютере.

Допущение возможности «слабого ИИ» кажется безобидным, пока мы не осознаем, что Сёрл, выходит, готов допустить создание таких, к примеру, программ, которые будут полностью эмулировать человеком понимание хотя бы того же китайского языка. И в позднейших вариантах изложения своего аргумента Сёрл говорит уже именно о глобальных программах и о том, что их выполнение на компьютере не дает с необходимостью эффекта реального понимания. С одной стороны, это логично: ведь его интересует не частный, а общий тезис о несходстве нашего осознанного понимания и искусственного интеллекта. Но проблема в том, что при таком обобщении Аргумент китайской комнаты становится уязвим для критики.

вернуться

[111]

Некоторые — в шутку, а может, и не совсем в шутку — даже предлагали переопределить когнитивную науку как "исследовательскую программу, направленную на доказательство ложности сёрловского Аргумента китайской комнаты" — см.: Hamad S. Minds, machines, and Searle 2: What's right and wrong about the Chinese Room Argument // Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, ed. by J. Preston and M. Bishop, N. Y., 2002. P. 295.

вернуться

[112]

Я использую термин "эмуляция" как синоним термина "симуляция", применяемого Сёрлом.

вернуться

[113]

Searle J. R. The Mystery of Consciousness. P. 17