Выбрать главу

Обсуждение заканчивалось, когда председатель правления без особой надежды задал присутствующим традиционный в таких случаях вопрос: нет ли более простых предложений? И вдруг после продолжительной паузы, поднялся один из молодых инженеров.

— Сколько будет весить ваша машина? — спросили его.

— Примерно восемьдесят килограммов.

— И когда вступит в строй?

— Через два-три месяца.

— Что же это за устройство?

— Человек, шеф…

Трудно утверждать, насколько достоверна эта история. Но даже сам факт ее существования уже говорит о многом. И вот почему…

МАШИНЫ НАСТУПАЮТ, НО…

С оговорками или без них, но подчас еще можно услышать мнение, что непрерывно совершенствующиеся машины со временем полностью заменят людей, вытеснят человека из сферы производства или даже подчинят его своей «железной» логике. Автоматика делала только первые шаги, когда известный чешский писатель Карел Чапек «поднял» восстание роботов против человечества на страницах знаменитой пьесы «R. U. R.». И уж совсем не случайно в наши дни — дни стремительного развития кибернетики — американский ученый и фантаст Айзек Азимов в цикле своих рассказов «Я, робот» призывает на защиту человека специальный свод законов поведения «мыслящих» машин, открывающийся категоричным «робот не может причинить вред человеку».

Восхищение грядущим совершенством машин и страх перед их могуществом нередко рука об руку шагают по страницам произведений, повествующих о завтрашнем дне человечества.

Как же будет на самом деле? Что думают по этому поводу ученые, уже сегодня создающие все более и более «умные» автоматы?

Сегодня совершенные кибернетические устройства неумолимо вторгаются в область, еще вчера считавшуюся монополией человека и его разума, — они начинают управлять. Не только отдельные механизмы или процессы производства — целые цехи и даже заводы сейчас уже подчиняются четким приказам автоматики. И это понятно — со многими задачами управления «думающие» машины с их быстродействием, обширной памятью и четкой логикой справляются несравненно лучше, чем человек. Значит ли это, что со временем следует переложить все командные функции на плечи машин, оставив за человеком лишь право определять законы их поведения при конструировании и контролировать результаты работы? Где и как он должен будет произносить свое «последнее слово»? Как разделить командные обязанности между человеком и машинами?

Все эти и подобные им вопросы и составляют сущность одной из актуальнейших проблем науки — проблемы «Человек и автомат». Целый комплекс работ, связанных с ее решением, был проведен в Институте автоматики и телемеханики, в лаборатории, которую возглавляет известный советский ученый, доктор технических наук, профессор Александр Яковлевич Лернер. О некоторых из этих работ и пойдет ниже речь. Но сначала слово самому ученому.

— С точки зрения кибернетики человек с его сознанием и психикой сам по себе является весьма совершенным «устройством», — рассказывает профессор Лернер. — Например, наше ухо способно выделить из громадного потока музыки ее тончайшие нюансы, мы легко узнаем в толпе людей знакомое нам лицо, а опытные красильщики различают до ста оттенков одного цвета. Для машины это пока совершенно недоступно.

Или взять, например, такую способность человека, как умение предвидеть, предугадать ход или направление событий. Этим своим качеством мы пользуемся сплошь и рядом. Человек, севший в автобус и не взявший билета, достаточно точно может представить, чем грозит ему встреча с контролером. Рабочий, вытачивающий деталь на токарном станке, отлично знает, к чему приведет его неверное движение. А опытный ученый в целом ряде случаев может предугадать не только ход и результаты поставленного эксперимента, но и, например, основные этапы развития той или иной отрасли науки. Машины же пока лишены способности предвидеть результат своих собственных действий. И если они безошибочно выполняют ту или иную работу, то только потому, что создавшие их люди заранее предугадали нежелательные ситуации — те «рифы», которые могут встретить машины на своем пути, — и в какой-либо форме указали на них машинам.