Выбрать главу

Айзък Азимов

Загрижен за човечеството

ТРИТЕ ЗАКОНА НА РОБОТИКАТА:

1. Роботът съзнателно, или чрез своето бездействие не може да наранява човек.

2. Роботът е длъжен да се подчинява на заповедите на човека. Изключение правят случаите, които противоречат на Първия закон.

3. Роботът трябва да защитава собственото си съществуване. Изключение правят случаите, които противоречат на Първия и Втория закон.

1.

Кит Харимън вече дванадесет години ръководеше Изследователския отдел на Корпорация „Американски роботи и механични същества“. За първи път в неговата практика сега не беше сигурен, че постъпва правилно. Той прокара език през пълните си, бледи устни. Струваше му се, че ликът на Сюзан Калвин никога не го беше следил толкова намръщен.

Обикновено се стараеше да не обръща внимание на портрета на великата кибернетичка. Изнервяше го фактът, че не успява да го възприеме като неодушевен предмет. В този момент усещаше погледът й от стената буквално да пронизва лицето му.

Предстоеше му да извърши недостойна и унизителна постъпка.

Срещу него невъзмутимо седеше Джордж Десет. Той явно не споделяше зле прикритото безпокойство на Харимън. Не му влияеше и портретът от стената.

— Не сме говорили за това, Джордж — каза Харимън. — От много време не си бил сред нас, а и не сме имали възможност да останем насаме. Сега бих желал да обсъдим някои подробности.

— Нямам нищо против — отговори Джордж. — От престоя си в Корпорацията останах с впечатление, че кризата има нещо общо с Трите закона?

— Да. Спомняш си съдържанието им, нали?

— Разбира се.

— Добре. Позволи ми да отида малко по-далеч, за да помислим върху основния проблем. За двеста години успешна дейност нашата компания не успя да убеди хората да приемат роботите. Поставили сме ги единствено там, където човешка намеса е невъзможна — най-вече в среда, опасна за здравето. Функцията на роботите бе лимитирана единствено в космичното пространство.

— Но това е огромно поле за изява, което несъмнено води до успех — отбеляза Джордж Десет.

— Не е така по две причини. На първо място, реализацията на роботите зависи от подписания договор. За пример ще ти дам лунната колония. Тя става все по-култивирана и нуждата й от роботи намалява. Очаквахме това, разбира се. Такава ще бъде съдбата на всеки свят, колонизиран от човека. На второ място, истински просперитет на човечеството тук, на Земята, е немислим без роботиката. Ние твърдо вярваме, че човекът трябва да се научи да живее в сътрудничество със своя механичен аналог.

— Но не става ли точно така? Господин Харимън, на вашето бюро е инсталиран компютър, свързан с организацията Мултивак. Компютърът е вид неподвижен робот. Мозък на робот, изолиран от тялото…

— Прав си, но и такива случаи рядко се срещат. Компютрите, използвани от хората, са специализирани да не наподобяват прекалено много човешкия интелект. Преди век ние бяхме на път да създадем изкуствен ум с неограничени възможности. Говоря за компютрите Машина. След като разрешиха екологичния проблем, те се самоунищожиха. Продължаващото им присъствие заплашваше да се превърне в прът, спъващ човешката сигурност. Разбрали това, те престанаха да функционират, в съответствие в Първия закон.

— И не постъпиха ли правилно?

— Според мен — не. С това свое действие те подсилиха Франкенщайновия комплекс — страхът, че изкуственият човек ще се обърне срещу своя създател. Хората се страхуват, че роботите ще ги подменят.

— Вие самият не се ли страхувате от такова нещо?

— Аз съм много начетен и просветен. Докато са в сила Трите закона на роботиката, ние сме в безопасност. Роботите могат да бъдат наши партньори във великата ни борба с природните закони.

— Но след като Трите закона вече два века доказват своята ефективност, откъде идва недоверието към тях?

— От суеверието, разбира се — отговори Харимън, като зачеса гневно посивялата си коса. — За съжаление, съществуват и някои усложнения, които служат като храна за нашите противници.

— И те засягат Трите закона?

— Да, по-специално Втория. С Третия закон няма проблеми. Той е универсален. Роботът винаги ще жертва своето съществуване в името на което и да е човешко същество.

— Разбира се — потвърди Джордж Десет.

— Малко по-незадоволителен е Първият закон. Винаги може да изникне ситуация, при която роботът трябва да избира между действие А и действие Б. Двете действия може да се изключват взаимно или да причинят нараняване на човек. Роботът трябва много бързо да прецени кое от двете ще доведе до по-малка загуба. Позитронните пътища в мозъка му не могат лесно да извършат селекцията. Ако действие А ще нарани талантлив, млад художник, а действие Б — петима старци, кое от двете ще избере?