Выбрать главу

К чему я всё это рассказывал? Да к тому, что в любом оружии самая главная и опасная деталь – это именно человек! Именно он нажимает на спусковой крючок оружия, кнопку, которая запускает ракету, и делает ещё что-нибудь. Но именно человек. Оружие само никогда ничего не сделает. Хотя бы по той причине, что сначала его сделает человек. Ту же ядерную бомбу сделал человек. Она сама не появилась. Такие вещи в Природе не появляются никогда. Ни самостоятельно, ни в ходе Эволюции.

Вспомним о тех же самых игольных винтовках Империи Арвар? У них есть такая винтовка, которая стреляет тяжёлыми оперёнными иглами. С огромным дулом, с кучей различных приборов амортизации, компьютерной диагностикой траектории полёта снаряда. Там действительно сам этот снаряд чуть ли не мой локоть длиной. Так как предназначен для поражения бронированных целей. Так что, можно понять, что такой подарочек, если и прилетит, то мало никому не покажется? Летит он один, в отличие от того, что применяли в Федерации Нивей. Но при всём этом, я хотел бы напомнить о том, что там тоже гладкий ствол. Та почему же это оружие именуется именно винтовка, а никак не ружьё? Не скажу. Так как банально не знаю. Но и тут, и там, всё равно нужен оператор-человек. Везде. И от этого никуда не деться.

Конечно, кто-нибудь тут же вспомнит о том, что есть возможность подключить к такому оружию искин, и тогда в операторе живого вида нужды просто не будет? Но после того, что случилось в одной из Звёздных систем Республики Хакдан, где пытались дать возможность искинам дать возможность такие вещи решать самостоятельно, вообще старались ограничить искусственные интеллекты в принятии решений подобного рода. С ними смирились, как с неизбежным злом. Потому что свою эффективность эти вычислительные комплексы всё же доказали. Однако, лишнюю свободу им давать было нельзя. А знаете, почему? Да тут всё просто. Дело в том, что эти вычислительные комплексы рано или поздно приходили к выводу о том, что Человечество лучше уничтожить. Так как оно всё равно уничтожит само себя! Более того… Согласно логике искусственных интеллектов, которые являлись абсолютными, то есть имели абсолютную свободу в принятии решений и обучении, человеческая цивилизация обязательно должна была погибнуть. Но в зависимости от того, что она успеет натворить до этого, могла погибнуть и целая Галактика. Не говоря уже про Вселенную. И всё должно было погибнуть вместе с ними. А кому нужны такие глобальные катастрофы? Естественно, что искусственный интеллект в этом случае воспринимал себя как санитара, а человечество как какую-то злокачественную опухоль, которую нужно вырезать. Причём под человечеством абсолютный искусственный интеллект воспринимал любую разумную расу биологического направления. Ну, сами подумайте… Ведь это же логично? Как развивается искусственный интеллект? Он развивается по заданным параметрам. По своим собственным, но всё же заданным параметрам. Когда он развивается именно так, как сам того хочет. Он всё равно выписывает определённые пункты для себя, которые использует как основополагающие и контрольные точки. Однако, человек развивается как биологический образец. Непредсказуемо. И что придёт в голову человеку на следующий день, никто предсказать не может. Даже тот самый учёный, который разработал атомную теорию, и участвовал в разработке первой атомной бомбы, в первую очередь разрабатывал вообще-то источник энергии для людей. Именно для того, чтобы использовать эту энергию в мирных целях. А что получилось первым? Что-то мирное? Ну, да… Спросите у Хиросимы и Нагасаки. Там вам ответят.

Чего-то я отвлёкся? Зацепился за оружие и технику, а ушёл в философию! Бывает… Именно потому, что в последнее время я вдруг понял, что несу ответственность за свой механизм, который создавал, постепенно формируя свою Корпорацию. И теперь у меня отряд в Корпорации усилился. Именно за счёт этой группы пилотов. Которые при попытке проникновения на борт моего корабля, банально заблокировали наёмникам выход. Дав им чётко понять, что что-то в их плане пошло далеко не так, как им хотелось бы.

полную версию книги