Выбрать главу

С ним соглашается Стивен Хокинг, всемирно известный физик: «Разработка полноценного искусственного интеллекта может стать смертным приговором человеческому роду» [Хоффман С. Пять сил, изменяющих всё. – СПб: Портал, 2023, с. 393].

Элиезер Юдковский, американский философ и специалист по ИИ, исследователь проблем технологической сингулярности, изучает те конструкции ИИ, которые способны к самопознанию, самомодификации и рекурсивному самоулучшению, а также могут обладать стабильной позитивной структурой мотивации, т. е. так называемым дружественным искусственным интеллектом. Юдковский утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но конструкторы должны понимать, что созданные ими ИИ со временем будут учиться и эволюционировать, вследствие чего их действия могут стать непредсказуемыми. При этом предполагается, что искусственный сверхразум, вероятно, сможет достигать любых поставленных перед ним целей, и потому чрезвычайно важно, чтобы цели, которые ему ставят, и вся его система мотивации были «дружественными к человеку». (Правда, некоторые критики считают, что создание дружественных ИИ маловероятно.)

Однако в начале 2020‑х годов Элиезер Юдковский начал публично утверждать о высокой вероятности общечеловеческой катастрофы, вызванной развитием искусственного сверхинтеллекта. В начале 2023 года он стал призывать мировое сообщество объявить всемирный мораторий на обучение общих ИИ-моделей умнее GPT-4. Но, поскольку такой мораторий не состоялся, то, считает Юдковский, человечество обречено: искусственный сверхинтеллект его уничтожит [http; //hi-news.ru/eto-interesno/unichtozhit-li-nas-iskusstvennyi-intellekt-i-pochemu-nekotorye-uchenie-schitayut-chto-da.htrnl? ysclid=lq9gwvk.3cm].

Подобные суждения большинство специалистов IT не разделяет: считается, что мотивация для столь агрессивных действий ИИ отсутствует. Кроме того, возможности искусственного сверхинтеллекта едва ли будут расти безгранично, так как знания о процессах, происходящих в природе, позволяют выдвинуть предположение, что наблюдаемая картина ускорения НТП и экспотенциального развития ИИ через некоторое время сменится замедлением и полной остановкой, что позволит человечеству адаптироваться к изменениям.

Как действовать в таких условиях?

Недавно Илон Маск и более 1 000 специалистов по IT, включая нескольких лауреатов Нобелевской премии, подписали открытое письмо с требованием приостановить разработку моделей ИИ-систем, более мощных, чем GPT-4.

Но мировое сообщество пока молчит.

Есть и оптимисты, которые, наоборот, полагают, что ИИ принесет человечеству необыкновенное светлое будущее. Так, известный американский футуролог, изобретатель и технический директор Google Рэй Курцвейл считает, что создание сверхмощных интеллектуальных машин не будет нашествием вражеского марсианского разума: люди создадут эти машины, чтобы сделать умнее самих себя. Именно в этом заключается уникальные способности человеческих существ: люди создадут эти машины, чтобы расширить свои собственные возможности.

Постепенное введение небиологических систем в тела и мозги людей, полагает Рэй Курцвейл, будет еще одним примером непрерывного оборота составляющих их элементов. Оно не повлияет на целостность личности больше, чем естественная замена клеток тела.

Люди привычно станут придерживаться сценариев построения замен. По вопросу о сохранении индивидуальности можно якобы не сомневаться, что индивидуальность (личность) сохранится через непрерывность хранящихся в ней информационных образов. Непрерывность не противоречит непрерывным изменениям, и если сегодня индивид чуть-чуть отличается от того, каким он был вчера, он тем не менее сохраняет свою индивидуальность.

Футуролог Рэй Курцвейл об эволюции Разума:

«Изучение возможности преодоления скорости света… будут важнейшими проблемами человеко-машинной цивилизации в начале следующего столетия.

Космологи обсуждают, каким будет конец света – закончится мир в огне (Большой взрыв в начале – большой треск в конце) или во льду (смерть звезд в результате бесконечного расширения), но они не учитывают силу разума, как будто появление его было лишь побочным эффектом великой небесной механики, управляющей законами Вселенной. Сколько времени нам понадобится, чтобы распространить свой разум в небиологической форме по всей Вселенной? Если нам удастся преодолеть скорость света (безусловно, это очень серьезное «если»), например, путем использования кротовых нор (существование которых вполне совместимо с нашим современным пониманием законов физики), на это уйдет несколько столетий. В противном случае гораздо больше. Но при любом варианте развития событий нужно разбудить Вселенную и разумно распорядиться ее судьбой с помощью нашего человеческого разума в его небиологической форме – это наше предназначение» [Курцвейл Р. Эволюция Разума. – М.: Эксмо, 2018, с. 287].

полную версию книги