Выбрать главу

Преимущества подобного подхода, казалось бы, налицо: на сервере можно рендерить всё что угодно, так что в теории становится возможным видеореализм, подлинная трассировка лучей в реальном времени, неограниченное количество полигонов и так далее. Но только в теории.

На пользовательское устройство передаётся уже только видеосигнал, а для его отображения гипермощного видеопроцессора не требуется. Для разработчиков и издателей плюсы тоже очевидны: поскольку на стороне пользователя будет только «тонкий клиент», а сам игровой контент останется на сервере, проблема пиратства либо снимается вовсе, либо её острота значительно снижается. Но слишком много появляется и проблем. Главная из них — это толщина канала связи и количество других факторов, влияющих на скорость соединения между пользовательским устройством и «облаком».

Тем не менее попытки реализовать что-то подобное предпринимались раньше и, вероятно, будут предприниматься и впредь.

Новая веха?

Год назад в беседе с корреспондентом «Компьютерры» директор по продажам подразделения AMD Component Channel в регионе EMEA Бертран Кокар заметил, что лично для него следующая веха в ИТ-мире наступит, «когда весь рендеринг будет осуществляться на сервере, а не на вашем компьютере»:

- Всё упирается в алгоритмы сжатия информации. Не в 2012 году, но в последующие годы что-то подобное произойдёт непременно. Сегодня всё больше люди играют через интернет, а не индивидуально на своих десктопах.

Как ни странно, наступления этой «новой вехи» ждут уже более десятилетия: ещё в 2000 году компания G-Cluster представила на Е3 свою технологию, где весь рендеринг и расчёты проводились на сервере, после чего графика перебрасывалась на ручные консоли через беспроводные соединения. В конце февраля 2013 года G-Cluster и Konami объявили о заключении партнёрского соглашения, в рамках которого в игры Konami можно будет играть на любом телевизоре, подключённом к широкополосному каналу связи.

«G-Cluster превращает телевизор в эквивалент игровой консоли, при этом необходимость в приобретении дорогостоящего оборудования отсутствует», — указывается в пресс-релизе обеих компаний. Там же говорится, что первые «облачные» игры будут объявлены уже этой весной. Ждём-с.

В свою очередь, Crytek ещё в 2005 году начала изыскания в области «облачного гейминга» для игры Crysis, но в 2007 году приостановила разработки, сославшись на то, что существующая сетевая инфраструктура, мягко говоря, не совсем готова.

В 2010 и 2011 годах были запущены сразу несколько сервисов, предоставлявших (и предоставляющих) услуги облачного гейминга. Это, во-первых, Onlive, во-вторых, Jeuxvideo a la demande, базирующийся на технологии вышеупомянутых G-Cluster, в-третьих, Gaikai, в четвёртых, китайский сервис Cloud Union, который к июлю 2012 года набрал 300 тысяч пользователей. Впрочем, для Китая это капля в море.

В том же июле 2012 года Sony выкупила за 380 млн долларов сервис-провайдер Gaikai, к тому моменту уже крупнейший в мире. К моменту покупки сервис предлагал более 200 игровых наименований, а аудитория составляла порядка 50 млн человек.

Ну а в августе 2012 года стало известно, что OnLive уволил большую часть персонала, а в октябре был продан некоей венчурной фирме за вшивые, простите, 4,8 млн долларов, притом что даже тогда ещё капитализация сервиса оценивалась в несколько сотен миллионов долларов. В общем, печальная и вряд ли красивая история.

По техническим причинам

В 2012 году на выставке GPU Technology conference NVidia представила свою концепцию «виртуализации GPU», а также технологию, которая позволяет использовать графические процессоры в качестве основы для крупных дата-центров («облаков», собственно).

«Облачные GPU-технологии основываются на новой архитектуре Nvidia Kepler GPU Architecture, предназначенной для использования в крупномасштабных дата-центрах. Её виртуализационные возможности позволяют одновременно использовать одни и те же GPU сразу несколькими пользователями. Её сверхскоростная передача потоковых данных устраняет все задержки, так что складывается впечатление, будто удалённый дата-центр находится за соседней дверью. А её высочайшая энергоэффективность и плотность обработки данных снижают стоимость владения таким дата-центром», — говорится в пресс-релизе.

Реализация архитектуры Kepler сразу же пошла в двух направлениях — платформа VGX для виртуализации десктопов для корпоративного сектора и GeForce GRID для облачного гейминга.