
Pues ya es oficial. Este último E3 en Los Ángeles ha sido la confirmación -si es que ésta era necesaria- de que 2020 será el año del Cloud Gaming. Los anuncios de Google con 'Stadia' -el plural de Stadium- y Microsoft con 'xCloud', confirman que este tipo de servicios podría ser la tecnología de moda en el sector del videojuego, el más lucrativo de toda la industria del entretenimiento.
El Cloud Gaming es un medio que ofrece una experiencia independiente del dispositivo: Básicamente, nuestro dispositivo sólo es la pantalla y el mando. El sistema que ejecuta el juego se encuentra al otro de las líneas de datos: como si tuviésemos en nuestro salón la tele y el gamepad, ambos conectados por un cable enormemente largo a una consola situada en el centro de datos de nuestro proveedor. En la era de la computación en la nube, las grandes propietarias de la infraestructura han llegado a la misma conclusión a la que llegaron hace mucho los fabricantes de hardware de consumo: Aquí se pueden ejecutar videojuegos, y hacerlo puede ser muy rentable.
Aunque estos últimos anuncios hayan revolucionado las redes, la idea no es nueva. Ya lo hicieron hace muchos años 'OnLive' y 'Gaikai': ambos acabaron en manos de Sony y sobre ellos construyó la japonesa la plataforma de streaming de 'PSN' -PlayStation Now-, que aunque hasta ahora se ejecuta sobre la infraestructura de Amazon, pronto pasará a los sistemas de Azure gracias a un acuerdo al que Sony llegó el pasado 16 de mayo con Microsoft. Y Sony tampoco estaba sola: NVidia tiene 'GeForce Now', Microsoft tiene 'xCloud', EA se hizo recientemente con 'GameFly'...
Aunque pueda parecerlo, no se trata de servicios sólo aptos para gigantes, pues hay una miríada de pequeñas start-ups que ofrecen estos servicios, como 'Jump' -dedicada a los indies-, 'Ubitus GameCloud' o incluso la española 'PlayGiga'. Y es evidente que la cosa va en serio: hasta en el mercado asiático, esa especie de universo paralelo con un ecosistema abrumadoramente rico -en los dos sentidos que aplican- y complejo, el gigante de las telecomunicaciones Tencent anunció recientemente 'Instant Play'.
Con semejante ecosistema, está claro que la estrategia de esperar "a ver qué pasa" tiene ya un enorme coste de oportunidad: El mercado ha llegado a ese punto en el que si "pasa algo" y no estás dentro, te quedas fuera... fuera de un mercado estimado en unos 36.000 millones de euros.
Esta afirmación no la hago a la ligera: los jugadores no son unos cualesquiera: Amazon, Microsoft, Google y Tencent no son sólo los propietarios de varias de las principales plataformas de cloud computing del mundo: También son propietarias de Twitch, Xbox Live y Youtube, respectivamente, por lo que las audiencias a las que tienen acceso son ingentes. Tencent, por su parte, tiene acciones en Activision-Blizzard, Epic Games, Ubisoft y Riot Games, por la parte del contenido, y de dos plataformas de live-stream chinas -al estilo de Twitch-: Douyu y Huya, por la parte de las audiencias; aunque no nos suenen, no deberíamos olvidar que China tiene la quinta parte de los internautas del mundo.
Y estos jugadores tan importantes dan señales de tomarse muy en serio este nuevo canal. La única razón para que Sony decida dormir con su enemigo y llegar un acuerdo para alojar en los sistemas cloud de su rival Microsoft es que se sienta amenazada, y la amenaza es quedarse atrás en esta carrera tecnológica -su servicio, con 700.000 suscriptores, lleva ya un tiempo recibiendo críticas por su discutible calidad-. El mercado parece darles la razón: la subida de Sony en bolsa tras el anuncio fue de un 9.9%: la más alta en año y medio.
Hasta ahora el público -y algunas editoras- era escéptico. Strauss Zelnick, CEO de Take-Two Interactive -con marcas como la desarrolladora Rockstar y sus títulos 'GTA' o 'Red Dead Redemption' en su catálogo- decía el año pasado a Fortune que esta nueva tecnología "es emocionante, pero no pensamos que vaya a cambiar las reglas del juego". Reggie Fils-Aime, entonces Presidente de Nintendo of America, coincidía con un "No pensamos que [la tecnología] haya llegado a ese punto aún". Por lo menos en el caso del primero, ese escepticismo se ha diluido bastante y en poco tiempo, como atestigua el logotipo de Rockstar, notoriamente visible en la reciente conferencia de Google 'Stadia'.
Pero el escepticismo persiste, y una de las principales razones de ese escepticismo es de índole tecnológica: no hace falta ser ingeniero cloud para imaginar el tiempo que tarda nuestro servicio favorito de Streaming de series desde que pulsamos "play" hasta que empieza la serie, aplicado a nuestro mando de juego, en una partida de 'Street Fighter 2' o 'Call of Duty' para tener serias dudas de la viabilidad de algo así.
Un reto tecnológico
Pero -como en tantas ocasiones-, nuestra experiencia puede ser engañosa. Los retos tecnológicos a los que se enfrenta el streaming son básicamente dos: el ancho de banda y el input lag. El ancho de banda -lo que las operadoras venden como "velocidad de la conexión"- es crítico para transmitir las imágenes de altísima calidad generadas por un sistema de videojuegos moderno a resoluciones Full HD o 4K. El input lag, por su parte, es el "retardo de acción", el tiempo que pasa desde que nosotros pulsamos un botón en nuestro mando y vemos esa acción reflejada en la pantalla. Con un ancho de banda pobre, la calidad de imagen será insuficiente y el servicio no podrá competir con los sistemas de juego domésticos. Con un input lag demasiado elevado, los juegos serán injugables, pues tardarán demasiado tiempo en responder a nuestras órdenes, algo inaceptable cuando se conducen coches de carreras o se quiere bloquear un ataque de nuestro rival.
Podría decirse que el problema del ancho de banda no es tal ahora mismo, por lo menos hasta cierto punto. Tenemos ya en nuestras casas servicios de streaming 4K, y la conexión necesaria para un stream de datos de video a esa resolución anda entre los 15 a 25 Mbps -'Stadia'afirma funcionar a partir de 10 Mbps y dar la experiencia premium a 35 Mbps-. Esto es algo totalmente viable en muchos núcleos de población urbanos modernos, como cualquier ciudad española, por ejemplo. Sin embargo, ante la prueba de fuego del uso real, las cifras de la mayoría de los proveedores españoles caen, en bastantes casos, poco por encima de los 4 Mbps a la hora de acceder a Netflix.
Por otro lado, es de esperar que el ancho de banda necesario se reduzca, porque las tecnologías de compresión y descompresión en tiempo real no dejan de avanzar con rapidez, consiguiendo mayor volumen de datos en menos espacio. Además, por la naturaleza de los algoritmos de compresión de vídeo modernos, multiplicar por cuatro la resolución -como en el paso de Full HD a 4K-no necesita el cuádruple de ancho de banda sino, más bien, poco más del doble. Y hablamos de cualquier sistema de cloud gaming moderno, que hará uso de estándares como el H265 para aprovechar que cualquier dispositivo actual incluye aceleración por hardware para descomprimirlo -ahorrando recursos del sistema y batería-, pero estas cifras mejorarán sin duda con las nuevas generaciones de algoritmos.
El caballo de batalla tecnológico está en el otro apartado: El input lag. Los jugadores son muy sensibles a este parámetro, aunque no tanto como cabría esperar. De hecho, lo experimentamos constantemente aunque no estemos usando un servicio de Cloud Gaming: Desde que pulsamos el botón de acción en nuestro mando de Xbox One o PS4, hasta que vemos en la pantalla el resultado, pueden pasar hasta 140 ms sin que los usuarios empiecen a notarlos. Esto no pasa en todos los juegos, claro: algunos FPS y juegos de lucha rondan los 70 ms y hay consenso general en que 200 ms ya superan la barrera universal de lo intolerable.
El input lag en local, es decir, en los dispositivos que tenemos en casa, está producido por múltiples causas. Para empezar, el retraso desde que la señal llega al dispositivo de juego, diferente si estamos hablando de un mando con cable o uno inalámbrico -que introduce retrasos adicionales-. Después viene el tiempo de proceso en el dispositivo y luego hay que renderizar la imagen resultante de ese procesamiento y postprocesarla.
El caballo de batalla tecnológico está en el otro apartado: el input lag
Este proceso puede poner varios frames -fotogramas- en espera: en un sistema que funcione a 60 fotogramas por segundo, eso son 17 ms por fotograma. Es famoso el caso de 'Street Fighter V' y sus 8 fotogramas de input lag -en un género, el de la lucha, en el que los jugadores aprenden a sincronizar sus movimientos "al frame"- y Unreal Engine, por poner un ejemplo concreto, ha estado luchando para reducir su input lag básico de hasta 6 fotogramas. Pero ahí no hemos acabado, porque luego está el display lag, el tiempo que tarda tu pantalla en presentar el fotograma que recibe, que es difícil que baje de los 9 ms. Todo suma, y ayuda a explicar esos 130-140 ms de retraso "razonables" en una consola o PC moderno.
El tipo de juego también es fundamental para entender la sensibilidad a este retardo: Un juego de estrategia, una aventura, un juego de puzzles -habitualmente no basados en el tiempo de reacción- e incluso algunos juegos de habilidad, no requieren unos reflejos de relámpago. Pero un juego de lucha, uno de carreras o un FPS como Call of Duty o Fortnite, se vuelven muy frustrantes si nuestras acciones no se ejecutan exactamente en el momento que las ordenamos.
El problema del Cloud Gaming es que a este input lag local tendríamos que empezar a sumarle los resultantes de la comunicación por red. Y aquí lo que las operadores llaman "velocidad de la conexión" da lo mismo. Tus "600 megas" pueden ser el equivalente, usando el viejo chascarrillo de Tannenbaum, de una furgoneta cargada de tarjetas de memoria: mucho ancho de banda pero un enorme retraso. Y te da igual ser capaz de transferir 600 megas por segundo, si el primer bit empieza a llegar medio minuto después de realizada la petición.
Aquí el retraso lo provocan múltiples factores: La distancia a los servidores es uno de ellos, pues la señal no llega instamágicamente a destino; tarda un tiempo, más largo cuanto más lejos se encuentre el servidor. Y el mismo, claro está, de vuelta. Pero aparte, cada nodo intermedio -switches, firewalls, gateways, routers, etc-en el que los datos sean recibidos, procesados y reenviados añade un retraso.
Para mitigarlo, la primera medida que los diferentes operadores de Cloud Gaming pueden tomar podríamos denominarla de "fuerza bruta": reducir la distancia y el número de saltos que la señal tiene que recorrer desde tu mando hasta el servidor y de vuelta. ¿Cómo? Situando los servidores lo más cerca posible de ti. Para ello, por ejemplo, Google planea ubicar 7.500 nodos de procesamiento en todo el mundo, muy posiblemente en los centros neurálgicos de los principales operadores de telecomunicaciones de todo el mundo o muy cerca de ellos -desde un punto de vista de topología de la red-. Esta puede ser, por ejemplo, una de las razones de la desbandada de 'PSN', hasta ahora alojada en la cloud de Amazon, hacia Microsoft: La primera tiene una serie de centros de datos distribuidos por el mundo, uno o dos por continente, mientras que Microsoft tiene presencia en 140 países con Azure. Es de esperar que la estrategia de Microsoft para su propio servicio de cloud gaming pase, como la de Google, por atomizar mucho su cloud, distribuyendo gran número de centros de computación para tenerlos más cerca de los usuarios.
Otro elemento que condiciona de manera muy importante el input lag es el tipo de conexión. Una conexión directa por cable tiene menos input lag que una WiFi y ésta mucho menos que una conexión móvil. De hecho, recordad mis palabras, el Cloud Gaming será uno de los servicios con los que nos intenten vender el 5G, pues mientras una conexión 3G tiene latencias del orden de los 150 ms y el 4G las tiene del orden de los 90 ms, la nueva tecnología móvil promete reducirlas por debajo de los 5 ms. Añadidos, por supuesto, al resto de delays introducidos por los demás componentes del puzzle.
Pero Stadia toma otra idea original para reducir el input lag. Mientras que con un mando conectado al dispositivo tendríamos los retrasos asociados a la comunicación mando-dispositivo, al procesamiento en dispositivo y a la comunicación dispositivo-red, el mando de Stadia se conecta directamente a la red, enviando las señales de control directamente al servidor a través de la red y eliminando los milisegundos correspondientes a las fases de envío y procesamiento local de la información de control.
El streaming, por otro lado, añade otro factor añadido al input lag: La compresión de vídeo lleva un tiempo adicional. Para mitigarlo también se puede hacer uso de la aceleración por hardware, pero el principal problema es que es una tarea que no puede empezar hasta que el fotograma está completo, es decir, añade un lag específico tras el ya habitual en el proceso de renderizado de la imagen. Si un pipeline gráfico -la cadena de montaje, por simplificarlo mucho, en la que se generan los fotogramas- tiene ya tres fases bien claras y complejas -aplicación, geometría, y rasterización-, la compresión se convertiría en una cuarta fase.
Aquí entramos en el terreno de la especulación por mi parte, pero es en este campo donde más se podría aprovechar una rearquitectura u optimización del trabajo de compresión para tratar de segmentarlo, paralelizarlo y optimizarlo lo más posible; es decir, para tratar de empezar a comprimir la imagen antes de que esta haya terminado de generarse completamente. Incluso me atrevo a aventurar que sería posible obtener elementos necesarios para la compresión en fases previas a la rasterización de la imagen, como por ejemplo vectores de desplazamiento, en la etapa de aplicación o geometría.
Siguiendo con las conjeturas, podrían tal vez utilizarse "máscaras de relevancia" para marcar qué contenido de la pantalla tiene que conservar el máximo nivel de detalle y comprimir ese contenido a máxima calidad, aplicando al resto -como por ejemplo partes de la pantalla que presenten contenido muy ruidoso o afectado por desenfoques- un nivel de compresión más elevado -o incluso distintos tipos de compresión según el contenido-que puede enviarse en dos streams paralelos de menor tamaño que uno solo de alta calidad. O tal vez podría realizarse algún de segmentación aplicando un renderizado por baldosas, aprovechando para comprimir cada una de ellas por separado según haya sido generada, para que al terminar de generar el frame completo ya se hayan comprimido buena parte de las baldosas que lo componen.
Consolas cloud
Son todos ellos ejemplos pedestres que utilizo -con mucho reparo- para ilustrar que siendo Google -o Microsoft, o cada una de las plataformas- propietarios de su propia plataforma a nivel de hardware y de software, así como powerhouses del desarrollo, tienen mucha manga ancha para diseñar e implementar nuevas técnicas que recorten en gran medida esa fase extra.
Por otro lado, las principales plataformas están bastante empeñadas en aislar a los desarrolladores de juegos de esas particularidades tecnológicas. En el caso de Stadia, Google ha optado por hacer uso de la API gráfica Vulkan, sucesor espiritual de la popular y estandarizada OpenGL y muy popular en el mundo del desarrollo de videojuegos. Tener a Unity y a Unreal como entornos de desarrollo es un mensaje claro a la industria en general: vuestros juegos ya funcionan aquí, aunque será la medida en la que cada uno de los desarrolladores se apoyen -o no- en las características especiales de estos servicios las que marcarán el éxito -o fracaso- de estos juegos y en última instancia, de las plataformas.
El resultado final parece prometedor; si decíamos que la barrera de lo universalmente insoportable está en esos 200 ms, las pruebas iniciales de Stadia no son malas, a juzgar por las métricas que se mostraban en la presentación del servicio. El juego elegido, además, es un órdago: Doom es el arquetipo de juego exigente que no perdona fallos de lag, por lo que su presentación como nave insignia del servicio muestra la ambición de Google con respecto a la experiencia de juego. Los que lo probaron se muestran cautos, pues afirman que el lag era perceptible, pero muchos lo calificaron como soportable. Aquí, desde luego, como se dice habitualmente, your mileage may vary y la experiencia dependerá mucho del tipo de juego, la conexión de red y los umbrales de tolerancia personales de cada uno, pero está claro que todos los implicados están dedicando enormes esfuerzos en resolver o minimizar el problema del lag.
Multijugador en la nube
Otro aspecto en el que se ha incidido bastante es el cambio en la experiencia multijugador. Si en el modelo actual el juego se ejecuta localmente, en nuestros dispositivo y éste se conecta con el servidor para enterarse de los cambios en el mundo de juego resultantes de la combinación de las acciones de todos los jugadores de la partida, cada uno en su dispositivo, el modelo de Cloud Gaming presenta un escenario mucho más razonable, cuyo máximo exponente -el escenario ideal- es en el que se ejecuta una única instancia de juego que comparten todos los jugadores, a los que se envía su imagen por separado en múltiples instancias de render -dibujado-.
En este escenario, el lag añadido por la comunicación de red entre clientes y servidor es nulo, frente a las decenas de milisegundos habituales en el juego multijugador actual. Otra ventaja es la eliminación de gran parte de las barreras actuales a la limitación de jugadores simultáneos en los servidores, que vendría dada más por la experiencia de usuario que por limitaciones de tipo técnico. El término multijugador masivo sin duda adquirirá una nueva dimensión.
La mayor ventaja de este nuevo modelo de multijugador es que significaría la muerte efectiva del tramposo
Este escenario es, sin embargo, demasiado ideal para ser real, por lo menos hasta que los motores de juego lo aprovechen. Aún así, aunque el modelo finalmente efectivo sea más similar al actual -múltiples instancias del juego, una por jugador, comunicándose entre sí o con un servidor central-, tenemos ventajas muy claras: para empezar, esa comunicación no se hace a través de internet sino de las redes propias del operador, de alta velocidad y con conexión directa entre sí, por lo que la velocidad y latencia de la conexión están mucho más controladas. Esto permitiría a los desarrolladores asumir mayores capacidades en esta conexión e intercambiar más datos que permitan mayor interactividad y mundos más complejos, pues la información necesaria para sincronizar las múltiples instancias puede trasladarse con mayor facilidad.
Pero la mayor ventaja de este nuevo modelo de multijugador es que significaría la muerte efectiva del tramposo, popularmente conocido como cheater en el mundillo. Cuando las instancias de juego no se ejecutan en tu equipo y éste sólo es una ventana al mundo del juego, no hay manera de manipularlo para obtener ventajas. El hecho de que la comunicación de red se produzca también en una red ajena a la nuestra impediría cualquier intento de extraer información o manipularla.
Hasta aquí, le hemos dedicado una gran cantidad de tiempo y atención a todo el apartado tecnológico, pero ciertamente no es el único en el que hay retos; de hecho, probablemente es el ámbito en el que los retos existentes están más claros y más cerca de ser resueltos de una manera aceptable. Sin embargo, hay otros dos ámbitos que presentan retos de importancia.
Un cambio de modelo en la industria
El primero, por el que pasaré de puntillas -pues afecta a otro ámbito más específico como es el de diseño de juego- es el relativo a la adecuación de los juegos a esta nueva plataforma. Aunque lo primero que nos venga a la cabeza son servicios en los que los juegos que ya conocemos y disfrutamos en nuestras consolas y PCs estén disponibles tal cual, hay dos circunstancias que complican este escenario.
Por un lado, el ya mencionado input lag que a buen seguro obligará a los diseñadores de juegos a buscar soluciones que pasen también por adaptar la experiencia de juego -o que puede incluso dificultar la presencia títulos como los juegos de lucha más competitivos-.
Por otro lado, se nos venden estas plataformas como experiencias independientes del dispositivo: Las podremos disfrutar, a la Netflix, en entornos tan diferentes como la televisión de nuestro salón, nuestro teléfono móvil o el portátil de nuestro trabajo.
No hay que hacer un esfuerzo mental muy grande para pensar que no todos los títulos van a funcionar bien en todos los entornos, pues por mucho que compartan resolución, no se ve igual una pantalla de 59 pulgadas que una de 5. No creo estar aventurandome mucho si digo que muchos títulos tendrán interfaces de juego adaptados al dispositivo en el que se estén jugando, así que me mojaré más y diré que no sería descabellado que incluso se realicen ajustes en la jugabilidad y los controles dependiendo de si quien los juega está repantigado en su sofá o sujetando el móvil en el metro -lo cual, no lo dudo, abrirá otra de las eternas y estériles discusiones en el mundillo sobre la dificultad de los juegos en cada plataforma, ser gamers de verdad o de mentira y como la industria está arruinando los juegos-.
El otro ámbito que representa un reto significativo está muy alejado de los mundos técnicos y del diseño, pero es la tercera pata de la industria. De hecho, es aquella que la sostiene: el negocio.
Si hacemos un ejercicio de distanciamiento, es decir, si ignoramos todo lo que sabemos sobre los jugadores entendiendo a estos como los clientes potenciales de estas plataformas, el modelo del Cloud Gaming representa el más cómodo y efectivo para llegar a ellos: No hay ningún dispositivo específico que comprar, no hay nada que instalar, no hay tiempos de espera, funciona en cualquier parte.
Los videojuegos, actualmente, son un medio con un alto factor de fricción para acceder a las experiencias premium -consolas o hardware que adquirir, experiencia previa con el medio...-. Se ha demostrado una y otra vez que reducir esa fricción y hacer las experiencias accesibles al gran público multiplica el retorno de inversión, como ilustran casos como el de 'Farmville' o 'Candy Crush', juegos extremadamente más sencillos a todos los niveles que sus competidores de gama alta y que conectaron con el público que habitualmente no jugaba en los entornos en los que este público encontraba familiares: No en las consolas o en las stores de juegos sino en Facebook y los dispositivos móviles. El potencial del cloud gaming es llevar esa facilidad de acceso a títulos que hasta ahora no podían acercarse a ese público.
Modelos de negocio
Lo complicado del modelo es definir... bueno, el propio modelo. Hasta ahora el modelo de negocio mayoritario de la industria del videojuego era desarrollar un título y vender el "derecho eterno" a jugarlo, bien en forma de objeto físico -el cartucho, disco o tarjeta- que contiene el juego, bien en forma de "venta digital" que nos permite instalar y jugar el juego cuantas veces deseemos. Son más recientes modelos de suscripción mensual, como el que popularizó 'World of Warcraft', o de tipo Freemium, traídos del mundo móvil, dirigidos por anuncios o compras en la aplicación, pero la industria como la conocemos sigue bastante apegada al modelo de venta de "licencia de uso".
Recientemente, se han empezado a popularizar modelos de suscripción -'Xbox Game Pass', 'PS Now', 'Origin Access'...- en los cuales por una módica cantidad mensual o anual, podemos acceder a un catálogo de juegos, que podremos disfrutar libremente. Este parecía ser el modelo bajo el que se daba por hecho que funcionarían todos estos nuevos servicios de Cloud Gaming. La realidad se ha mostrado más compleja, con servicios de suscripción con múltiples tiers -como los que ofrece 'Origin Access' de EA- con más o menos contenido y acceso a las novedades más candentes o a contenido adicional como los inevitables DLCs, y Google ha volado por los aires el modelo ofreciendo un modelo de uso gratuito para el servicio básico, pero en el que pagas esa "licencia de uso" del juego, como si lo comprases en una tienda física o digital.
El problema a la hora de definir un modelo de suscripción, es que este ha de tener sentido para el consumidor y para el productor de los contenidos. Y aquí es en ese punto donde la cosa se pone interesante. Al consumidor le importan dos cosas: Catálogo y precio. ¿Cuánto se gasta el consumidor medio en videojuegos? Una tarifa de, pongamos, 20 euros al mes, es el equivalente a comprar un título AAA de lanzamiento cada cuatrimestre, 240 euros al año y casi el triple de lo que se vendría a gastar el jugador español medio -que según los datos publicados por AEVI el año pasado gasta algo menos de 90 euros al año, resultado de dividir los 1.360 millones de ingresos entre los 15,8 millones de jugadores que ellos calculan en España-. De hecho, si dividimos esos 90 euros entre los 12 meses del año, nos salen 7,5 euros al mes, una tarifa muy Netflix. Y una simplificación bastante gruesa.
El problema a la hora de definir un modelo de suscripción, es que este ha de tener sentido para el consumidor y para el productor de los contenidos
En cuanto al catálogo, esos 90 euros gastados en comprar juegos nos dan la oportunidad de elegir entre toda la oferta disponible, pero a jugar una cantidad relativamente reducida de títulos -los que decidamos comprar-, mientras que optar por una suscripción nos permitiría jugar a muchísimos más títulos, pero de un catálogo acotado: aquellos cuya licencia tenga la plataforma. ¿Dónde estará ese punto dulce, ese lugar en el que la gente se decidirá a suscribirse? El secreto estará en un buen equilibrio entre títulos menores -con costes de licencia más reducidos- y pelotazos de la liga de los FIFA, los Call of Duty, los Assassin's y similares, con costes de licencia muchísimo más elevados pero gran tirón de público -capaces de hacer a un usuario decidirse por una plataforma u otra-.
Es decir, el quid del modelo de negocio pasará por la forma en la que se consigan cerrar las licencias con los productores del contenido y para que un modelo tenga sentido para ellos -que pueden ser sus creadores o los propietarios de la licencia-, ha de cumplirse una sencilla ecuación: Las ganancias que les proporcione tener sus juegos en servicios de Cloud Gaming tienen que ser iguales o superiores a la pérdida de ingresos, en el resto de canales, provocada por tener el juego en esos servicios. Si esto no se cumple, los desarrolladores, o las editoras, no verían interés alguno en participar: ¿Qué sentido tiene tener tu propiedad intelectual incrementando el catálogo de algún servicio -y su interés- si ganas más dinero no haciéndolo?
El modelo elegido por 'Stadia' es interesante, por lo menos en la medida que demuestra cómo han resuelto desde Google el puzzle del modelo de licenciamiento: El uso de la plataforma es gratuito y para jugar a cada juego, has de pagarlo. Una vez pagado, puedes jugarlo cuanto quieras. Existe, además, un modelo de suscripción premium por 9,99 euros al mes que permite disfrutar de calidad 4K y acceso a algunos títulos de manera gratuíta.
Es de esperar que el precio de los títulos sea similar al de otras plataformas -para evitar que un juego se haga autocompetencia- y el porcentaje del mismo que normalmente paga cada desarrollador al fabricante de la consola sea para Google, como operador de la plataforma: Todos salen ganando. Bueno, o no... El proveedor de acceso a la red, por cuya infraestructura circularán los datos, tendrá que hacer frente a un servicio que consumirá entre 8,5 y 30 Gigabytes por cada par de horas de juego, añadiendo más leña al fuego de la discusión sobre la neutralidad de la red, los peajes que los proveedores de servicios quieren cobrar a los creadores de contenido o el uso de servicios zero rating para atraer usuarios -en la línea de no contar el uso de datos de Spotify, por ejemplo, de cara los límites mensuales de las tarifas móviles con limitaciones de descarga-.
Pero hay más modelos de licenciamiento, que cualquier ejecutivo de la industria tiene en la cabeza ahora mismo sin tener que rascarsela demasiado, como el de un porcentaje de ingresos por tiempo de juego o fee por jugador -con un mínimo garantizado si el productor tiene suficiente fuerza-. Esos mismos ejecutivos verán también en estas plataformas una oportunidad para un segundo ciclo de comercialización, por lo que se establecerán también ventanas de exclusividad que permitan colocar un buen número de unidades físicas -o digitales- en manos de los fans para, posteriormente, explotar el resto del mercado.
La cosa es, evidentemente, más complicada. Por ejemplo, no hemos hablado aún de posibles modelos de suscripción, que podrían ir más allá del modelo "pago mensual por tarifa plana", como los bonos por horas, el free to play con anuncios, micropagos, stores online, modos de juego premium, las ya mencionadas categorías de suscripción... Que probablemente se probarán e irán convergiendo a un número limitado de modelos, pues el consumidor quiere modelos sencillos, fáciles de entender y sin sorpresas.
Una nueva forma de industria
Pero sobre todo, en el lanzamiento de estas plataformas, ninguna de ellas va a dudar en perder dinero pagando licencias para conseguir tracción o poner suficiente cantidad de dinero encima de la mesa como para conseguir exclusivas de lanzamiento. Y cuando consigan esa tracción, cuando tengan millones de usuarios, cambiarán las reglas del juego.
Andrew Wilson, CEO de EA, lo tenía claro cuando le decía a Fortune que "no nos resulta extravagante pensar que, con básicamente la misma inversión en la creación del contenido, podamos divertir a 100 millones más de jugadores a través de modelos de suscripción de los que lo haríamos en el modelo tradicional".
Lo que es evidente es que si una plataforma tiene una masa significativa de usuarios, mucho mayor que la audiencia habitual de los títulos que tenga en catálogo, el coste de licencia se diluirá. Y no será lo único que se diluya, porque el tiempo de los jugadores es limitado. Si estas plataformas se popularizan, cabe esperar una reducción significativa en las ventas del mercado directo -físico y digital-, porque los jugadores tienen un tiempo limitado.
Esto es algo que pude observar en su momento de primera mano con World of Warcraft -que además, demostró que el modelo de suscripción es viable en videojuegos-: los momentos de máxima popularidad del juego me coincidieron con una época profesional en la que las listas Gfk eran una de mis herramientas principales para tratar de entender la dirección mercado, y con World of Warcraft no había que ser oráculo: tanto la SKU original como sus expansiones o las tarjetas de suscripción mensual coparon durante meses las primeras posiciones de la tabla, y las cifras de ventas del resto de productos se redujeron significativamente, estrechando visiblemente el habitual long tail.
¿Aniquilará este modelo a los actuales? En mi opinión, hará más daño al actual modelo de venta digital que al físico, pues éste último ha demostrado estar muy asociado tanto a consideraciones psicológicas -nos sigue gustando la posesión física de las cosas- como al considerable tirón del merchandising en la industria, que suele agotar cuanta edición limitada o de coleccionista saca al mercado, mientras que el modelo de compra digital, asociado a consumidores más prácticos que lo que quieren es disfrutar la experiencia, estarían mucho más apegados al modelo de juego como servicio.
En todo caso, creo que a estas plataformas les va a costar desarrollar la tracción inicial, pues es de esperar que el grueso de su catálogo de lanzamiento esté compuesto por títulos presentes en el mercado y por lo tanto, diseñados para otra experiencia -e incluso se podría argumentar, otro público- diferente. Será cuando los títulos que empiecen a publicarse estén expresamente diseñados para estas plataformas -para su modelo de consumo, su público y las especificidades del hardware de reproducción- cuando realmente puedan funcionar.
Sólo por comparar, aunque algunos usuarios de Netflix sean binge watchers -que se pegan grandes sesiones de visionado de series o películas-, el grueso de público es gente que usa el servicio para sesiones acotadas de entretenimiento ligero. Es difícil pensar en el triunfo de un modelo similar que ofrezca a los jugadores experiencias de juego a la Witcher o Red Dead Redemption, que requieren cientos de horas de juego para sacarles partido. Está claro que el público objetivo es más cercano al jugador casual -disfruta los videojuegos pero no quiere comprometerse con los títulos más complejos- que al hardcore. Añadámosle que son precisamente ese tipo de títulos los más caros de producir y licenciar y podemos suponer que el Cloud Gaming no va, precisamente, a implicar un incremento en el número de este tipo de producciones.
Modelos de producción
Independiente del modelo de negocio, no deberíamos dejar de fijarnos en la industria del streaming que más madura está hoy en día, la de películas y series. Y si nos fiamos de la forma en la que esta industria ha evolucionado, no parece aventurado predecir que las plataformas de Stream Gaming que se hagan con una base de usuarios suficiente, acabarán siendo potentes productoras de contenido, lo que que les permitirá hacerse con exclusivas y abaratar sus costes de licencia, de manera similar al modelo de First Parties de la industria actual. Esto les permitirá también proponer formatos de juego y jugabilidad novedosos, más adaptados a la nueva tecnología y modelo de consumo. En este entorno, por ejemplo, tiene mucho más sentido el modelo de producción episódico que pocas desarrolladoras han conseguido ejecutar con éxito hasta el momento y que permite optimizar costes de producción.
De hecho, estas plataformas mitigarían -o darían sentido- a una de las maldiciones a las que se tienen que enfrentar los estudios de desarrollo modernos: la exigencia de actualizaciones continuas. El público de la industria se ha acostumbrado a adquirir un juego y esperar actualizaciones con cierta frecuencia. Esto tiene sentido comercial, claro: Alarga la vida de los juegos, los va haciendo más grandes con el tiempo y permite mantener durante bastante tiempo un precio no muy inferior al del lanzamiento con unas ventas estables -frente al modelo clásico, que se jugaba todo al lanzamiento, pues las ventas descendían con rapidez salvo que se hiciesen ciclos de comercialización posteriores rebajándolo hasta el derribo, bien en las bañeras de los centros comerciales o en las rebajas de Steam-.
Pero esto tiene su contrapartida: Cuando el juego ya ha vendido una parte significativa de lo que tenía que vender, esta tiranía de la actualización continua mantiene al desarrollador ocupado para evitar el efecto de la review punitiva con la que que usuarios toman de rehén al producto y lo hunden en las valoraciones -aniquilando cualquier posible venta posterior y dañando la imagen de posibles secuelas- si no se atienden sus exigencias.
¿Cómo mitigarían estas plataformas esta "maldición"? Sencillamente, cuando los jugadores pagan por jugar y el modelo es del videojuego como servicio, estos ciclos de desarrollo continuos tienen completo sentido: mantener el interés del público aseguraría ingresos mensuales continuados y justificaría el esfuerzo de actualización continua.
Como colateral, si este tipo de modelos de actualización continua y episódicos llegan a triunfar, esto podría redundar en pipelines de producción más optimizadas y puestos de trabajo mucho menos volátiles que los de la industria actual, plagada de trabajos basura e inseguridad laboral.
Sin embargo, desarrollar videojuegos es mucho más complejo, caro y arriesgado que producir series o películas, por lo que lo primero que observaremos es alianzas entre las plataformas y diversos estudios o editoras. Yves Guillemot, CEO de Ubi, afirmaba recientemente, también a Fortune, que un modelo de negocio "tipo Netflix" no funcionaría en la industria del videojuego, por lo que prefería un modelo tipo "canal del publisher" que permita que cada editora mantenga una relación directa con sus jugadores.
En palabras de Guillemot, él cree que "habrá muchos servicios con diferentes tipos de juegos". Sin duda esta nueva forma de jugar va a dar lugar a extraños compañeros de cama, como hemos visto con el ejemplo de Sony y Microsoft, porque son muy pocas compañías las que tienen el músculo computacional en cloud necesario para competir en el mercado.
El futuro inmediato
Lo cierto es que el Cloud Gaming ya no es el futuro sino el presente o, como mucho, el futuro inmediato. Este pasado E3 nos ha dado ya bastantes pistas sobre los servicios que vienen y a diferencia de lo ocurrido hasta el momento, las compañías tienen previsto poner toda la carne en el asador.
Sin ir más lejos, la apuesta de Microsoft en el cloud sería muy fuerte: si los rumores son cierto, en este E3 presentaría su nueva 'Xbox Scarlett', en dos versiones, una premium con SSD y una GPU AMD con soporte de Raytracing -Anaconda- y otra económica que dependería en gran medida del poder computacional de la nueva cloud de Microsoft -Lockhart-. Siguiendo con los rumores, el servicio xCloud sería, entre bambalinas, básicamente una serie de consolas Xbox One montadas en racks como blades, que serían actualizadas al nuevo hardware de Scarlett tan pronto como la nueva consola sea lanzada al mercado.
Cuando hablamos de hardware, es evidente que el cloud gaming es un órdago en lo que a potencia de fuego disponible se refiere
Cuando hablamos de hardware, es evidente que el cloud gaming es un órdago en lo que a potencia de fuego disponible se refiere. Si 'xCloud' empezaría en un nivel Xbox One y planea actualizarse con rapidez, Stadia ha anunciado instancias de juego con 16 GB de RAM y potencia de GPU de 12 Tflops con raytracing, teóricamente en línea con la ofrecida por una NVIDIA RTX 2080 Ti, el estado del arte del gaming premium ahora mismo, aunque haciendo uso de GPUs de su principal competidor, AMD. NVIDIA, por su parte, hasta hace poco muy celosa de facilitar a nadie la creación de servicios que compitiesen con el suyo, ofrece ya sus servidores 'NVIDIA RTX Server', con 40 GPUs Turing -la usada por la mencionada serie RTX- en formato blade para montar en racks, orientadas entre otras cosas a la industria del cloud gaming y capaces de ejecutar más de 150 juegos de PC de manera concurrente. La apuesta es evidente: el cloud computing no está dispuesto a que nadie acuse a la nueva tecnología de ofrecer una experiencia subestándar.
Pero mientras llega el momento en el que las plataformas estén en condiciones de hacer ese tipo de inversiones -y que estas puedan llegar a ver la luz, no olvidemos que un videojuego necesita meses o años para desarrollarse-, veremos un montón de experimentos, pruebas, aciertos y engendros; surgirán y caerán gigantes y correrán ríos de tinta -digital- y millones de tweets llenos de emoción y vitriolo. Sin duda, antes de que estos escenarios que he descrito hayan podido materializarse va a pasar bastante tiempo, suficiente para que las condiciones cambien, mis predicciones queden obsoletas y los pacientes lectores de este artículo se hayan olvidado de lo acertado (o desacertado) que estaba :).
Fernando Conde tiene 20 años de experiencia profesional en el ámbito de la producción y el negocio en la industria del videojuego como Productor y Responsable de Nuevo Producto en FX Interactive y en consultoría de innovación y negocio IT como Business Manager y Consultor de Innovación Tecnológica en la consultora española Sngular, puesto que ocupa en la actualidad. En su carrera ha lanzado medio centenar de títulos de PC y consolas en los mercados Español e Italiano (con un puñado de n°1 y top 10) y gestionado proyectos internacionales y cuentas de empresas del IBEX35 y el NYSE en los sectores de Banca, Finanzas, Obras Públicas, Energía y Oil&Gas.