¿Qué tan lejos están los gráficos en tiempo real como los que vemos en películas recientes si la ley de Moore se cumple?

He visto videojuegos de carreras que diría que se ven 99.9999% reales. Pero de hecho es una buena pregunta. A medida que aumenta la potencia informática, también lo hace la complejidad de los gráficos, por lo que es literalmente una carrera armamentista.

Solo un ejemplo, HD Tv se hizo oficial en 1993 en los EE. UU., Pero antes de HD, el estándar era SD con una resolución de 720 píxeles x 480 píxeles. Para renderizar una imagen SD completa, una computadora tendría que renderizar 345,600 píxeles en total. Una imagen HD es 1920 píxeles x 1080 píxeles, o 2,073,600 píxeles totales, seis veces más grande que SD. Los gráficos de películas se representan comúnmente en 4k, 4096px x 2160px, o 8,847,360 píxeles, 4.2 veces más píxeles que HD.

Cuando SD era la norma, todavía no se habían inventado cosas como Sub Surface Scattering, el tipo de proceso informático que simula cómo la luz penetra y se dispersa en superficies como la piel humana, y las dinámicas que calculan la interacción física entre los objetos eran rudimentarias.

Los motores de renderizado se han vuelto más eficientes y la potencia informática ha aumentado, pero las capacidades de software son más exigentes.

El uso de gráficos en tiempo real es común en la transmisión, pero requiere muchos recursos. Por lo tanto, las compañías de software han desarrollado trucos para simular la reflexión utilizando mapas de reflexión en lugar de una reflexión verdadera, sombras falsas y optimización de la geometría.

El tiempo real presenta otro problema. Dado que la imagen capturada por la cámara debe ser procesada por la cámara, el software de imagen, el sistema de seguimiento, el software de composición y el motor de renderizado, siempre hay un retraso (tan pequeño como 1 o 2 cuadros) entre el video original y Los gráficos superpuestos. Eso se puede resolver retrasando la fuente de video según sea necesario, pero es otro proceso que requiere potencia informática.

Creo que los gráficos en tiempo real mejorarán, pero siempre obtendrás más de las granjas de renderizado. Podría estar equivocado……….

En algún lugar entre ahora y nunca.

Ignorando el hecho de que todo lo que ves en 3D debe ser modelado, texturizado, iluminado, manipulado, etc. (porque, después de todo, eso es lo que hacen los animadores) renderizar una escena a 24 o 30 cuadros por segundo fotorrealísticamente, ya es posible si la escena es lo suficientemente simple.

Tome su ópera espacial estándar con una nave estelar contra un campo estelar, con una fuente de luz, sin DOF ni volumétricos, y hay muchos sistemas que pueden representar esa escena en 4K más rápido de lo que puede verla. Especialmente si la geometría y las texturas están optimizadas para el nivel de detalle que realmente verá. Estas computadoras son caras y dependen de múltiples (docenas o más) núcleos y / o GPU, pero ya existen.

Pero cuanto más arroje a su escena, como iluminación global, oclusión ambiental, dispersión del subsuelo, transparencias refractivas con cáusticos, mapas de desplazamiento, más comenzará a gravar su sistema. Luego, comience a agregar más objetos, como paisajes con césped y árboles, cuerpos de agua, efectos atmosféricos como niebla y efectos de partículas como humo, multitudes de personas y ciudades llenas de edificios, e incluso los sistemas más avanzados se mueven rápidamente. Este siempre será el caso.

Además, tome cualquier escena en cualquier toma SFX de cualquier película reciente. ¿Crees que lo que estás viendo sale directamente del renderizador? Incluso si el disparo no contiene nada más que CGI, probablemente se procesó en múltiples pases y capas para que se pueda perfeccionar en una aplicación de composición. Claro, puedes hacer casi todo lo que se te ocurra en una sola pasada en algunas máquinas de gama alta, pero eso sería estúpido. El tiempo de renderizado se disparará y si ve un problema en la salida, tendrá que volver a procesarlo, lo que puede matar su programación. La mayoría de los animadores dividen sus disparos en capas. Pueden animar la acción de fondo, medio y primer plano, todo en varios pases. Cada uno de esos pases se puede representar como cuadros multipass donde los efectos difusos, ambientales, reflejos, sombras, etc. están en capas separadas, lo que permite un mayor control del metraje en la composición. Y, por supuesto, hay tantas cosas que tiene más sentido agregar en la etapa de composición, como artefactos de cámara y efectos de lentes.

La mayoría de los tiros que ves están planeados desde cero. Horas, días o semanas entran en cada pequeño detalle en función de cómo afectará la toma final, tanto para obtener los mejores resultados como para optimizar el proceso de renderizado.

Ciertamente, nunca veo renderizado en tiempo real en el nivel de detalle que ves en cualquier toma SFX realista. Hay límites físicos a la rapidez con que serán las computadoras. Ya estamos viendo el límite de la Ley de Moore al final del túnel debido a las propiedades fundamentales en la mecánica cuántica. No importa cuán avanzadas sean las computadoras, siempre podrás obtener una toma tan detallada o compleja que la computadora más rápida de la Tierra no podría seguirla.

Según Tim Sweeney, CEO de Epic Games (lo siento, no tengo un enlace, esto es de memoria), ya estamos allí cuando se trata de renderizar escenas que no tienen humanos en ellos. Para las escenas que lo hacen, no es solo una cuestión de potencia informática, todavía estamos aprendiendo cómo hacerlas más realistas, por lo que no está claro cuándo será posible o cuáles serán los requisitos de hardware.