Prácticamente todos los juegos actuales renderizan nuevos fotogramas “desde cero”, lo que significa que generalmente no utilizan cálculos realizados antes de ese fotograma (excepto para el antialiasing temporal, NVIDIA DLSS y la técnica de postprocesamiento ocasional). Pero en la mayoría de los juegos, como en el mundo real, se producen relativamente pocos cambios de fotograma a fotograma. Si miras por la ventana, es posible que veas árboles que mueve el viento, peatones pasando o pájaros volando en la distancia. Pero la mayoría de la escena no cambia. Lo principal que cambia es tu punto de vista.
Algunos objetos cambiarán de aspecto a medida que cambie tu punto de vista, especialmente aquellos que son luminosos o brillantes. Pero la mayoría de los objetos en realidad cambiarán muy poco conforme muevas la cabeza y, así, seguir recalculando los mismos colores exactos que componen esos objetos cada fotograma será un desperdicio de preciosos ciclos de GPU. Imagina, por ejemplo, un poste de teléfono de madera; independientemente de la posición de tu cabeza y ojos, se ve prácticamente igual.
Mediante el uso de la retroalimentación del muestreador, podemos sombrear esos objetos de forma más eficiente a una velocidad más baja (por ejemplo, cada tercer fotograma, o tal vez incluso aún menos que eso) y reutilizar los colores del objeto (o "texels" como se denominan) tal como se calcularon en fotogramas anteriores. Esta noción de reutilización de trabajo se puede utilizar para el trazado de rayos, especialmente en el caso de la iluminación global, que es un ejemplo común de una computación de sombreado lenta y muy cara.
Puedes obtener más información sobre la tecnología detrás de la tecnología aquí.