Dans la majorité des jeux d'aujourd'hui, chaque image est générée "de A à Z". Autrement dit, sans exploiter les calculs effectués précédemment (excepté pour l'anti-aliasing temporel, NVIDIA DLSS et de rares techniques de post-traitement). Pourtant, dans ces jeux comme dans le monde réel, peu de choses changent d'une image à l'autre. Si vous regardez par la fenêtre, vous verrez des arbres qui oscillent sous le vent, des piétons qui passent ou des oiseaux qui volent au loin, mais l'essentiel de la scène sera fixe. Le principal changement sera votre point de vue.
Certes, des objets changeront d'apparence en fonction des mouvements de votre tête, notamment s'ils sont brillants ou réfléchissants, mais la plupart des éléments du décor ne changeront que très peu. Recalculer les couleurs qui composent ces éléments fixes à chaque image est donc une perte de précieux cycles du GPU. Prenez, par exemple, un poteau téléphonique en bois. Quelle que soit la position de votre tête et de votre œil, son apparence sera la même.
Grâce au Sampler Feedback, il est possible d'adapter la fréquence de shading de ces éléments (une image sur trois, par exemple, voire moins) et de réutiliser les couleurs (ou "texels", comme on les appelle) calculées dans les images précédentes. Le concept de réutilisation des calculs peut également s'appliquer au ray tracing, notamment pour les éclairages globaux, qui sont un parfait exemple de shading coûteux et variant très peu d’une image à l’autre.
Pour en savoir plus sur la technique derrière la technologie, rendez-vous ici.