La simulation permet de débloquer de nouveaux cas d'utilisation en démarrant l'entraînement de modèles fondamentaux ou en accélérant le processus de réglage de précision de modèles d'IA pré-entraînés grâce à la génération de données synthétiques, ou SDG. Il peut s'agir de texte, d'images 2D ou 3D dans le spectre visuel et non visuel, et même de données de mouvement qui peut être utilisées en conjonction avec des données réelles pour entraîner des modèles d'IA physiques multimodaux.
La randomisation de domaine est une étape clé du workflow de SDG, dans lequel de nombreux paramètres d'une scène peut être modifiés pour générer un jeu de données diversifié : emplacement, couleur, textures, éclairage des objets, etc... L'augmentation dans la phase de post-traitement diversifie encore davantage les données générées en ajoutant des défauts, tels qu'un flou, de la pixellisation localisés, ou un recadrage, une inclinaison et un fusionnement aléatoires.
De plus, les images générées sont automatiquement annotées et peuvent inclure du RGB, des volumes englobants, une segmentation d'instances et sémantique, de la profondeur, un nuage de points de profondeur, un nuage de points lidar, et plus encore.