Dans cette discussion de 4K et vu que je ne m’y connais pas du tout en ce qui concerne le côté technique des jeux, j’aimerai bien poser des questions type "explain like I’m 5". Car je vais sûrement écrire plein de conneries dans les prochaines lignes.
Mis à part la netteté de l’image, qu’est-ce que la 4K peut offrir de plus par rapport à un jeu 1080p ?
Je veux dire des choses possibles ou visibles uniquement en 4K et impossible à avoir sur du 1080p.
Par exemple est-ce que des textures de très haute qualité quasi photo-réalistes, seraient-elles être de qualité LARGEMENT inférieure sur du 1080p au point que la différence soit vraiment TRÈS TRÈS visible par rapport à la même texture sur du 4K ?
Est-ce qu’il y a des effets graphiques qui perdraient tout leur intérêt en 1080p ?
Supposons un nouveau God of War 100% next-gen. Et que Sony Santa Monica ait deux choix en utilisant 100% des capacités de la PS5.
1- Faire un God of War PS5 tournant en 1080p 30fps
2- Faire un God of War PS5 tournant en 2160p 30fps
(En étant dans les deux cas strictement pareil dans le mode de cette définition : natif ou dynamique ou type DLSS)
En utilisant tout le potentiel de la console en terme d’affichage de polygones et de traitement d’effets etc, laquelle de ces deux versions serait la plus impressionnante sur l’écran ?
Est-ce que la version 1 (développée pour tourner au maximum en 1080p 30fps) permettra d’avoir un niveau de détail et d’objets affichés à l’écran (nombre de triangles par image) et d’effets visuels (lumière, effets spéciaux, blur, ray-tracing etc) qui rendraient la qualité graphique plus impressionnante que la version 2 (développée pour tourner au maximum en 2160p 30fps) ou bien est-ce que le rendu de la version 2 sera TRÈS LARGEMENT supérieur à celui de la version 1080p 30fps.
Les concessions à faire pour afficher une définition 4K sont-elles justifiée en terme de rendu du jeu sur l’écran ? De sa qualité graphique ?