« GPU » : différence entre les versions

De Celestia wiki
Aucun résumé des modifications
Aucun résumé des modifications
 
(2 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
'''GPU : ''Graphical Processing Unit'''''. Il s'agit du microprocesseur embarqué sur la carte graphique (celle que l'on enfiche sur la certe mère et que l'on relie au moniteur). Sa tâche est d'effectuer les calculs liés à l'affichage, tout particulièrement les images tri-dimensionnelles. Le [[CPU]] se voit ainsi soulagé d'un très grand nombre d'opérations et le bénéfice en termes de temps d'affichage et de qualité d'image est considérable.
'''GPU : ''Graphical Processing Unit'''''. Il s'agit du microprocesseur embarqué sur la carte graphique (celle que l'on enfiche sur la certe mère et que l'on relie au moniteur). Sa tâche est d'effectuer les calculs liés à l'affichage, tout particulièrement les images tri-dimensionnelles. Le [[CPU]] se voit ainsi soulagé d'un très grand nombre d'opérations et le bénéfice en termes de temps d'affichage et de qualité d'image est considérable.


Les cartes graphiques existent depuis que les ordinateurs sont équipés d'un écran et, pendant longtemps, on ne s'est pas trop soucié d'elles : écrans monochromes, VGA 16 couleurs, SVGA 256 couleurs, etc. Le progrès semblait logique et l'on ne se posait pas trop de questions... C'est finalement à partir du milieu des années 1990, avec l'arrivée des premières applications exploitant la 3D en temps réel (voir plus bas), que la carte graphique est peu à peu devenue une sorte d'obsession. Les cartes graphiques sont devenues, au fil du temps, des "ordinateurs dans l'ordinateur", rivalisant de performances... et de prix. Informations sur le site de [http://www.commentcamarche.net/pc/carte-graphique.php3 CCM]
Les cartes graphiques existent depuis que les ordinateurs sont équipés d'un écran et, pendant longtemps, on ne s'est pas trop soucié d'elles : écrans monochromes, VGA 16 couleurs, SVGA 256 couleurs, etc. Le progrès semblait logique et l'on ne se posait pas trop de questions... C'est finalement à partir du milieu des années 1990, avec l'arrivée des premières applications exploitant la 3D en temps réel (notamment des jeux video), que la carte graphique est peu à peu devenue une sorte d'obsession. Les cartes graphiques sont devenues, au fil du temps, des "ordinateurs dans l'ordinateur", rivalisant de performances... et de prix. Informations sur le site de [http://www.commentcamarche.net/pc/carte-graphique.php3 CCM]


Actuellement, les deux principaux fabricants de GPU destinés au grand public sont [http://www.nvidia.fr/page/home.html NVidia] et [http://www.ati.com/fr/ ATI].
Actuellement, les deux principaux fabricants de GPU destinés au grand public sont [http://www.nvidia.fr/page/home.html NVidia] et [http://www.ati.com/fr/ ATI].
Ligne 7 : Ligne 7 :
==3D en temps réel==
==3D en temps réel==
[[Celestia]] est un logiciel exploitant des images 3D en temps réel. Qu'est-ce que cela signifie ?<br/>
[[Celestia]] est un logiciel exploitant des images 3D en temps réel. Qu'est-ce que cela signifie ?<br/>
Soyons clairs : les moniteurs 3D n'existent pas (du moins pas encore). En conséquence, une image s'affichant sur un écran reste une image 2D. Le principe est que cette image 2D crée une illusion 3D, de profondeur réaliste. Comment ? Tout simplement en jouant sur les perspectives, les lumières et les ombres. Ce qui veut dire que, avant d'être affichées, ces images ont subi un "traitement" en conséquence... et même un traitement conséquent !<br/>
Soyons clairs : les moniteurs 3D n'existent pas (du moins pas encore). En conséquence, une image s'affichant sur un écran reste une image 2D. Le principe est que cette image 2D crée une illusion de 3D. Comment ? Tout simplement en jouant sur les perspectives, les lumières et les ombres. Ce qui veut dire que, avant d'être affichées, ces images ont subi un "traitement" en conséquence... et même un traitement conséquent !<br/>


Un logiciel affichant de la 3D en temps réel génère ainsi des images '''quels que soient''' les mouvements effectués par l'utilisateur (translation, rotation, zoom avant ou arrière) : donc '''quelles que soient les vues'''. De très nombreux calculs sont, on l'imagine, nécessaires et c'est là que le GPU intervient puisque c'est sa spécialité ! Chaque seconde, de nombreux "clichés" sont ainsi envoyés à l'écran, un peu comme un film qui donne l'illusion de l'animation mais qui, en réalité, est une succession rapide de plans fixes. En informatique, on parle de FPS (''frames per second''). Le nombre de FPS détermine la fluidité de l'affichage et est étroitement lié à la puissance du GPU et à la complexité du logiciel.
Un logiciel affichant de la 3D en temps réel génère ainsi constamment des images '''quels que soient''' les mouvements effectués par l'utilisateur (translation, rotation, zoom avant ou arrière). De très nombreux calculs sont dès lors nécessaires et c'est là que le GPU intervient puisque c'est sa spécialité ! Chaque seconde, de nombreux "clichés" sont ainsi envoyés à l'écran, qui, à la manière d'un film, donnent l'illusion de l'animation alors qu'il ne s'agit, en réalité, que d'une succession rapide de plans fixes. On parle alors de FPS (''frames per second''). Le nombre de FPS détermine la fluidité de l'affichage et est étroitement lié à la puissance du GPU et à la complexité du logiciel.

Dernière version du 26 septembre 2008 à 18:51

GPU : Graphical Processing Unit. Il s'agit du microprocesseur embarqué sur la carte graphique (celle que l'on enfiche sur la certe mère et que l'on relie au moniteur). Sa tâche est d'effectuer les calculs liés à l'affichage, tout particulièrement les images tri-dimensionnelles. Le CPU se voit ainsi soulagé d'un très grand nombre d'opérations et le bénéfice en termes de temps d'affichage et de qualité d'image est considérable.

Les cartes graphiques existent depuis que les ordinateurs sont équipés d'un écran et, pendant longtemps, on ne s'est pas trop soucié d'elles : écrans monochromes, VGA 16 couleurs, SVGA 256 couleurs, etc. Le progrès semblait logique et l'on ne se posait pas trop de questions... C'est finalement à partir du milieu des années 1990, avec l'arrivée des premières applications exploitant la 3D en temps réel (notamment des jeux video), que la carte graphique est peu à peu devenue une sorte d'obsession. Les cartes graphiques sont devenues, au fil du temps, des "ordinateurs dans l'ordinateur", rivalisant de performances... et de prix. Informations sur le site de CCM

Actuellement, les deux principaux fabricants de GPU destinés au grand public sont NVidia et ATI.

3D en temps réel

Celestia est un logiciel exploitant des images 3D en temps réel. Qu'est-ce que cela signifie ?
Soyons clairs : les moniteurs 3D n'existent pas (du moins pas encore). En conséquence, une image s'affichant sur un écran reste une image 2D. Le principe est que cette image 2D crée une illusion de 3D. Comment ? Tout simplement en jouant sur les perspectives, les lumières et les ombres. Ce qui veut dire que, avant d'être affichées, ces images ont subi un "traitement" en conséquence... et même un traitement conséquent !

Un logiciel affichant de la 3D en temps réel génère ainsi constamment des images quels que soient les mouvements effectués par l'utilisateur (translation, rotation, zoom avant ou arrière). De très nombreux calculs sont dès lors nécessaires et c'est là que le GPU intervient puisque c'est sa spécialité ! Chaque seconde, de nombreux "clichés" sont ainsi envoyés à l'écran, qui, à la manière d'un film, donnent l'illusion de l'animation alors qu'il ne s'agit, en réalité, que d'une succession rapide de plans fixes. On parle alors de FPS (frames per second). Le nombre de FPS détermine la fluidité de l'affichage et est étroitement lié à la puissance du GPU et à la complexité du logiciel.