21
Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite. © Techniques de l’Ingénieur, traité Télécoms E 5 530 1 Synthèse d’image par Michel LUCAS Docteur ès Sciences Professeur à l’École Centrale de Nantes es images de synthèse commencent à envahir notre univers. De nombreux génériques de télévision sont produits par ordinateur, ainsi que tout ou partie de quelques spots publicitaires. Certains films comportent des séquences dans lesquelles des images de synthèse viennent compléter une image réelle. On sait même, à partir de séquences filmées, créer des acteurs de synthèse qui peuvent peupler des films que l’acteur original n’a pas tournés... Les études d’impact sur l’environnement de la réalisation de tel ou tel ouvrage d’art bénéficient dès main- tenant de paysages « réalistes » produits par ordinateur. Les chirurgiens peuvent s’exercer sur une reconstitution informatique à chercher le meilleur chemin pour une intervention. Les présentations commerciales d’un nouveau modèle de voi- ture peuvent se faire « sur image » avant même que le moindre prototype ait été construit. L’apprentissage du pilotage d’un nouvel avion se fait couramment sur des simulateurs de vol. Cette invasion est le résultat de plusieurs facteurs : — les progrès réalisés du point de vue de la technologie des ordinateurs : des puissances de calcul et de stockage de jour en jour plus grandes sont offertes, qui permettent d’envisager des applications de plus en plus complexes ; 1. Modélisation des scènes tridimensionnelles ................................... E 5 530 - 2 1.1 Modèles pour la synthèse d’image ............................................................ 2 1.2 Nature et représentation des objets........................................................... 2 1.3 Structuration des modèles.......................................................................... 3 1.4 Quelques familles de modèles ................................................................... 4 1.4.1 Objets en fil de fer .............................................................................. 4 1.4.2 Ensembles de facettes planes ........................................................... 4 1.4.3 Surfaces gauches................................................................................ 4 1.4.4 Solides ................................................................................................. 4 1.4.5 Passage d’un modèle à un autre ....................................................... 5 1.5 Construction interactive de scènes ............................................................ 5 2. Visualisation des scènes tridimensionnelles ................................... 7 2.1 Bases de la visualisation réaliste................................................................ 7 2.2 Modèles d’illumination ............................................................................... 8 2.2.1 Modèle de Gouraud............................................................................ 9 2.2.2 Modèle de Phong................................................................................ 9 2.2.3 Modèle de Whitted ............................................................................. 9 2.3 Élimination des parties cachées ................................................................. 9 2.4 Images réalistes ........................................................................................... 10 2.4.1 Lancer de rayons ................................................................................ 10 2.4.2 Radiosité .............................................................................................. 10 2.5 Parallélisation des algorithmes de synthèse d’image .............................. 12 2.6 Conclusion.................................................................................................... 14 3. Quelques applications de la synthèse d’image ............................... 15 3.1 Visualisation scientifique ............................................................................ 15 3.2 Simulateurs .................................................................................................. 17 3.3 Animation..................................................................................................... 18 3.4 Réalités virtuelles......................................................................................... 19 4. Conclusion ................................................................................................. 19 Pour en savoir plus........................................................................................... Doc. E 5 530 L

Synthèse d’Image

Embed Size (px)

Citation preview

Page 1: Synthèse d’Image

E 5

53

0

9

- 19

94

Synthèse d’image

par Michel LUCASDocteur ès SciencesProfesseur à l’École Centrale de Nantes

es images de synthèse commencent à envahir notre univers. De nombreuxgénériques de télévision sont produits par ordinateur, ainsi que tout ou partie

de quelques spots publicitaires. Certains films comportent des séquences danslesquelles des images de synthèse viennent compléter une image réelle. On saitmême, à partir de séquences filmées, créer des acteurs de synthèse qui peuventpeupler des films que l’acteur original n’a pas tournés... Les études d’impact surl’environnement de la réalisation de tel ou tel ouvrage d’art bénéficient dès main-tenant de paysages « réalistes » produits par ordinateur. Les chirurgiens peuvents’exercer sur une reconstitution informatique à chercher le meilleur chemin pourune intervention. Les présentations commerciales d’un nouveau modèle de voi-ture peuvent se faire « sur image » avant même que le moindre prototype aitété construit. L’apprentissage du pilotage d’un nouvel avion se fait courammentsur des simulateurs de vol.

Cette invasion est le résultat de plusieurs facteurs :— les progrès réalisés du point de vue de la technologie des ordinateurs : des

puissances de calcul et de stockage de jour en jour plus grandes sont offertes,qui permettent d’envisager des applications de plus en plus complexes ;

1. Modélisation des scènes tridimensionnelles ................................... E 5 530 - 21.1 Modèles pour la synthèse d’image............................................................ — 21.2 Nature et représentation des objets........................................................... — 21.3 Structuration des modèles.......................................................................... — 31.4 Quelques familles de modèles ................................................................... — 4

1.4.1 Objets en fil de fer .............................................................................. — 41.4.2 Ensembles de facettes planes ........................................................... — 41.4.3 Surfaces gauches................................................................................ — 41.4.4 Solides ................................................................................................. — 41.4.5 Passage d’un modèle à un autre ....................................................... — 5

1.5 Construction interactive de scènes ............................................................ — 5

2. Visualisation des scènes tridimensionnelles ................................... — 72.1 Bases de la visualisation réaliste................................................................ — 72.2 Modèles d’illumination ............................................................................... — 8

2.2.1 Modèle de Gouraud............................................................................ — 92.2.2 Modèle de Phong................................................................................ — 92.2.3 Modèle de Whitted ............................................................................. — 9

2.3 Élimination des parties cachées ................................................................. — 92.4 Images réalistes ........................................................................................... — 10

2.4.1 Lancer de rayons ................................................................................ — 102.4.2 Radiosité.............................................................................................. — 10

2.5 Parallélisation des algorithmes de synthèse d’image.............................. — 122.6 Conclusion.................................................................................................... — 14

3. Quelques applications de la synthèse d’image ............................... — 153.1 Visualisation scientifique ............................................................................ — 153.2 Simulateurs .................................................................................................. — 173.3 Animation..................................................................................................... — 183.4 Réalités virtuelles......................................................................................... — 19

4. Conclusion ................................................................................................. — 19

Pour en savoir plus........................................................................................... Doc. E 5 530

L

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 1

Page 2: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

— la maîtrise de plus en plus affirmée des procédés de modélisation et devisualisation : en particulier, l’usage massif des modèles physiques (que ce soitpour la modélisation des solides articulés ou pour le calcul des ambiances lumi-neuses) a fait passer de l’ère pragmatique à l’ère scientifique. Les résultats sontplus proches de la réalité, ce qui leur donne une grande force ;

— les efforts pour proposer aux utilisateurs (artistes, concepteurs, info-graphistes) des outils graphiques qui soient d’une grande simplicité d’emploi,et proches des modes de pensée de chacun. La plus grande attention apportéeà la conception des interfaces entre l’utilisateur et la machine est un facteur déter-minant de succès.

La création d’une image de synthèse met en œuvre de nombreuses tech-niques, appartenant à des champs disciplinaires variés. Pour comprendre les limi-tations existant aujourd’hui encore, il est souhaitable de connaître les grandeslignes des procédés de calcul employés dans les systèmes de production de tellesimages. Dans cet article, nous commencerons par décrire l’ensemble desmodèles qui sont nécessaires à la création d’une image. Nous évoquerons ensuiteles différentes étapes conduisant à la création d’une image réaliste. Enfin,quelques applications de l’image de synthèse seront présentées.

1. Modélisation des scènes tridimensionnelles

1.1 Modèles pour la synthèse d’image

La synthèse d’image fait une grande consommation de modèlesafin de permettre la production d’une présentation graphique. Onpeut répertorier au moins les modèles suivants :

— le modèle géométrique, qui permet de définir et représenterles formes des objets : les différentes familles de modèles géo-métriques diffèrent par les primitives utilisées, les possibilités destructuration de la scène et les facilités de passage d’un modèle àun autre ;

— le modèle d’aspect, qui permet de décrire l’apparence exté-rieure d’un objet : on range essentiellement dans cette catégorie lestechniques de modélisation de textures ;

— le modèle d’illumination, qui tient compte de tous les para-mètres définissant les jeux d’ombre et de lumière sur un objet : lesimages dites réalistes sont caractérisées par la grande richesse dumodèle d’illumination ;

— le modèle de vision, qui correspond à la notion de prise de vue :il autorise la définition du type de projection employé, du placementde l’observateur, dans certains cas des mouvements de la caméra(ou de l’appareil de photo) ;

— le modèle d’affichage, qui tient compte des potentialités dessurfaces de visualisation. On distingue ainsi couramment les dis-positifs de production de dessin au trait de ceux produisant desimages. D’autres paramètres peuvent encore intervenir : le nombrede points pour une image donnée, le nombre de couleurs différentessusceptibles d’être utilisées.

C’est la collaboration entre ces différents modèles qui permet deconstruire l’image finale. Le point clé est qu’un modèle, par défi-nition, n’est qu’une approximation de la réalité. Plus le modèle estproche de celle-ci, meilleur il sera. Cependant, sauf cas idéal, lemodèle introduit forcément des erreurs. Il faut donc tenir comptede celles-ci pour pouvoir apprécier la qualité (la correction) d’uneimage donnée. Il faut, pour qu’une image soit bonne, que l’ensembledes modèles utilisés soient de niveau homogène : il ne sert à riend’avoir un modèle d’illumination hypersophistiqué, si c’est pour pro-duire un dessin au trait ! Par ailleurs, plus un modèle est riche, plus

les calculs qui lui sont liés sont longs et coûteux. Il faut donc chercherle compromis raisonnable entre la qualité d’un modèle, les besoinsindispensables de l’application et les temps de calcul supportables.En particulier, il est vain de chercher à gagner du temps de calculen simplifiant un modèle, si la qualité de l’image obtenue n’est pasadaptée à l’application. Cependant il est classique de simplifier lemodèle d’illumination, afin d’économiser du temps de calcul : on nepeut plus alors parler d’image réaliste, mais d’image (peut-être)suffisamment parlante pour l’application visée.

1.2 Nature et représentation des objets

Il est habituel de classer les différents modèles géométriques ens’appuyant sur les notions suivantes :

— les primitives géométriques employées : elles peuvent être bi-ou tridimensionnelles (parfois plus). Ces primitives représentent leséléments de base qui vont permettre de décrire les objets traités.En deux dimensions, on s’intéresse souvent aux segments de droite,aux arcs de conique, aux morceaux de courbe. En trois dimensions,les familles de modèles s’appuient sur les facettes polygonalesplanes, les carreaux de surface gauche, les ensembles dequadriques, le découpage spatial ou la géométrie volumique. L’idéede base est de définir un ensemble d’objets élémentaires qui,combinés entre eux, vont permettre d’obtenir des objets composés ;

— les combinaisons possibles : on s’intéresse ici aux méthodessusceptibles de construire des objets composés. À côté de tech-niques consistant à assembler sans vérification des primitives entreelles, il peut exister de véritables opérations conduisant à la défi-nition précise, sous contraintes, des objets. C’est le cas typiquementdes opérations booléennes qui s’appliquent à des volumes ou dessolides, afin de redonner des volumes ou des solides. La richessedes opérations proposées permet de simplifier le processus de des-cription des objets et de mettre en œuvre des procédés de vérificationde leur cohérence. Par contre, la complexité des algorithmesassociés peut devenir très grande [22] ;

— la structuration de la scène : il s’agit de donner la possibilitéde lier logiquement ou spatialement les différents éléments de lascène entre eux. Ainsi, certaines opérations se trouveront simpli-fiées, et les calculs diminués ;

— les liens dans le temps : certains modèles géométriques offrentla possibilité de décrire les modifications éventuelles de formes en

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 2 © Techniques de l’Ingénieur, traité Télécoms

Page 3: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

fonction du temps qui s’écoule. La plupart des logiciels d’animationincluent cette possibilité. Nous le citons pour mémoire, car nous nenous intéresserons pas à cet aspect de la modélisation.

Cependant, cette présentation conduit à distinguer trois notions :— la nature des objets à représenter : il s’agit là de leur réalité

géométrique. C’est ainsi que l’on peut avoir à traiter des points, descourbes, des surfaces, des volumes, des solides. Ces entités serontreprésentées ou approchées à l’aide de primitives plus ou moins bienadaptées ;

— la nature des primitives utilisées pour approcher les objets :on disposera ainsi de points, arcs de courbes, carreaux de surfaceou volumes élémentaires. Dans la plupart des cas, on combinera cesprimitives entre elles pour obtenir l’objet final. La nature des objetsne préjuge pas de la nature des primitives utilisées pour les repré-senter, même si certaines primitives sont mieux adaptées qued’autres ;

— les modes de représentation informatique, qui concernent lamanière de représenter l’information nécessaire dans la machine :on trouvera ainsi des définitions explicites (coordonnées de points,par exemple) et des définitions algorithmiques (association d’un pro-cédé de calcul à la donnée d’informations élémentaires : calcul despoints d’un cercle, connaissant le centre et le rayon). C’est le secteurde préférence de ce que l’on appelle improprement les structuresde données graphiques : il s’agit ni plus ni moins que d’utiliser toutce que l’on connaît sur la représentation en machine de files, arbres,matrices et autres graphes, en l’appliquant à des informations denature graphique.

Prenons un exemple : il est classique de représenter un cube àl’aide d’un ensemble de facettes polygonales planes. Chaque facetteest connue grâce aux sommets définissant les arêtes délimitant sonpourtour, sommets donnés dans un ordre permettant de suivre lecontour de la facette. La figure 1 représente un cube de côté unité.Les huit sommets sont numérotés et l’on donne leurs coordonnéesdans l’espace à trois dimensions. Les six facettes sont décrites parla succession des numéros de sommets sur leur pourtour. Cesrenseignements suffisent pour calculer automatiquement les partiesvues et cachées d’un objet (la position de l’observateur étant fixée).C’est ainsi que sur la figure 2 la simple disparition de la facette no 6(décrite par la suite de sommets 1 2 3 4 dans la figure 1) conduità dessiner une boîte creuse.

Mais cette interprétation préjuge de la nature de l’objet : il s’agitd’une simple collection de facettes. Et si l’on s’intéressait au cubeen tant que solide ? On pourrait utiliser de la même manière cettereprésentation, mais l’interprétation deviendrait tout autre : on nepourrait plus enlever de face, sous peine d’incohérence (à moinsde pratiquer une coupe, qui devrait conduire à la constructiond’une facette). En effet, dans le cas d’un solide, le problème estcelui de la modélisation de la matière. On peut identifier deuxgrandes techniques [52] :

— la modélisation de l’extérieur et de l’intérieur du solide : toutpoint appartenant au solide est connu, qu’il soit intérieur ou surl’enveloppe externe. On utilisera une énumération spatiale(ensemble des points constituant le solide), une définition mathé-matique (équation de la sphère, par exemple) ou la composition devolumes élémentaires (par opérations booléennes) ;

— la modélisation de l’extérieur du solide : on définit simplementla frontière extérieure du solide, les points intérieurs devant êtreretrouvés par calcul. On pourra utiliser une définition mathématique,ou la description des surfaces, ou des ensembles de facettes planes.

Ces choix peuvent avoir des conséquences très importantes surles temps de calcul, les opérations possibles, les techniques de visua-lisation, les possibilités d’échange, etc. Il convient donc de biendifférencier ces trois niveaux, de manière à traiter correctement lesproblèmes de représentation et d’adaptation à de nouvellestechniques.

1.3 Structuration des modèles

La structuration éventuelle d’une scène permet de regrouper, surcertains critères, des parties de celle-ci, de manière à pouvoir lestraiter à la fois indépendamment, mais également en liaison avectout ou partie du reste de la scène. Les techniques de structurationde scènes tendent à prendre une importance de plus en plus grande.Les relations de structuration se trouvent incorporées au modèlegéométrique et viennent accompagner les primitives géométriqueschoisies. Plusieurs types de structuration peuvent cohabiter au seind’un même modèle.

■ Un premier type de structuration est lié directement à l’applica-tion visée. Il s’agit de décomposer la scène en sous-ensembles liéslogiquement entre eux, en établissant éventuellement une hiérarchieentre les différents éléments. On parle alors de structuration logique.L’exemple le plus classique est la décomposition en sous-ensemblesliés de manière arborescente entre eux. C’est ainsi qu’il peut être utiled’organiser en arbre les différents éléments d’un solide articulé, demanière à pouvoir décrire les mouvements comme étant le résultatde la composition de mouvements élémentaires décrits en chaquenœud de l’arbre. Lors de l’évaluation de l’arbre, il suffit de multiplierles matrices de transformation géométrique présentes en chaquenœud de l’arbre pour obtenir le mouvement général.

■ Un deuxième type de structuration sera lié à la manière de décrireles objets composant la scène. C’est ainsi que dans le cadre de laGéométrie constructive de volumes (connue plus souvent sous levocable CSG : Constructive Solid Geometry ), un volume est décritcomme le résultat d’opérations booléennes appliquées à desvolumes élémentaires. Ces opérations peuvent être décrites sousforme d’une arborescence reflétant l’ordre et la priorité des opéra-tions à réaliser. On parle alors d’arbre de construction. Un exempleest donné sur la figure 3.

Figure 1 – Modélisation d’un cube à l’aide de facettes planes

Figure 2 – Modification de l’objet de la figure 1

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 3

Page 4: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

On notera que l’arbre de construction est lié au modèle géo-métrique employé et aux opérations que l’on applique. La structu-ration de construction peut être totalement indépendante de lastructure logique et donc s’ajouter à celle-ci dans un modèle.

■ La structuration spatiale est un troisième exemple de structurepotentielle d’une scène. Elle consiste à organiser ses éléments entenant compte de notions telles que le voisinage, la connexité,l’espace englobant. De nombreux développements sont en cours,liés à la nécessité d’accélérer les algorithmes de calcul des imagesréalistes. Un mécanisme de base consiste à s’intéresser à desvolumes englobants, tels que des parallélépipèdes rectangles auxbords parallèles aux plans principaux ou des sphères. On tente dansun premier temps de ne s’intéresser qu’à ces volumes, de manièreà délimiter le plus rapidement possible les zones de l’espace vrai-ment intéressantes pour le calcul. On notera que certains modèlesgéométriques portent en eux-mêmes cette notion de structuration del’espace (cf. § 1.4.4, arbres octaux).

1.4 Quelques familles de modèles

Les modèles tridimensionnels sont aussi variés que les modèlesbidimensionnels [44]. Nous évoquerons quelques familles d’objets :les objets en fil de fer, les ensembles de facettes planes, les surfacesgauches et les solides.

1.4.1 Objets en fil de fer

Les objets en fil de fer sont constitués d’éléments filiformes, telsque des segments de droite ou des courbes. Ils sont décrits par ladonnée des points de l’espace (les sommets) et les arêtes quijoignent certains sommets entre eux. Si ces objets sont extrêmementsimples à manipuler, il est évident qu’ils ne suffisent pas pour décrirele monde réel. En particulier, la notion de parties cachées n’existepas.

1.4.2 Ensembles de facettes planes

Une famille très importante est celle des objets bordés par desfacettes polygonales planes. On suppose que tout constituant dumonde réel peut être approché par un ensemble de facettes, qui

permettront de décrire une enveloppe extérieure. Ces facettes serontdotées de propriétés physiques telles que couleur, pouvoir deréflexion ou d’absorption de la lumière, transparence ou opacité. Cesdifférents paramètres permettent de calculer les parties de la scènequi sont visibles par un observateur et de donner une présentationgraphique satisfaisante. Cependant, cette famille d’objets est encoreinsuffisante pour décrire des scènes réelles puisque, bien souvent,il est nécessaire de représenter des surfaces gauches. Si cesdernières peuvent toujours être approchées par des ensembles defacettes, la qualité de la représentation est parfois insuffisante.

1.4.3 Surfaces gauches

Un premier type de surfaces gauches est constitué par la familledes quadriques, c’est-à-dire essentiellement des sphères, des cônes,des paraboloïdes ou des portions de ces surfaces. D’importantstravaux ont été effectués, qui ont permis la construction effectivede scènes à l’aide de tels éléments. Des problèmes, tels que le calculde l’intersection de ces surfaces entre elles, ont été résolus.Cependant, les surfaces à modéliser exigent en général une finessedans la représentation qui ne peut être atteinte qu’à travers l’utili-sation de courbes ou de surfaces de degré supérieur.

On utilise alors des ensembles de carreaux de surface, définis parla donnée de quatre courbes frontières (figure 4). Les divers typesde surfaces se différencient par les équations des courbes frontières,équations choisies de manière à satisfaire un certain nombre de pro-priétés telles que la simplicité de calcul, la facilité de modificationou la composition. Deux types de courbes ou de surfaces sont trèsutilisés : les surfaces de Bézier (qui servent beaucoup dans l’industrieautomobile) et les splines.

1.4.4 Solides

Les modèles précédents ne s’intéressent pas au volume d’un objet,même s’ils permettent de représenter l’enveloppe extérieure de cetobjet. Le modèle en arbre octal (octree ) s’appuie au contraire direc-tement sur la notion de volume élémentaire (en l’occurrence descubes) pour décrire une scène.

La scène à représenter est supposée contenue dans un volumecubique (univers) dont la dimension est une puissance de deux. Lecube élémentaire de côté unité est appelé un voxel. Par extension(et abus de langage), on appelle également voxel tout cube contenuà l’intérieur de cet univers. Ces voxels ont alors une taille variable(figure 5) et sont caractérisés par leurs dimensions et leur positionà l’intérieur de l’univers (par exemple les coordonnées d’un coin).

Décrire une scène revient à fournir une liste des voxels pleins,c’est-à-dire contenant de la matière (par opposition aux voxelsvides). La construction d’un arbre octal répond aux règles suivantes :

— le processus commence en prenant l’univers comme point dedépart ;

— si l’univers est entièrement plein ou entièrement vide, l’arbreoctal est réduit à l’univers ;

— si l’univers n’est ni entièrement plein, ni entièrement vide, onle divise en huit sous-espaces identiques, de côté moitié de celuide l’univers d’origine ;

— on étudie les huit voxels obtenus, de manière à déterminer s’ilssont entièrement vides ou entièrement pleins ; pour chaque voxelse trouvant dans la situation recherchée, l’analyse est finie ; lesautres sont de nouveau divisés en huit ;

— le processus s’arrête lorsque tous les voxels étudiés se sontrévélés entièrement pleins ou vides ou lorsque, à force de diviser,on atteint des voxels de côté unité.

La scène peut alors être représentée par un arbre dont la racinereprésente l’univers et dont les nœuds représentent les voxelsobtenus à partir de leur père, par découpage en huit. L’informationportée par un nœud est : vide, plein, divisé.

L’intérêt de cette technique est d’offrir des niveaux de détail(correspondant aux niveaux de l’arbre) qui peuvent être utilisés à

Figure 3 – Arbre de construction

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 4 © Techniques de l’Ingénieur, traité Télécoms

Page 5: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

bon escient. C’est ainsi que pour analyser les risques de collisionentre différents objets mobiles dans un univers donné, on peut faireappel à un parcours d’arbre octal, visant à localiser de plus en plusfinement la zone de contact potentielle, en éliminant rapidement leszones dans lesquelles il n’y a aucun danger.

1.4.5 Passage d’un modèle à un autre

Les différentes familles de modèles géométriques possèdent despropriétés particulières dont il peut être intéressant de disposer àdifférents moments de la vie informatique d’un objet. On peut donnerles exemples suivants :

— il peut arriver que l’on dispose de programmes (ou demachines) spécialisés dans la visualisation d’un certain type demodèle géométrique. Si l’on ne dispose pas d’une descriptionrespectant cette famille (voire sa représentation), il est nécessaire,si l’on ne veut pas développer de nouvel algorithme, de transformersi possible automatiquement la représentation courante en unereprésentation adaptée à l’algorithme choisi. C’est ainsiqu’aujourd’hui encore la majorité des images sont obtenues à partird’une modélisation à facettes planes, quel que soit le modèleoriginal ;

— le calcul de certaines caractéristiques, telles que le volume oule poids d’un objet, s’effectue plus facilement dans certains modèlesque dans d’autres. Le changement de modèle pour cette phasepourra être intéressant ;

— on peut s’intéresser à des problèmes de stockage. Certainsmodèles sont moins gourmands que d’autres. On changera demodèle au moment du rangement en mémoire secondaire, quitte

à recalculer systématiquement en prévision d’un traitement. Cela esttypique de la géométrie constructive, qui permet, si on le souhaite,de ne conserver que l’arbre de construction ;

— l’échange d’informations entre systèmes peut égalementconduire à des changements de modèles, un modèle universel étantprobablement une utopie. Là encore, il va falloir s’assurer que le pas-sage d’un modèle à un autre peut se faire sans perte d’information.

Ainsi, d’une manière générale, il est de plus en plus fréquent queplusieurs modélisations d’une même scène coexistent. On noteracependant qu’il existe plusieurs degrés de compatibilité entremodèles géométriques :

— compatibilité totale : aucune perte d’information ne se produit.C’est le cas par exemple du passage du modèle à facettes vers lemodèle fil de fer. Un algorithme très simple permet de déduire auto-matiquement des facettes les arêtes devant figurer dans le modèlefil de fer ;

— incompatibilité totale : il est impossible de passer d’un modèleà l’autre. C’est le cas du modèle fil de fer vers le modèle à facettesplanes. En l’absence de renseignements supplémentaires, aucunmoyen automatique ne permet de déterminer les faces devantexister ;

— compatibilité partielle : une perte d’information acceptable seproduit. On peut considérer qu’il s’agit dans ce cas d’une approxi-mation du modèle initial, approximation valable jusqu’à un certainseuil. C’est ainsi qu’une surface gauche peut être approchée par unensemble de facettes polygonales planes. Il est évident qu’unnombre minimal de facettes doit être employé, sous peine de défi-gurer complètement l’objet initial : que dire d’une sphère approchéepar un solide à 6 faces ? Si l’on peut déterminer un seuil d’accep-tation, le passage est alors possible.

1.5 Construction interactive de scènes

Une fois choisi(s) le (ou les) modèle(s) géométrique(s), il s’agit deconstruire en mémoire la maquette numérique de la scène à traiter.On peut considérer qu’il existe aujourd’hui deux grandes méthodesde construction d’objets :

■ la méthode algorithmique, dans laquelle un programme permet,à partir de la donnée de quelques paramètres, d’engendrer lesformes voulues. C’est typiquement le cas de la géométrie construc-tive des solides, dans laquelle des algorithmes complexes per-mettent de calculer les formes résultant des opérations booléennesde l’arbre de construction. Le concepteur n’a plus qu’à donner lesparamètres fixant les formes élémentaires et les opérations àeffectuer ;

■ la méthode interactive, dans laquelle le concepteur définit lesformes souhaitées en utilisant des moyens graphiques plus ou moinsperfectionnés. La création de surfaces gauches à l’aide de réseaux depoints de contrôle est un exemple typique de cette manière.

Bien entendu, des méthodes mixtes ont été développées. C’estainsi que la plupart des systèmes de conception assistée par ordi-nateur (CAO) font un grand usage de techniques graphiques inter-actives pour introduire en machine aussi bien des formesélémentaires que des ensembles de valeurs.

Il a été développé de nombreuses techniques, liées en général auxmodèles géométriques. On peut faire plusieurs remarques.

● Certains modèles se prêtent plus que d’autres à la constructioninteractive : c’est ainsi que la définition d’objets 2D 1/2 se fait trèssimplement en dessinant le contour de l’embase, laissant le logicielcompléter la pièce. La figure 6 donne un exemple de pièce modéliséepar un ensemble de facettes planes, alors que seul le contour del’embase a été dessiné par le concepteur. De nombreux modèles géo-métriques ont été conçus pour faciliter le travail en mode interactif.Citons : les surfaces gauches (Coons, Bézier, B-spline), les cônesgénéralisés, les techniques par balayage.

Figure 4 – Modélisation de surface gauche(Doc. Institut de Recherche en Informatique de Nantes)

Figure 5 – Objet modélisé par un arbre octal(Doc. Institut de Recherche en Informatique de Nantes)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 5

Page 6: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

● Certains modèles se prêtent mal à la construction interactive :c’est ainsi que, alors qu’il est très utilisé, le modèle à facettes planesne permet pas très facilement de construire directement desensembles de polygones.

● Il est très classique de passer par des modèles différents pourdéfinir un objet et le stocker. Par exemple, pour définir l’objet 2D 1/2de la figure 6, on pourrait employer un système de dessin en deuxdimensions, utilisant des arcs de courbes de degré élevé et desconstructions géométriques complexes pour la définition del’embase. Le contour sera ensuite automatiquement discrétisé, pourpouvoir calculer automatiquement les faces à construire pour passerà un modèle à facettes planes (si nécessaire).

On constatera cependant que la caractéristique commune detoutes ces techniques est qu’elles considèrent que le concepteur saitexactement ce qu’il veut. En pratique, il construit un objet etdemande l’aide de la machine soit pour calculer les formes corres-pondantes, soit pour effectuer quelques vérifications (résistance dematériaux, calcul de structure, etc.). On parle de modélisation cons-tructive ou impérative. Tout se passe comme si le concepteur disaitexactement à la machine comment construire l’objet sélectionné,laissant celle-ci effectuer quelques tâches fastidieuses, mais ne libé-rant pas totalement le concepteur du souci d’imaginer une formecorrespondant à son problème. Si cette approche est satisfaisantepour des domaines comme la CAO en automobile ou en aéronau-tique, elle s’avère strictement inutilisable pour d’autres domainesoù l’on cherche à découvrir des formes potentielles, plutôt qu’enconstruire qui soient connues a priori. C’est pourquoi des recherchesimportantes se font aujourd’hui dans le domaine de la modélisationdéclarative [20].

L’objectif de la modélisation déclarative est de permettred’engendrer des formes (ou des ensembles de formes) par la simpledonnée d’un ensemble de propriétés ou de caractéristiques. L’idéeessentielle est de s’appuyer sur une description formelle, à l’aided’un ensemble de propriétés nécessaires et suffisantes pour décriretotalement un ensemble d’objets. On s’intéresse en général auxnotions suivantes :

— classes de propriétés : topologie, géométrie, mécanique... ;— propriétés globales, ou locales (mise en place de mécanismes

d’héritage et de synthèse) ;— composition de propriétés : union, intersection, négation ;— relations entre propriétés.

L’ordinateur est chargé d’explorer l’univers des formes poten-tielles, afin de sélectionner celles correspondant à la définitiondonnée. Le concepteur n’a plus qu’à choisir, à l’aide d’outils appro-priés, la ou les formes qui lui conviennent.

Le développement des algorithmes d’exploration d’univers deformes s’appuie en général sur deux mécanismes :

— engendrer automatiquement tous les objets d’un univers deformes particulier ;

— explorer sélectivement cet univers, en décrivant les formes àatteindre à l’aide de propriétés géométriques, topologiques ouautres.

La figure 7 donne un exemple de description d’un polyèdre à l’aidede trois propriétés suffisantes pour le définir entièrement. Les facesde ce polyèdre sont des pentagones, qui en se recoupant, engendrentdes facettes triangulaires. Cette figure est un exemple de ce que peutproduire un système de modélisation déclarative de polyèdre [47].

Un autre problème est de savoir passer du modèle formel aumodèle géométrique. Cela suppose des techniques qui appar-tiennent aux trois catégories suivantes.

■ Utilisation d’algorithmes spécifiques, adaptés au type d’objet quel’on veut construire. Ils ont l’avantage d’être en général efficaces,mais ils ne permettent pas forcément de structurer l’univers deformes (on entend par structuration le fait de pouvoir regrouper desensembles de formes en utilisant un ou plusieurs critères).

■ Utilisation de tirages aléatoires, qui impliquent bien entendu uneparamétrisation des objets à engendrer. Le tirage se fait sur lesvaleurs susceptibles d’être prises par les différents paramètres. Ondistingue encore deux procédés :

— le tirage aléatoire sans contrôle, pour lequel on se contented’utiliser un générateur de nombres pseudo-aléatoires, sanschercher à vérifier une quelconque loi de probabilité. Ce mécanismeest très simple, mais conduit à obtenir des objets dont, par définition,on ne sait rien ;

— le tirage aléatoire contrôlé, pour lequel on fait usage de loisde probabilités fixées à l’avance. Les scènes obtenues sont alorsdotées par construction de certaines propriétés et sont donc mieuxconnues. Cependant, ce procédé ne permet pas de réaliser simple-ment la composition de propriétés et, surtout, n’assure pas que l’onpourra passer en revue tous les objets d’un univers donné : certainsseront peut-être inaccessibles.

■ Utilisation d’arbres de génération ou d’exploration : deux cas sontà considérer :

— on s’intéresse à un univers fini : on recherche alors un ouplusieurs arbres permettant une énumération totale de cet univers(on parle d’arbres d’exploration). Un parcours en préordre permetde structurer l’univers exploré. Il sera alors possible de n’explorerqu’une partie de l’univers, en éliminant les branches sans intérêt.Pour cela, on met en place un mécanisme d’élagage. Il peut existerplusieurs arbres d’exploration, permettant d’atteindre ou non latotalité des objets de l’univers ;

— on s’intéresse à un univers infini : on ne dispose plus d’arbreexhaustif. Dans ce cas, on passe par un arbre de construction, ouencore de déduction. Il est fait usage des règles, pour engendrer lesobjets à partir de propriétés. La modélisation des propriétésabstraites se fait à l’aide de règles constructives ou destructives.Différents mécanismes sont alors nécessaires : chaînage avant ouarrière, chaînage mixte pour déduire ou vérifier des propriétés.

Figure 6 – Construction d’une pièce 2D 1/2

Figure 7 – Description formelle d’un polyèdre(Doc. Institut de Recherche en Informatique de Nantes)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 6 © Techniques de l’Ingénieur, traité Télécoms

Page 7: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

Enfin, la modélisation déclarative fait appel au développementd’outils de prise de connaissance : visualisation, apprentissage. Eneffet, si l’on connaît les propriétés de la scène a priori, on ne connaîtpas la forme que peut prendre cette scène. Il faut donc disposer demécanismes permettant en particulier de favoriser l’explorationvisuelle de la scène. Par ailleurs, des techniques permettant deréduire les temps de calcul en tenant compte d’explorations précé-dentes doivent être mises en œuvre. Ce sera le rôle des modulesd’apprentissage.

Les notions les plus importantes en ce qui concerne la visualisationsont les suivantes.

■ Choix automatique d’un bon point de vue

Des algorithmes tenant compte des propriétés connues (donnéeslors de la description) et déduites (en combinant les propriétésconnues) doivent permettre de sélectionner automatiquement unpoint de vue mettant en valeur telle ou telle propriété. C’est ainsiqu’un programme d’exploration d’un univers d’arbres octaux doitproposer (si c’est souhaité) un point de vue permettant de voir unmaximum de cubes. On notera que la notion : un bon point de vueest une restriction de la notion : le meilleur point de vue. Cette res-triction est rendue nécessaire si l’on veut obtenir des temps de calculraisonnables.

Le choix d’un bon point de vue s’accompagne de la notion de zonesd’observation, liées au type de propriétés que l’on cherche à mettreen valeur [9]. La figure 8 donne des exemples de zones d’observa-tion, dans lesquelles un bon point de vue devrait être choisi pourobserver des propriétés de symétrie ou de platitude.

■ Nécessité de proposer plusieurs modes de visualisation

Le même objet devra pouvoir être présenté en mode fil de fer, avecélimination des parties cachées, en utilisant des techniques de trans-parence. L’ensemble de l’objet sera montré, ou seulement une partie,voire un simple squelette. Ces différents modes de visualisationpourront être présents simultanément sur une même image.

■ Possibilité d’explorer visuellement un grand nombre de solutionspotentielles

Il est alors fait appel à des gestionnaires de vues multiples quipermettent de consulter facilement les différentes solutions trouvéespar la machine.

En ce qui concerne les possibilités d’apprentissage, ellespermettent :

— de garder une trace de ce qui a été exploré, pour ne pas revoirdes objets ou classes d’objets déjà connus ou retrouver rapidementdes objets connus ;

— de conserver des points de vue intéressants ;— d’enrichir le système d’exploration : incorporation de nouvelles

règles de description ou de nouvelles propriétés (avec les règlesd’élagage associées) ;

— de pouvoir remettre en cause certains choix : si l’on trouve àun moment donné une meilleure voie d’exploration (découverted’arbres d’exploration mieux adaptés) ou si de nouvelles contraintessont ajoutées.

On voit donc qu’il y a deux types d’objectifs :— économiser du temps de calcul (et donc avoir des réponses plus

rapides) en réutilisant des recherches faites précédemment ;— ajouter de nouvelles potentialités au système, sans avoir à

réécrire des lignes et des lignes de programme.

Les travaux sur la modélisation déclarative commencent àdéboucher. Les premières applications se trouvent dans ledomaine architectural [10] [21] ou dans celui du contrôle spatial [6].

2. Visualisation des scènes tridimensionnelles

2.1 Bases de la visualisation réaliste

Le problème que l’on cherche à résoudre est celui de la présen-tation d’une scène tridimensionnelle comme vue par un appareilphotographique ou par notre système de perception visuelle. Lespremiers problèmes qui ont été résolus ont été ceux de la présen-tation en perspective et de l’élimination des lignes cachées : en effet,au départ, on s’intéressait surtout au dessin au trait (figure 9). Avecl’arrivée des consoles permettant d’afficher des images, les algo-rithmes de calcul des surfaces visibles sont apparus.

Le premier pas vers l’illusion de la réalité est franchi lorsque l’ontient compte de la présence d’une source lumineuse. Les objets sontdotés de couleurs dépendant à la fois de la couleur affectée à chaqueface et de leur position par rapport à une source lumineuse d’inten-sité fixée. La couleur originale est modifiée en fonction de l’angleformé par la normale à la facette considérée et la direction où setrouve la source lumineuse (application de la loi de Lambert). Ainsi,les faces pleinement éclairées paraissent plus brillantes que les facessituées dans l’ombre. Ce mode de calcul permet également de tenircompte de la nature de la surface des objets, puisque la lumière n’estpas réfléchie de la même manière par un bloc d’aluminium poli oude plomb rugueux.

D’autres facteurs interviennent dans le calcul de la couleur qu’ilfaut affecter à un point. Lorsque l’on traite la transparence, il fautprendre en compte les indices de réfraction des matériaux qui sonttraversés et leur degré d’opacité. Ces facteurs affectent à la fois lecoloris qu’il faut choisir (la couleur d’une face vue en transparencese combine avec celle de la face traversée) et l’image des objets (laréfraction peut déformer l’image, si par exemple la surface traverséen’est pas plane). La réflexion de la lumière provoque des effets quiviennent interférer avec les sources principales d’illumination etcompliquent le calcul des reflets.

On peut encore ajouter le traitement des ombres portées, quiviennent recouvrir tout ou partie d’un objet. Le calcul des ombresportées est souvent réalisé en deux temps. On calcule une premièreimage de manière habituelle, à partir du point de vue de l’obser-vateur. Une deuxième image est calculée à partir de la source lumi-neuse : les parties cachées sont considérées comme dans l’ombrede cette source. Il suffit alors de combiner les deux images pourobtenir le résultat définitif.

Figure 8 – Zones d’observation (d’après [9])

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 7

Page 8: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

Un dernier élément permettant d’approcher encore plus le réa-lisme est l’utilisation de textures. On désigne sous ce vocable toutagencement de pixels destiné à remplir une surface donnée et conçupour suggérer visuellement la nature de cette surface. On peut parexemple créer une bibliothèque de motifs texturaux, composéed’éléments décoratifs caractéristiques de l’illusion que l’on chercheà créer. L’image est obtenue en juxtaposant ces motifs élémentairesde manière à recouvrir entièrement les différents objets de la scène.Plusieurs types de difficultés sont à vaincre : la déformation desmotifs en fonction de la forme de l’objet à habiller et en fonctionde la perspective ; la correction d’effets visuels indésirables dus àdes défauts d’échantillonnage (on parle d’anti-aliassage et d’anti-crénelage). Pour contourner ces difficultés, on utilise de plus en plusdes modèles algorithmiques, fondés sur des traitements statistiqueset probabilistes de la notion de texture. Une texture donnée est alorsengendrée entièrement par calcul, ce calcul pouvant prendre encompte directement les problèmes de déformation ou d’échantillon-nage [7] [35] [40]. La figure 10 donne un exemple d’objet présentésous différents modes de visualisation.

2.2 Modèles d’illumination

Les principaux paramètres du calcul du modelé de la lumière sontles suivants :

— lumière ambiante ou diffuse, semblant arriver de toutes lesdirections avec une intensité égale ; qualité de l’atmosphère(brouillard, brume...) ;

— transparence : le rayon change de direction en fonction del’indice de réfraction ; sa couleur est éventuellement modifiée ;

— sources lumineuses : uniques ou multiples, ponctuelles ou dif-fuses, à une distance donnée ; cachées (ombres portées) ; utilisationde la loi de Lambert ;

— propriétés de la surface : réflexion spéculaire, produite par lessurfaces polies ; réflexion diffuse ou uniforme, variant en fonctionde la texture ou de la rugosité ; degré d’absorption.

Plus le modèle est proche de la réalité, plus il prend en comptede paramètres et plus les temps de calcul sont longs. En pratique,il faut se poser la question du degré de réalisme nécessaire : il n’estprobablement pas utile de présenter de manière hyperréaliste unescène simulant la coopération de robots entre eux, alors qu’un filmde publicité pourra nécessiter un maximum de reflets, ombrages etautres effets spéciaux. Il faut remarquer que la validité des calculseffectués est très difficile à démontrer et que le jugement visuel estinsuffisant.

Figure 9 – Dessins au trait avec élimination des lignes cachées

Figure 10 – Différentes présentations graphiquesd’une pièce de jeu d’échecs

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 8 © Techniques de l’Ingénieur, traité Télécoms

Page 9: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

Plusieurs modèles sont utilisés à l’heure actuelle de manièreclassique. Ils correspondent à des approximations de plus en plusfines d’un certain type de modélisation de la lumière. On trouveraquelques références dans la bibliographie [31] [32] [38].

Pour donner une idée de la complexité croissante de ces modèles,nous détaillerons trois exemples.

2.2.1 Modèle de Gouraud

Le modèle de Gouraud est adapté aux ensembles de facettes poly-gonales planes. L’intensité lumineuse à affecter à une facette planeest calculée grâce à la formule suivante [43] :

avec C couleur de la facette,

rd coefficient de réflexion diffuse,

direction de la source lumineuse,

normale à la surface.Nota : les couleurs sont définies généralement en termes de composantes primaires

R, V, B (rouge, vert, bleu). Elles sont parfois définies en termes de longueur d’onde.

Les images ainsi obtenues ne sont pas pleinement satisfaisantes,puisque dans la réalité le passage de l’ombre à la lumière se faitde manière continue. Si l’on veut raffiner, on calcule une luminositédifférente pour chaque point d’une facette. Une interpolation linéaireest effectuée, qui affecte à chaque point d’une facette donnée uneluminosité tenant compte des luminosités des facettes voisines. Lestemps de calcul sont bien entendu plus longs, mais l’image obtenueest plus correcte, les facettes offrant alors des dégradés de couleurspermettant de mieux apprécier les zones d’ombre et de lumière. Cemodèle est simple à calculer, ce qui explique qu’il soit aujourd’huiencore très utilisé. On notera qu’il ne prend en compte que la lumièreprovenant de la source lumineuse.

2.2.2 Modèle de Phong

Le modèle de Bui-Thuong Phong utilise comme loi d’éclairementen chaque point d’une surface la formule suivante [49] :

avec Ia intensité de la lumière ambiante,

C couleur de la surface,

rd coefficient de réflexion diffuse,

direction de la source lumineuse,

normale à la surface,

Cs couleur de la lumière incidente,

rs coefficient de réflexion spéculaire,

direction de la lumière incidente,

b exposant permettant de simuler les effets de réflexion(brillant, mat...).

Le modèle de Phong est applicable aux surfaces gauches. Pouraccélérer les calculs, Phong a proposé de procéder par interpolationentre deux normales calculées sur les courbes bordant un carreaudonné. Le modèle de Phong est encore très utilisé aujourd’hui.

2.2.3 Modèle de Whitted

Le modèle de Turner Whitted est l’un des plus complets utilisésà l’heure actuelle. Il prend en compte la présence de plusieurs

sources lumineuses, la diffusion spéculaire et la lumière réfractée.Il s’appuie sur la formule suivante [57] :

avec Ia intensité de la lumière ambiante,

C couleur de la surface,

rd coefficient de réflexion diffuse,

direction de la i-ème source lumineuse,

normale à la surface,

Cs couleur de la lumière incidente,

rs coefficient de réflexion spéculaire,

direction de la lumière incidente,

b exposant permettant de simuler les effets de réflexion(brillant, mat...),

r t coefficient de transmittance,

C t couleur de la lumière réfléchie ou réfractée

Ce modèle est schématisé sur la figure 11.

2.3 Élimination des parties cachées

Dans ce paragraphe, nous appuierons notre présentation sur letraitement de scènes composées de facettes polygonales planes. Lesprincipes développés restent cependant valables pour d’autresprimitives. Seuls les calculs deviennent plus complexes.

Plusieurs algorithmes ont été publiés dès 1969 et utilisés pour lecalcul des lignes cachées. L’algorithme le plus élémentaire consisteà étudier la position relative de chaque arête de la scène par rapportà chaque face. Pour une arête et une face données, on ne peut avoirque les situations suivantes : arête en avant de la face, et donc visible(par rapport à cette face) ; arête en arrière de la face, et donc soitentièrement cachée par celle-ci (arête disparaissant du dessin final),soit partiellement cachée (seule une portion est potentiellementvisible). Dans une première étape, l’algorithme classe l’ensemble desarêtes dans l’une de ces trois catégories. Dans une seconde étape,les arêtes potentiellement visibles sont étudiées de manière à déter-miner exactement ce qui est visible ou non. Chaque arête donne ainsiun élément de dessin. Lorsque toutes les arêtes ont été étudiées,le dessin de la scène est terminé.

I Crd L N⋅( )=

L

N

I Ia+Crd L N⋅( )= Cs rs S N⋅( )b+

L

N

S

Figure 11 – Modèle de T. Whitted

I Ia+Crd Li N⋅( )= Cs rs S N⋅( )b rt Ct+ +

Li

N

S

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 9

Page 10: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

Lorsque l’on calcule les surfaces visibles, il s’agit de déterminerquelles facettes (ou portions de facettes) sont visibles pour l’obser-vateur. Il faut donc comparer les facettes entre elles, et non plus lesarêtes par rapport aux facettes. De très nombreux algorithmes ontété publiés, qui jouent parfois sur les particularités du matériel [4][18].

■ L’algorithme le plus utilisé est celui de Watkins (publié dès 1970),qui se fonde sur la notion de ligne de balayage [56]. La remarquefaite par Watkins est que, puisque l’image est destinée à un poste detélévision (en général), on construit la présentation graphique ligneà ligne, le nombre de lignes nécessaires dépendant de la définitionde l’écran (par exemple 512 lignes). Les points apparaissant sur uneligne correspondent au dessin de la portion de scène constituée parl’intersection des différentes facettes avec le plan de balayage, planorthogonal à l’écran et passant par la ligne traitée. Chaque facettecoupée par le plan de balayage détermine une trace, sous la formed’un ou de plusieurs segments de droite. L’intersection du plan debalayage et de la scène est donc formée d’un ensemble desegments de droite, que l’on suppose être observés à l’infini. Onconsidère que les segments sont opaques et qu’un segment situé enavant d’un autre le cache partiellement ou en totalité. L’image àconstruire sur la ligne de balayage est constituée de l’ensemble dessegments de droite (ou de portions de segments de droite) qui sontvisibles pour l’observateur. La construction des 512 lignes debalayage (par exemple) permet de former l’image totale sur l’écran.Cet algorithme a été parallélisé et permet de traiter des scènes decomplexité moyenne (4 000 facettes) en temps réel. Pour une géné-ralisation de cet algorithme pour le traitement de scènes composéesde facettes, de quadriques et de surfaces gauches, on pourra sereporter en [24].

■ Un autre algorithme, celui de Newell, Newell et Sancha (publié en1972), utilise un principe entièrement différent [48]. On suppose qu’ilest possible de classer les faces en leur attribuant un numéro d’ordredépendant de leur éloignement par rapport à l’observateur. On attri-bue ce numéro, par exemple en commençant par les faces les pluséloignées de l’observateur, puis en se rapprochant peu à peu decelui-ci. Une fois ce classement établi, on commence par peindre surl’écran la représentation de la face la plus éloignée de l’observateur,ce qui donne une tache de couleur occupant une certaine portion del’écran. On peint ensuite la représentation correspondant à la face laplus éloignée après la première qui a été peinte. Une deuxième tachede couleur est ainsi obtenue, qui peut soit être entièrement disjointede la première (les faces ne se cachent pas), soit recouvrir partiel-lement (ou totalement) la première tache (les faces se cachent par-tiellement ou totalement).

On continue le processus en se rapprochant de l’observateur, eton le termine en peignant la face la plus proche de celui-ci. Ce typede procédé est particulièrement intéressant lorsque l’on cherche àcombiner des colorations entre elles (cas des transparences),puisque à tout moment on dispose de l’aspect courant d’une scèneet des paramètres attachés à une face : l’approche des calculs estplus globale que dans le cas précédent. Cet algorithme est plus connusous le nom d’algorithme du peintre.

L’application de ce mode de calcul est particulièrement simpledans le cas des arbres octaux. En effet, étant donné un cube, on peut,connaissant la position de l’observateur, déterminer très simplementles faces potentiellement visibles (une, deux ou trois) et l’ordre danslequel il faut les afficher. Ce qui est vrai pour un cube se généraliseimmédiatement à l’arbre octal tout entier.

■ Un dernier exemple de technique, l’algorithme du tampon de pro-fondeur (ou encore z-maximal), permet de calculer l’image en déter-minant, pour chaque objet de la scène, l’ensemble de pixels que saprojection recouvre. Pour cela, il faut tenir à jour deux matrices, detaille égale à celle de l’écran (en nombre de points) :

— la première, le tampon de profondeur, permet de conserverl’altitude des points les plus éloignés de l’écran, altitude calculée lorsde la projection des points sur l’écran ;

— la seconde permet de conserver, en regard de chaque pointdu tampon de profondeur, la couleur de la face dont il provient.

Cette technique est très utilisée, malgré la place mémoiredemandée. Elle a été parallélisée et permet de traiter des scènes decomplexité analogue à celles traitées par l’algorithme de Watkinsparallèle.

2.4 Images réalistes

2.4.1 Lancer de rayons

Les algorithmes modernes qui prennent en compte tous les fac-teurs décrits au paragraphe 2.1 utilisent en général la technique ditedu lancer de rayons (anglais : ray-casting ). Si cette technique a étésuggérée initialement par Appel en 1968, elle pas pris de véritableessor qu’à partir de 1979, lorsque la puissance des machines acommencé à augmenter fortement [53]. L’idée de base consiste àcalculer le chemin inverse de celui suivi par un rayon lumineux quipart d’un point de l’écran en direction de l’œil de l’observateur. Enchemin, il rencontre une ou plusieurs surfaces S. Suivant lespropriétés de ces surfaces, il est arrêté (surface opaque) ou déviéet affaibli (surface transparente). Il s’agit donc dans un premier tempsde déterminer, pour chaque rayon reliant l’œil de l’observateur à unpixel de l’écran, la surface la plus proche de toutes celles touchéespar ce rayon. On obtient ainsi la collection des points visibles del’observateur (figure 12).

Il est alors possible de déterminer la couleur et l’intensité à attri-buer à chaque point visible des surfaces les plus proches. Si ellessont toutes opaques, le calcul est terminé. Plusieurs variantesdépendant de la richesse du modèle de luminosité peuvent êtreemployées. C’est ainsi que, si l’on utilise le modèle de T. Whitted,on tiendra compte de deux phénomènes :

— le rayon primaire peut être réfléchi dans une seule directionou plusieurs (lumière diffuse) ;

— si la surface est transparente, le rayon primaire va continueret éclairer des objets au-delà de la première surface rencontrée.

À partir du point d’impact du rayon, deux autres rayons peuventdonc poursuivre leur route : le rayon réfléchi et le rayon réfracté(figure 13). On construit un arbre binaire d’illumination, qui permetde gérer l’ensemble des rayons secondaires. La profondeur de cetarbre dépend du nombre d’opérations de réfraction ou de reflet quel’on souhaite atteindre, pour un rayon primaire donné. Il est évidentque là se trouve un des principaux facteurs de coût de la méthode :le nombre de rayons à explorer et à traiter croît excessivementrapidement.

Ainsi, à partir d’un seul rayon primaire, on peut engendrer plu-sieurs rayons secondaires qui viendront participer au calcul de laluminosité à affecter à un point de l’écran. L’image complète estobtenue en traitant tous les rayons primaires passant par tous lespixels de l’écran, ainsi que tous les rayons secondaires qui en sontissus. Ces algorithmes sont bien entendu très gourmands entemps de calcul et ont conduit à un grand nombre de travaux envue d’améliorer leur efficacité [12]. En particulier, leur parallélisa-tion a été réalisée, qui conduit à des résultats très encourageants(quelques minutes de calcul au lieu de plusieurs heures) [3] [23]. Lafigure 14 donne un exemple d’une image obtenue par ce procédé.

2.4.2 Radiosité

La principale critique faite au lancer de rayons classique est quetout se passe comme si un rayon lumineux n’était dévié que dansune seule direction, tant en ce qui concerne la réflexion que la réfrac-tion. En réalité, la majeure partie des surfaces dans un environ-nement réel sont des réflecteurs diffus. Un rayon lumineux qui tombesur elles est renvoyé dans toutes les directions. La méthode du lancerde rayons ne permet pas de rendre compte de cet effet. La méthode

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 10 © Techniques de l’Ingénieur, traité Télécoms

Page 11: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

du calcul de la radiosité, empruntée au génie thermique, s’appuiesur la loi fondamentale de conservation de l’énergie à l’intérieurd’une enceinte. Les rayonnements sont supposés idéalement diffus,c’est-à-dire qu’ils ont même valeur dans toutes les directions (on netient pas compte d’éventuelles propriétés de diffusion spéculaire).La radiosité (adaptée au calcul de l’intensité lumineuse en chaquepoint d’une scène) est donc la quantité totale de lumière quittantune surface donnée (on parle aussi d’émittance). Elle est la sommede l’énergie émise et de l’énergie réfléchie par cette surface.

Le calcul de la lumière totale qui arrive sur une surface donnéenécessite la spécification complète des relations géométriques lianttoutes les surfaces réfléchissantes et émettrices de lumière, ainsi quede la lumière renvoyée par toute surface.

L’intensité lumineuse Ir reçue par une surface est de la forme :

Ir = B j Fi j (1)

avec B j énergie totale en provenance des autres faces,

F i j facteurs de forme (voir ci-après).

L’intensité lumineuse Ie émise par une surface est de la forme :

Ie = E i + rs B j Fi j (2)

avec Ei émittance de la surface,

rs coefficient de réflexion spéculaire.

Les facteurs de forme représentent les fractions d’énergie quittantune surface et arrivant sur une autre. Ils ne dépendent que de la géo-métrie des objets et sont indépendants des couleurs. Par définition,la somme de tous les facteurs de forme en provenance d’un pointparticulier ou d’une surface particulière est égale à 1.

Le calcul des facteurs de forme est complexe. Un facteur de formeest égal à la fraction de la base de la calotte sphérique couverte parla projection de la surface (figure 15). On peut remarquer que deuxsurfaces qui, projetées sur la calotte, occupent la même surfaceauront le même facteur de forme (figure 16). La prise en comptede cette remarque permet de réduire les temps de calcul des facteursde forme.

Cela est vrai pour toute autre surface englobant la scène à traiter.C’est pourquoi Cohen et Greenberg [37] ont proposé d’utiliser lanotion de demi-cube, ce qui permet de simplifier les calculs. En effet,

on ne s’intéresse plus qu’à des projections sur des parallélépipèdesrectangles.

Pour obtenir le résultat final, on commence par calculer les facteursde forme. En supposant que la scène à représenter est divisée enéléments de surface de rayonnement constant, il suffit de résoudreun système d’équations linéaires pour obtenir la couleur en chaquepoint. Le système est résolu en quelques itérations. La premièreitération revient à ne s’intéresser qu’à la lumière primaire, émise parchaque surface. Les itérations suivantes permettent de calculer lesrayonnements combinés. Le processus s’arrête lorsque l’on ne noteplus de différences sensibles d’une passe à l’autre.

Le principal intérêt de la méthode de radiosité est qu’elle est indé-pendante du point de vue. Aussi, pour réaliser des animations danslesquelles seul le point d’observation change, il suffit de calculer les

Figure 12 – Lancer de rayons : rayon primaire

Figure 13 – Lancer de rayons : rayons secondaires

Figure 14 – Image obtenue par lancer de rayons(Doc. Institut de Recherche en Informatique de Toulouse)

Figure 15 – Facteur de forme

Figure 16 – Surfaces ayant même facteur de forme

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 11

Page 12: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

facteurs de forme une seule fois. Pour les images suivantes, seulsla solution des équations et le rendu de l’image interviennent. Desessais ont montré que le calcul des facteurs de forme prenait del’ordre de 90 % du temps de calcul de la première image [36]. Legain est donc très important. Des implémentations parallèles ontdonné de bons résultats [27]. La figure 17 présente une image dela scène de la figure 14, calculée avec la méthode de radiosité.

De nombreux travaux ont été entrepris à partir de cette nouvelleméthode. Citons Wallace, Cohen et Greenberg [55] qui proposentde calculer l’image finale en deux passages :

— le premier passage est effectué en utilisant un algorithme decalcul de la radiosité, qui permet de calculer les effets de transmis-sion diffuse, ainsi que les passages de la transmission diffuse à latransmission spéculaire. Ce calcul est indépendant du point de vue ;

— le deuxième passage utilise un algorithme de lancer de rayons,qui permet de calculer la réflexion et la transmission spéculaires.Il est dépendant du point de vue.

On combine ainsi les avantages des deux approches. Il est clairque les temps de calcul sont très élevés.

2.5 Parallélisation des algorithmesde synthèse d’image

Les algorithmes que nous venons d’évoquer sont appliqués à desquantités considérables de données. Une bonne image contientcouramment un million de points dont il faut calculer la couleur àafficher. Les modèles géométriques permettent de traiter des scènescomposées de plusieurs milliers, voire centaines de milliers d’objets.Les algorithmes de traitement appliqués à autant d’objets conduisentà un grand nombre d’opérations.

De nombreuses recherches ont été effectuées, en vue de réduirela complexité des algorithmes séquentiels. Les procédés utilisés per-mettent de traiter des scènes contenant quelques milliers d’objetsen des temps allant de la seconde à quelques minutes. Cependant,ces performances sont très nettement insuffisantes, pour deuxraisons :

— les scènes réellement complexes demandent trop de tempspour être traitées. Il est courant d’entendre parler aujourd’hui encorede plusieurs heures de calcul, voire même de jours de calcul, pourune image de très grand réalisme ;

— les utilisateurs demandent de plus en plus qu’une image soitconstruite en temps réel, par exemple à des fins de simulation oud’animation. Le temps réel en synthèse d’image consiste à produireune image tous les 1/25 seconde. Cela signifie que l’on dispose de40 ns pour effectuer l’ensemble des opérations de visualisationconcernant un pixel, si l’on traite séquentiellement chaque pointd’une image 1 024 × 1 024 points.

On comprend dans ces conditions pourquoi la synthèse d’imageest devenue nécessairement un champ d’expérimentation pourl’application des techniques de parallélisation ou d’utilisation duparallélisme.

Deux techniques de parallélisation sont à la base de la plupart desalgorithmes parallèles en synthèse d’image [19] : la parallélisationsur les objets et la parallélisation spatiale.

Dans le cas de la parallélisation sur les objets, la scène estdécoupée en sous-ensembles disjoints. On associe à chaquesous-ensemble (objet ou groupe d’objets) un processeur capabled’effectuer l’ensemble du traitement conduisant à la visualisation(figure 18).

Chaque processeur a accès à tout point de l’écran. Il doit existerplusieurs unités spécialisées dans tel ou tel traitement (par exempleles transformations géométriques). Il peut arriver qu’il y ait moinsde processeurs que d’objets à traiter. Les processeurs sont alorsalimentés au fur et à mesure de leur disponibilité, grâce à uneméthode d’allocation qui ralentit bien entendu le traitement. Les

principaux problèmes rencontrés dans cette approche concernentl’exclusion mutuelle lors de l’accès aux objets de la scène (lors dela sélection d’un objet par un processeur), l’exclusion mutuelle lorsde l’accès à l’écran (plusieurs processeurs peuvent avoir à écriresimultanément sur le même pixel), l’équilibrage de la charge desprocesseurs.

Dans le cas de la parallélisation spatiale, le plan ou l’espace à troisdimensions est découpé en zones. À chacune de ces zones est affectéun processeur, chargé d’effectuer le traitement complet corres-pondant à cette zone. On distingue, en général, les découpages surl’écran (pixels, arbres quaternaires...) et les découpages dansl’espace à trois dimensions (boîtes englobantes, arbres octaux...).La figure 19 donne un exemple de découpage de l’écran.

On remarquera que plusieurs processeurs peuvent avoir besoind’accéder simultanément au même objet, si l’influence de celui-cis’étend sur plusieurs zones. Le problème d’accès en exclusionmutuelle à la scène se pose donc. Par ailleurs, rien ne garantit queles processeurs auront une charge de travail égale : une zone écranpeut ne comporter aucune représentation graphique (aucun objetne s’y projette), alors qu’une autre zone sera très chargée (beau-coup d’objets s’y projettent).

Le découpage le plus fin conduit à associer un processeur à chaquepixel : on parle alors d’architecture cellulaire. De nombreux algo-rithmes ont été développés pour ce type d’architecture [2]. C’est uneparallélisation typique des algorithmes de découpage par des plansou du tampon de profondeur.

Figure 17 – Image obtenue par calcul de radiosité(Doc. Institut de Recherche en Informatique de Toulouse)

Figure 18 – Parallélisation sur les objets

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 12 © Techniques de l’Ingénieur, traité Télécoms

Page 13: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

La figure 20 donne un exemple de découpage de l’espace à troisdimensions. Ce principe est, par exemple, employé pour certainesparallélisations du lancer de rayons. Chaque processeur gère alorsune partie de la scène. Il reçoit des messages représentant les rayonsen provenance des zones voisines. Il retransmet, en ayant éventuel-lement modifié les paramètres de direction et de couleur, les rayonscontinuant leur parcours. Il est clair que l’on va rencontrer les mêmesproblèmes d’équilibrage de charge et d’accès en exclusion mutuelleque précédemment.

En résumé, on distingue deux grandes approches de parallé-lisation :

— sur les objets, par association d’un processeur capable d’effec-tuer l’intégralité du traitement à chaque sous-ensemble de la scène,sous-ensemble obtenu à partir d’un critère quelconque, en générallié à la modélisation employée. C’est ainsi qu’il existe des proces-seurs de facettes planes [54] ou de morceaux de surfaces gauches[33]. Un exemple de machine parallèle à base de processeursspécialisés est décrit dans [30]. Il s’agit d’une machine destinée àêtre intégrée dans la Silicon Graphics 4D/240 GTX Superworkstationet qui exécute un algorithme d’élimination de parties cachées repo-sant sur le principe du découpage par des plans parallèles ;

— par division spatiale, en associant les processeurs à des partiesindépendantes de l’image ou de l’espace. Le découpage est alorsen général indépendant des objets, ce qui conduit à d’éventuels pro-blèmes d’accès en exclusion mutuelle. Dans ce type de parallélisa-tion, l’implémentation est souvent faite sur des réseaux de machinesparallèles comme la MassPar, la connection Machine ou l’Hyper-cube. Des réseaux de transputers sont également fréquemmentrencontrés.

Chacune de ces approches est le point de départ de nombreuxalgorithmes ou machines (pour de nombreux exemples, cf. [8]).Chacune conduit à une parallélisation des traitements, par multi-plication du nombre de processeurs chargés d’exécuter les tâches.Il n’y a pas de solution miracle, permettant de régler au mieux tousles problèmes sous-jacents, à savoir : minimiser les accès en exclu-sion mutuelle à l’écran ou à la scène, minimiser la taille mémoirenécessaire, minimiser le nombre de processeurs nécessaires (entreautres en équilibrant la charge de travail de chacun). Les diffé-rentes solutions retenues le seront en fonction d’une bonneadéquation à l’algorithme choisi ou à la technique matérielle sélec-tionnée.

La parallélisation des algorithmes de synthèse d’image, gage del’existence de processeurs graphiques de grande puissance,devrait permettre de diminuer fortement les temps de calcul pourla synthèse d’une ou de plusieurs images. L’apparition demachines parallèles comme la Connection Machine, lesHypercubes ou les réseaux de transputers va permettre de donnerdes réponses précises à la question de savoir quel est le gain réelapporté par la parallélisation. Les premières expérimentationsmenées sur ces matériels montrent qu’il faut rester très prudentquant aux résultats réels. De nombreux paramètres interviennent,qui contribuent à ralentir le fonctionnement global de cesmachines parallèles. Cependant, les premiers résultats sont trèsencourageants.

À titre d’exemple, nous décrirons la Pixel Machine [50], qui estconstituée de quatre composants majeurs (figure 21) :

— un ou deux pipe-line(s) de 9 Pipe Node, qui effectuent les trans-formations géométriques sur les objets en provenance du proces-seur hôte ;

— un tableau de 16 à 64 Pixel Node, connectés entre eux suivantun schéma de 4-connexité (chaque processeur est connecté à quatrevoisins), et formant un tore. Ce tableau représente en fait unemémoire d’image distribuée. L’image est découpée en éléments noncontigus ;

— un module d’assemblage, chargé de reconstituer une imagecontinue à partir des informations en provenance du tableau deprocesseurs ;

— un module vidéo, chargé de construire et d’envoyer les signauxde commande de l’écran.

Ces éléments sont reliés entre eux soit directement, soit parl’intermédiaire d’un bus VME (Virtual Memory Extension ).L’objectif est d’assurer des échanges rapides entre les différentsprocesseurs.

La mémoire d’image est donc distribuée entre les Pixel Node.Elle peut être découpée en plusieurs tampons d’affichage. Deux deceux-ci peuvent être utilisés pour réaliser un affichage en double-tampon, l’un servant à construire l’image pendant que l’autre estaffiché. Les autres tampons permettent de stocker des informa-tions telles que des bibliothèques de texture.

Figure 19 – Parallélisation par découpage de l’écran

Figure 20 – Parallélisation par découpage spatial

Figure 21 – Schéma général de la Pixel Machine (d’après [50])

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 13

Page 14: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

Chaque Pixel Node contient la taille du tableau (m × n ) et saposition dans le tableau (p, q avec ). Le PixelNode (p, q ) affiche chaque m e pixel à partir du pixel p, toutes lesn lignes à partir de la ligne q. Un pixel (x, y ) est affiché à partir duprocesseur (p, q ) grâce aux formules de projection suivantes :

p = x reste m (reste : reste de la division entière)

q = y reste n

Chaque Pixel Node est constitué d’un processeur DSP32, avec512 K mots de 32 bits de mémoire RAM (Random Access Memory )vidéo (reliés au module d’assemblage) et 256 K mots de 32 bits demémoire RAM dynamique permettant de conserver 256 × 256 réels.Tout type de calcul peut être effectué sur un Pixel Node, permettantd’implémenter n’importe quel algorithme de traitement. Un PixelNode peut communiquer avec ses quatre voisins et reçoit des objetsgraphiques via le bus de données, suivant un schéma de diffusiongénérale.

Lorsque les Pixel Node passent leurs résultats au module vidéo,les pixels arrivent dans un ordre qui ne correspond pas à l’ordred’affichage (balayage continu du haut vers le bas, de gauche àdroite). Le module d’assemblage est chargé de collecter les résultatsdes Pixel Node et de les restituer dans le bon ordre au processeurvidéo.

Chaque Pipe Node du pipe-line est composé d’une file d’attente,d’une mémoire statique et d’un processeur DSP32. Il reçoit les objetsgraphiques de son prédécesseur, et les envoie après traitement àson successeur. Le dernier Pipe Node envoie ses résultats au tableaude Pixel Node par l’intermédiaire du bus de données.

La Pixel Machine est donc un processeur d’image très puissant,capable d’effectuer aussi bien des traitements généraux que des trai-tements spécialisés.

2.6 Conclusion

Si l’on s’intéresse à la production d’images réalistes, le critère derapidité n’est plus le seul à entrer en ligne de compte. La qualitéde l’algorithme choisi dépend de plusieurs facteurs :

— la possibilité de traiter des modèles géométriques différents :il est à noter qu’à l’heure actuelle se sont développés des systèmesessentiellement orientés vers des ensembles de facettes planes oudes arbres CSG (Constructive Solid Geometry ). Très peu de travauxont été réalisés en ce qui concerne le traitement direct des surfaces

gauches. Les algorithmes à découpage par des plans, de typetampon de profondeur ou lancer de rayons, permettent de traiterindifféremment plusieurs types de modèles ;

— l’élimination de défauts dus à l’échantillonnage : on parle detraitement anti-aliassage. Les techniques mises en œuvres’appliquent soit lors de la génération de l’image, soit après celle-ci,à l’aide de filtrages. Les machines qui traitent automatiquementl’aliassage sont relativement peu nombreuses ;

— les facteurs de réalisme : un certain nombre de machinesproposent un traitement de la lumière d’un niveau relativementsimpliste (modèles de Gouraud ou de Phong). Il apparaît cependantque, pour la production d’images très réalistes, seul le lancer derayons peut être employé, complété par les techniques de calcul deradiosité. Les résultats encourageants déjà obtenus permettent depenser que, peu à peu, seules ces deux techniques serontemployées ;

— les vitesses attendues : le tableau 1 résume les différentesvitesses atteintes par quelques systèmes fondés sur le découpagede plans ou le tampon de profondeur. Il s’agit le plus souvent devitesses estimées. On constate immédiatement que :

• les vitesses annoncées varient de 3 000 à 1 000 000 facettes parseconde,

• il s’agit presque toujours de facettes particulières, triangles outrapèzes. Le coût de la préparation (transformation des facettesinitiales en facettes particulières) n’est jamais donné.

Il est de toute manière très difficile de comparer effectivement cesvitesses, les moyens mis en œuvre (et donc les prix de vente !)n’étant guère comparables.

En conclusion :— si l’on s’intéresse à une image relativement fruste, avec un

ombrage simple de type Gouraud ou Phong et un anti-aliassage, labase pourra être un algorithme de type découpage par des plansou tampon de profondeur, avec des performances importantes. Desarchitectures très différentes pourront alors être mises en œuvre,à base de processeurs spécialisés, VLSI, réseaux cellulaires, etc. Lenombre de processeurs employés peut être de l’ordre du million !Plusieurs milliers de facettes pourront être traitées en une seconde.Tout ce qui touche à la simulation ou à l’animation est à l’heureactuelle implémentable sur ces machines ;

— si l’on s’intéresse à une image sophistiquée, seul le lancer derayons peut donner satisfaction (en attendant les techniques deradiosité). On utilise alors essentiellement des systèmes cellulairestridimensionnels, à base de calculateurs généraux. Le temps secompte encore en minutes, mais devrait décroître rapidement. (0)

0 � p � m, 0 �q � n

Tableau 1 – Quelques vitesses de traitement (en nombre de facettes par seconde)

Systèmes Découpage par des plans Tampon de profondeur

EXPERTS 3 000 polygones

Silicon Graphics 4D/240GTX Superworkstation 100 000 trapèzes ou 137 000 triangles

SAGE 1 000 000 triangles

Stellar Graphics Supercomputer GS 1000 150 000 triangles

TITAN Graphics Supercomputer 25 000 à 100 000 triangles

Pixel Planes 4 35 000 triangles28 000 trapèzes

Pixel Planes 5 1 000 000 triangles

GSP/NVS 1 000 000 triangles

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 14 © Techniques de l’Ingénieur, traité Télécoms

Page 15: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

3. Quelques applicationsde la synthèse d’image

Les applications de l’infographie sont aujourd’hui fort nombreuses[5] [13] [17] et concernent aussi bien la représentation d’objets à deuxdimensions (cartes, décors, textiles) que d’objets à trois dimensions.Nous nous intéressons ici seulement aux images de scènes tridi-mensionnelles.

La conception assistée par ordinateur (CAO) est probablementaujourd’hui le domaine le plus vaste des applications des techniquesgraphiques interactives. On peut citer :

— en électronique : la conception des masques de circuits etl’étude des mécanismes des circuits électroniques ;

— en architecture : l’aide à la réalisation des différentes étapesde la construction d’un bâtiment ;

— en urbanisme : l’étude de l’impact sur un site, lors de la réa-lisation d’ensembles importants ;

— en génie civil : l’étude des routes et autoroutes, des ouvragesd’art ;

— dans l’industrie automobile : le dessin des carrosseries, lasimulation d’accidents ;

— en aéronautique : le dessin de la carlingue et des ailes d’unavion, la simulation des conditions de vol, l’étude aérodynamique ;

— pour les chantiers navals : la conception des coques, deshélices et des moteurs de navires.

On peut dire que les logiciels de CAO exploitent aujourd’hui toutesles possibilités de synthèse d’image, jusqu’aux simulations les plusréalistes. C’est ainsi que la figure 22 donne un exemple de simu-lation de l’ambiance lumineuse de l’intérieur d’une pièce. Ce typede calcul devient aujourd’hui relativement commun. Cependant,plutôt que de présenter en détail un domaine fort connu, nous pré-férons en présenter d’autres, aujourd’hui en pleine expansion.

3.1 Visualisation scientifique

La visualisation scientifique est un domaine en rapide expansion.L’objectif est de fournir des moyens graphiques pour analyser etcomprendre de grandes masses de résultats issus de calculs portantsur des domaines caractérisés par un nombre très important dedonnées à traiter parfois presque en temps réel. On peut citer commedomaines de référence la dynamique des fluides, la météorologie,la médecine, l’archéologie, la géologie, l’océanographie, la chimie.

Un des objectifs de la visualisation scientifique est de compléter(sinon de remplacer) les techniques habituelles d’expérimentation,qui sont toujours longues, coûteuses, et parfois impossibles àmettre en œuvre. La chaîne de visualisation scientifique comportehabituellement les étapes suivantes :

— la génération des données, qui sont obtenues soit par collectede mesures expérimentales, soit par simulation (souvent en utilisantdes techniques de calcul aux éléments finis) ;

— la préparation des données, en leur appliquant des opérationstelles que le filtrage, l’échantillonnage, la squelettisation, l’inter-polation et autres techniques visant à réduire la quantité des donnéeset améliorer leur qualité ;

— la préparation à la visualisation, qui consiste à transformerautomatiquement les données en termes des primitives graphiquescorrespondantes. Indépendamment de la forme de l’objet étudié, lespropriétés physiques sont en général associées à des paramètresvisuels tels que couleur ou intensité lumineuse. Le travail consistedonc à associer à chaque donnée un élément pris dans le modèlegéométrique choisi (ensemble de facettes planes, de tétraèdres, decubes...) ou dans le modèle de couleur ;

— le calcul du rendu, qui permet d’obtenir une image des donnéesgraphiques obtenues à l’étape précédente. Les techniques de visua-lisation évoquées dans les paragraphes précédents trouvent leurplace ici, avec d’autres techniques de présentation qui sont spéci-fiques au domaine d’étude considéré (champs de vecteurs, lignesde contours, isolignes, rubans...) ;

— la visualisation proprement dite, qui fait apparaître l’image surle support de visualisation souhaité (écran, diapositive, film).

À titre d’exemple, nous nous intéresserons à une premièreapplication : la simulation de l’ensoleillement en milieu urbain. Lemodèle comporte les éléments suivants :

— un modèle géométrique de l’ensemble urbain étudié, qui peutêtre un ensemble de facettes planes ;

— un modèle de la position du soleil en fonction du lieu, du jouret de l’heure de l’étude.

On peut chercher à déterminer les portions de la scène qui sontà l’ombre (ou au soleil), par exemple sur une journée donnée. Pourcela, en fonction des différentes positions du soleil au cours de lajournée, on peut calculer les portions de facettes qui sont à l’ombre.Une technique (la technique de l’héliodon) consiste à supposerl’observateur à la place du soleil : les parties vues sont ensoleillées.Chaque facette de la scène initiale est alors découpée en sous-facettes correspondant aux portions au soleil. Pour une journéedonnée, on dispose donc d’une collection de scènes composées demorceaux de facettes au soleil (figure 23). En effectuant ensuite desopérations booléennes (union, intersection, différence) entre cescollections de facettes, on peut répondre à des questions sur lesconditions d’ensoleillement de la scène étudiée (figure 24). Onremarquera que tous ces calculs sont effectués en 2D, les facettesporteuses d’information étant devenues indépendantes de leursupport.

Figure 22 – Simulation de l’éclairage d’un intérieur(Doc. IRISA-CSTB)

Figure 23 – Découpage d’une facette en morceaux au soleil

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 15

Page 16: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

La figure 25 donne un exemple de présentation de résultats.Pour obtenir une telle présentation, les étapes suivantes ont étésuivies :

— calcul, pour les facettes considérées, du bilan d’ensoleillement.Les différentes couleurs présentes sur la photo représentent desdegrés différents ;

— choix d’un point de vue pour la présentation de la scène, etélimination des parties cachées pour la scène initiale. Le résultat estune collection de facettes visibles pour l’observateur ;

— placage sur les facettes visibles des facettes résultat, afind’obtenir une vision du bilan d’ensoleillement « sur les bâtiments ».Les facettes sans couleur correspondent à des facettes non étudiéespour ce bilan.

Dans le domaine de la dynamique des fluides, les écoulementsont été étudiés depuis des siècles. De nombreux domaines d’appli-cation sont concernés par ces études : architecture navale, concep-tion de ports et de digues, circulation de fluides dans les réacteurs,circulation du sang dans les vaisseaux sanguins, écoulements aéro-dynamiques pour les automobiles ou les avions, etc. Les donnéesd’écoulement sont obtenues soit à partir de mesures, soit par simu-lation. Les simulations numériques produisent fréquemment deschamps de vélocité, parfois combinés avec des données scalaires(pression, température, densité). À titre d’exemple, la figure 26donne une présentation du même ensemble de bâtiments (en faitseule une moitié de l’ensemble est étudiée) que celui de la figure 25sur lequel on a représenté la distribution des pressions du vent surles façades. Ce type d’image est obtenu après maillage de la scène,calcul aux éléments finis et interpolation des valeurs trouvées surles différents nœuds.

La figure 27 montre, sur le même ensemble de bâtiments, uneétude du déplacement de particules sous l’effet du vent. Lescouleurs affectées aux facettes sont relativement arbitraires et neportent pas d’information. Ce type de simulation permet decomprendre quels sont les endroits plus ou moins ventés d’unensemble urbain donné, et peut éviter les essais habituels sur unemaquette en soufflerie.

Dans le domaine médical, les sources de données sont généra-lement les scanneurs et autres tomographes. À partir de la collectiond’images correspondant aux différentes coupes de l’organe à étudier(cerveau, os par exemple), des algorithmes de reconstruction auto-matique du volume à trois dimensions sont utilisés. En général, lerésultat est une matrice d’énumération spatiale, obtenue en consi-dérant que l’univers contenant l’objet à étudier est découpé en cubesélémentaires de même taille. La représentation informatique est unematrice à trois dimensions, la présence ou l’absence de matière enun point donné de l’univers étant repérée dès lors très simplement(matrice [i, j, k ] = 0 : voxel vide ; matrice [i, j, k ] = 1 : voxel plein).On traite alors des matrices de dimensions importantes (par exemple512 × 512 × 512 voxels), pour lesquelles les problèmes de rendu sonttrès importants (en particulier pour restituer les notions de continuitéet de courbure des surfaces représentées).

Figure 24 – Opérations booléennes sur des facettes

Figure 25 – Conditions d’ensoleillement pour une scène(Doc. CERMA-Nantes, logiciel SOLENE)

Figure 26 – Distribution de pressions sur une scènesoumise au vent (Doc. CERMA-Nantes, logiciel N3S)

Figure 27 – Déplacement de particules dans une scènesoumise au vent (Doc. CERMA-Nantes, logiciel N3S)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 16 © Techniques de l’Ingénieur, traité Télécoms

Page 17: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

En conclusion, insistons sur le fait que la visualisation scientifiquefait appel aux techniques de synthèse d’image, mais souvent pourles détourner de leur objectif : produire une image réaliste. Denombreux procédés propres à la visualisation scientifique sontcombinés à ceux de la synthèse d’image. La recherche se poursuitactivement pour trouver les bonnes modalités de présentation. Eneffet, il ne suffit pas d’utiliser les techniques dernier cri de la synthèsed’image (quelle peut être la signification d’une image réaliste d’unmodèle moléculaire ?), mais il faut encore que les représentationssoient efficaces et lisibles. En particulier, une des difficultés les plusimportantes non résolues de manière satisfaisante aujourd’hui estla représentation de phénomènes évoluant dans le temps (parexemple l’écoulement de gaz à l’intérieur d’une turbine). Il n’est déjàpas facile d’étudier commodément ce qui se passe en chaque pointd’un objet à trois dimensions (on pratique habituellement descollections de coupes qu’il faut ensuite pouvoir comparer etanalyser). Le fait de devoir étudier, de plus, l’évolution en chaquepoint nécessite des moyens graphiques qui ne semblent pas avoirété étudiés suffisamment.

3.2 Simulateurs

L’apparition des consoles de visualisation à balayage télévisionet la grande maîtrise obtenue dans la synthèse d’images réalistesont conduit au développement d’une grande activité autour de toutce qui est formation des pilotes d’avion, de bateaux, d’hélicoptères,de chars, etc. Des simulateurs de conduite automobile sont d’oreset déjà disponibles ; ils faciliteront l’apprentissage de la conduite.

En effet, il est possible de restituer en temps réel un paysage telqu’il est perçu par le pilote, en fonction de la distance, de la vitessede l’appareil et des conditions atmosphériques.

Il est bien évident que, dans toutes ces applications, l’image pro-duite doit correspondre exactement à ce qui serait perçu, à la vitesseréelle, sous peine de voir le pilote acquérir de mauvais réflexes.

■ Le succès des simulateurs d’avion est dû aux nombreux avan-tages qu’ils procurent lors de la formation des pilotes, et, en premierlieu, l’élimination du danger. Le deuxième avantage est évidemmentla réduction des coûts. Enfin, la rapidité de mise en situation permetdes gains de temps en formation très importants. La simulation aéro-nautique se divise entre application aux avions de transport et appli-cation aux avions de combat.

● Pour les simulateurs d’avions de transport, l’objectif est deformer les pilotes à transporter des objets ou des marchandises entoute sécurité. Il s’agit donc d’apprendre à décoller, suivre un plan devol et atterrir. Une grande fidélité dans la modélisation et la restitu-tion est exigée de ces simulateurs :

— la modélisation des appareils est complexe, très proche desmodèles d’étude. Elle doit s’adapter directement aux donnéesfournies par les constructeurs ;

— la précision de la visualisation est importante surtout pendantles phases d’atterrissage et de décollage. L’environnement immédiatdes aéroports est donc représenté avec beaucoup de détails : feuxde piste, trafic routier et aérien. Le paysage est reproduit avec destextures photographiques ;

— la restitution du mouvement est obtenue à l’aide d’ensemblesde vérins hydrauliques offrant 6 degrés de liberté ;

— le poste de pilotage est une réplique parfaite de la cabine réelle.● Les simulateurs d’avions de ligne sont aujourd’hui un sommet

en termes de qualité de simulation.● Les simulateurs d’avions de combat se distinguent du domaine

civil par la diversité des fonctions à atteindre :— diversité des missions : reconnaissance, attaques air/air,

air/sol, air/mer, pénétration tactique ;— diversité de l’environnement : haute ou basse altitude, inter-

venants amis ou hostiles ;

— diversité des doctrines en vigueur.

Les différences sont telles que ces simulateurs sont souventconstruits pour un type de mission particulier :

— le combat aérien, dont le centre d’intérêt est le ou les avionsennemis : la qualité de leur représentation doit être excellente, pourles identifier, distinguer leur armement et leur comportement. Lereste du paysage, en arrière-plan, n’exige pas la même définition.Des textures photographiques de qualité moyenne peuvent êtreutilisées (figure 28) ;

— le vol à basse altitude : il concerne les avions de chasse ayantune cible au sol, mais aussi les hélicoptères. Le paysage a ici unegrande importance, tant pour la définition du relief que pour la repré-sentation de la végétation ou des habitats. Le réalisme est obtenupar une utilisation intensive de textures photographiques de hautequalité. Pour les avions, les bases de données de terrain reproduisentdes régions entières de la planète et prennent des proportionsconsidérables.

Les systèmes de visualisation utilisés dans les simulateurs aéro-nautiques sont particulièrement complexes et coûteux, à cause descontraintes de temps réel mais aussi par l’implémentation dedifférentes fonctions opérationnelles. Les plus grands constructeurs(General Electric, Singer Link, Thomson-CSF, Rediffusion) emploientdes équipes très importantes d’infographistes (jusqu’à plusieurscentaines de personnes) pour mettre au point l’ensemble desservices offerts.

■ Les simulateurs de navires font en général appel à l’image de syn-thèse pour restituer le grand champ de vision d’un poste de pilotage.La fréquence de calcul de l’image peut être assez faible, les vitessesde manœuvre étant en général assez faibles. Le système visuelpermet en général d’adapter les conditions de visibilité, pour passerdu jour au crépuscule puis à la nuit : la navigation de nuit à l’aide dela signalisation lumineuse est une partie importante du pilotage desnavires.

■ Les simulateurs de conduite automobile connaissent à l’heureactuelle un développement important [16]. C’est ainsi que la sociétéCodes Rousseau a mis sur le marché un simulateur d’apprentissagepermettant aussi bien, dans un premier temps, de se familiariser avecles commandes d’un véhicule, que, dans un deuxième temps,d’apprendre à conduire sur route. L’image est projetée sur plusieursécrans qui permettent de restituer le champ de vision du conducteur(figure 29). Par ailleurs, des images traitées spécialement per-mettent de disposer de deux rétroviseurs (un intérieur, un extérieur).L’apprenti pilote peut se voir proposer des circuits différents, avecdes situations variées (autres véhicules devant lui dernière lui oudans le sens opposé).

Figure 28 – Simulateurs de combat aérien(Doc. Thomson Division Simulateurs)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 17

Page 18: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________

■ On notera le grand développement des simulateurs de jeu, trèssouvent pour une simulation de combats aériens, de vol ou deconduite automobile. Ce n’est pas la réalité exacte qui est recherchée,mais plutôt le désir de procurer des sensations fortes aux joueurs. Engénéral, les résultats visuels sont obtenus à l’aide de techniquesintermédiaires entre le 2D et le 3D, permettant d’utiliser des matérielsde technologie relativement moyenne, ce qui permet de réduire leurscoûts. Les constructeurs les plus connus sont Atari et Sega.

3.3 Animation

On distingue différents types d’animation :— l’animation différée, réalisée en prenant les images vue par vue

à l’aide d’une caméra, l’animation étant obtenue seulement lors dela projection du film ;

— l’animation continue, obtenue grâce à des temps de calcul suf-fisamment brefs pour modifier l’image vingt-quatre fois par seconde(le temps qui s’écoule étant simulé) ;

— l’animation en temps réel, dans laquelle deux images consé-cutives représentent exactement l’état dans lequel se trouve unsystème fonctionnant en temps réel.

Dès l’apparition des premiers logiciels graphiques, aux environsdes années 60, le désir d’utiliser l’ordinateur comme nouvel outild’expression pour l’animation est apparu. Dans une première phase,on chercha à imiter les techniques du dessin animé traditionnel. Lemoyen principal de conception est alors un éditeur graphique quipermet aussi bien de réaliser les images clés de l’animation qued’indiquer l’évolution des différents paramètres (taille, couleur,forme) en fonction du temps. L’ordinateur fournit également lapossibilité de calculer automatiquement des images intermédiairesentre deux images clés, en fonction du nombre d’images et decontraintes telles que points de passage obligés, respect de la formeglobale, type d’interpolation.

Depuis les années 80, les techniques d’animation par ordinateurse sont généralisées à la simulation de tout processus dynamiqueou phénomène naturel, en faisant appel à des modèles physiquesou comportementaux de plus en plus complexes [15].

Un système d’animation par ordinateur offre aux animateurs desoutils de description et de contrôle du mouvement et de la défor-mation d’objets mobiles (acteurs) au milieu d’objets fixes (décor).La possibilité de spécifier l’évolution temporelle des paramètresvisuels est également offerte (couleur, texture, illumination...), ainsique l’état des sources lumineuses et les caractéristiques de la caméravirtuelle. Le cœur de ces systèmes est constitué des modèles degénération de mouvement, dont on distingue trois types : lesmodèles descriptifs, les modèles générateurs et les modèlescomportementaux.

■ Les modèles descriptifs ou phénoménologiques reproduisent uneffet sans aucune connaissance sur sa cause. Ils décrivent essentiel-lement la cinématique des phénomènes. Ils offrent la possibilité dedéfinir finement les mouvements, en général par la donnée d’imagesclés et l’emploi de fonctions mathématiques permettant de calculerles trajectoires spatiales et la cinématique d’un paramètre. Le pas-sage d’une image clé à une autre se fait grâce à l’usage de techniquesd’interpolation diverses, qui permettent de contrôler certains effetsvisuels (par exemple, continuité du mouvement ou de la déforma-tion). L’inconvénient des modèles descriptifs est qu’ils ne permettentpas de s’intéresser aux causes des mouvements ou des déforma-tions, mais seulement aux résultats. Dès lors, s’il y a beaucoup deparamètres à gérer ou si l’on veut un comportement proche ducomportement réel, ces modèles deviennent inutilisables.

■ Les modèles générateurs ou physiques permettent, au contraire,de décrire la cause des mouvements ou des déformations. Un objetphysique qui se déplace et se déforme est soumis à des forces et descontraintes. Pour concevoir une séquence à l’aide de modèles géné-rateurs, un artiste dispose d’une représentation mentale de la phy-sique des phénomènes dynamiques qu’il expérimente à la recherched’un effet souhaité. Les techniques d’animation modernes font doncappel à un grand nombre de modèles physiques. Certains systèmess’attachent à la simulation de phénomènes naturels, comme lemouvement des vagues [42] ou les mouvements de particules [51].La figure 30 donne un exemple d’image de simulation de vagues.D’autres permettent de décrire le comportement de corps rigides oudéformables, ainsi que leurs interactions (collisions, intersections...).C’est ainsi que pour les systèmes de corps rigides, deux techniquesont été inventoriées :

— l’emploi de la cinématique directe, permettant de déterminerles mouvements d’une chaîne articulée en appliquant des forces etdes couples sur certains degrés de liberté du système. Le mouve-ment des corps, c’est-à-dire l’effet des différentes contraintes, estalors validé a posteriori ;

— l’emploi de la cinématique inverse, laissant au système le soinde déterminer les contraintes à appliquer en vue d’obtenir lemouvement désiré. Il faut donc ici contrôler a priori une contraintegéométrique ou le comportement dynamique d’un mécanisme enrespectant implicitement les lois de la dynamique.

Les deux approches sont complémentaires et peuvent intéresserle même animateur à deux moments différents de la conception deson animation [1] [11].

Pour les corps déformables, deux approches, fondées sur unediscrétisation de l’espace d’animation, sont utilisées [14] [39] :

— l’emploi de la théorie de l’élasticité, en utilisant des méthodesde calcul aux différences finies ou aux éléments finis ;

— la discrétisation systématique de l’objet à l’aide de barresrigides, de masses ponctuelles et de ressorts. On peut dès lorsemployer les théorèmes généraux de la mécanique.

Enfin, l’animation de personnages fait aussi partie du champ derecherche : mouvements, animation faciale, simulation du vieillis-sement sont autant de pistes d’intérêt croissant [34] [46].

■ Les modèles comportementaux visent à intégrer un plus hautniveau d’abstraction dans la description de l’animation. Ils simulentles organismes ou les êtres vivants, leurs actions et leurs réactionsaux stimulations extérieures. Les modèles descriptifs et générateursoffrent des primitives relativement élémentaires. Ces primitives sontdès lors mises en œuvre à partir de descriptions telles que « se mettredevant la table », « aller ouvrir la porte », « s’arrêter si le feu est aurouge », etc. Le scénario, qui décrit l’ensemble de l’animation,conduit, pour être mis en œuvre, à faire coopérer des connaissancestopologiques, géométriques, dynamiques, cinématiques, physiques,biologiques et temporelles. On comprend la difficulté de réalisationde tels systèmes. Ils sont au cœur de nombreuses recherches.

Il faut reconnaître que les espoirs que l’on avait fondé sur l’utili-sation des ordinateurs dans l’industrie du dessin animé n’ont pasété réellement satisfaits. Même si quelques films d’animation ont

Figure 29 – Simulateur de conduite automobile à trois écrans(Doc. Codes Rousseau)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.E 5 530 − 18 © Techniques de l’Ingénieur, traité Télécoms

Page 19: Synthèse d’Image

___________________________________________________________________________________________________________________ SYNTHÈSE D’IMAGE

été entièrement ou partiellement réalisés à l’aide de l’informatique(2001 : l’Odyssée de l’espace, Tron...), la difficulté de mise en œuvrepar un animateur et les coûts de réalisation encore trop élevés n’ontpas permis un réel essor de l’animation par ordinateur. Cependant,les progrès considérables réalisés ces dernières années grâce auxmodèles générateurs et demain grâce aux modèles comporte-mentaux laissent prévoir la création de séries offrant des animationsaujourd’hui impossibles à réaliser avec les techniques conven-tionnelles.

3.4 Réalités virtuelles

Ce terme, apparu dans les années 80, décrit l’immersion d’un par-ticipant dans un univers artificiel [26].

La mise en œuvre de la réalité virtuelle s’appuie sur les techniquesde visualisation, mais surtout sur des dispositifs d’entrée decommandes ou de réactions de l’utilisateur. Deux dispositifs sontaujourd’hui très utilisés :

— le visiocasque, qui sert à la fois à acquérir en permanence lesdifférentes positions de la tête, mais aussi à restituer l’image grâceà deux écrans placés devant les yeux. Le son est aussi présent, grâceà des haut-parleurs distribués tout autour de la tête ;

— le gant de données, qui permet d’acquérir la position de la mainet de restituer des efforts, par exemple des sensations de contactavec des objets.

De nouvelles techniques sont en cours d’étude :— l’affichage de l’image directement sur la rétine à l’aide de fais-

ceaux laser ;— l’emploi d’un exosquelette, sous la forme d’une combinaison

permettant d’acquérir la forme de tout le corps (et plus seulementde la main).

La réalité virtuelle est donc obtenue à partir de données enre-gistrées par ordinateur et restituées par le biais de capteurs ou dedispositifs électroniques capables de procurer des sensationsvisuelles, auditives et tactiles. La différence avec un simulateur esttrès sensible. Un simulateur reproduit un type particulier d’appareil,alors qu’un système de réalité virtuelle ne reproduit pas un appareil,mais plonge le participant dans un environnement. S’il y a un appa-reil piloté, il n’est plus alors qu’un élément parmi d’autres de cetunivers artificiel.

Les premières démonstrations réellement convaincantes ont eulieu tout d’abord lors de conférences scientifiques (aux États-Unis :

SIGGRAPH en 1989) ou à l’occasion de salons spécialisés (en France :IMAGINA en 1991). Très rapidement, la réalité virtuelle s’est bana-lisée. C’est ainsi que la société W Industries distribue des stationsde jeu Virtuality, qui sont en cours d’installation dans les aires deloisirs des centres commerciaux du monde entier. Des salles de jeuxpermettant de se plonger dans des univers virtuels commencent àexister également (Cybergate, Dactyl Nightmare, Battletech, VirtualWorld, AS1, R360, Back to the Future), offrant des attractions aussidiverses que des missions spatiales, des combats de rue ou desbatailles rangées avec des robots.

La réalité virtuelle est déjà une technologie et un secteur d’affairesassez largement financé par des entreprises d’informatique, decommunication, de design et de loisirs à travers le monde. Les appli-cations sont diverses : visite d’appartements ou de bureaux encoreà l’état de plans ; fabrication de matériels informatiques ; visite demonuments historiques reconstitués ; aide à la conception de molé-cules chimiques ; chirurgie assistée par ordinateur. Il n’est pasimpossible que les actuelles consoles de jeux vidéo soient reléguéesau rang des accessoires, lorsque des visiocasques plus commodesseront disponibles.

On notera que certains auteurs dénoncent les dangers de la réalitévirtuelle : le risque est en effet grand de voir certaines personnes(en particulier les enfants) se réfugier dans un monde totalementimaginaire, afin de fuir... la réalité [25].

4. Conclusion

Ce rapide tour d’horizon s’est appuyé sur deux points :— la modélisation, qui conduit à imaginer dans un avenir proche

des possibilités de s’affranchir de la description fastidieuse d’unobjet au profit de mécanisme d’exploration d’univers de formes. Unemeilleure connaissance de la notion de complexité d’une scène endécoulera, qui permettra de trouver des algorithmes sophistiquésréduisant à une durée acceptable les temps de calcul liés à la décou-verte de milliers d’objets peut être encore jamais vus. De nouveauxchamps d’application s’ouvriront ;

— la visualisation, caractérisée par l’utilisation de modèles de lalumière de plus en plus complexes, intégrant peu à peu tous les para-mètres connus aujourd’hui en optique. C’est ainsi que la suitelogique est le calcul des effets lumineux pour une scène dont lemilieu de transmission de la lumière n’est pas homogène. Il est pro-bable que l’on devra faire appel à des techniques utilisant les élé-ments finis pour effectuer ces calculs. Il est clair que la demandeen puissance de calcul est déjà forte, elle deviendra exorbitante. Iln’est peut être pas inutile de se demander si cette débauche d’effortsest bien toujours nécessaire.

D’autres points n’ont pas été abordés. Citons l’utilisation des tech-niques de l’intelligence artificielle. Il ne fait aucun doute que l’onva voir apparaître des systèmes pouvant acquérir peu à peu unecertaine expertise dans l’art de traiter telle ou telle partie de la syn-thèse d’image. La modélisation déclarative va forcément conduireà des systèmes experts en création de jeux d’essai ou apprenant peuà peu à mieux faire explorer les univers de formes. D’autres systèmeschoisiront l’algorithme d’élimination de parties cachées le mieuxadapté à un type de scène donné ou fonction du degré d’approxi-mation souhaité. Une animation sera décrite par un scénario enquelques phrases, qui seront ensuite analysées et transcrites en uneproduction plus ou moins automatisée.

Les voies de recherche ne manquent pas et la synthèse d’imagerendra des services encore plus grands qu’elle ne le fait déjà.

Figure 30 – Image de synthèse avec texture de mer animée(Doc. Thomson Digital Image)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.© Techniques de l’Ingénieur, traité Télécoms E 5 530 − 19

Page 20: Synthèse d’Image

Do

c. E

5 5

30

9 -

1994

POUR

EN

Synthèse d’image

par Michel LUCASDocteur ès SciencesProfesseur à l’École Centrale de Nantes

SAVOIR

PLUS

BibliographieFrançais[1] ARNALDI (B.). – Conception du noyau d’un

système d’animation de scènes tridimension-nelles intégrant les lois de la mécanique.Thèse de Doctorat, Université de Rennes 1,juil. 1988.

[2] ATAMENIA (A.). – Architectures cellulairespour la synthèse d’images. Thèse de Doctorat,Université de Lille, juin 1989.

[3] BADOUEL (D.). – Schémas d’exécution pourles machines parallèles à mémoire distribuée.Une étude de cas : le lancer de rayons. Thèsede Doctorat, Université de Rennes 1 (1990)

[4] BOUZEFRANE (R.), PLEMENOS (D.) et PUEYO(X.). – Les grandes familles d’algorithmes devisualisation 3 D. Revue Internationale deCFAO et d’Infographie (F), 2, no 2, p. 61 (1986)

[5] BRET (M.). – Images de synthèse. DunodInformatique (1988).

[6] CHAUVAT (D.), MARTIN (P.) et LUCAS (M.). –Modélisation déclarative et contrôle spatial.Revue Internationale de CFAO et d’info-graphie, 8, no 4, pp. 411-436, janv. 1994.

[7] CIPRES (P.), CAUBET (R.), DUTHEN (Y.),VESSEL (J.P.) et MARTIN (V.). – Intégrationdes textures solides à la modélisation desobjets. Actes de MICAD 89 (1989).

[8] CHAILLOU (C.). – Architecture des systèmespour la synthèse d’image. Dunod (1991).

[9] COLIN (C.). – Modélisation déclarative descènes à base de polyèdres élémentaires : leprojet PastoFormes. Thèse de Doctorat,Université de Rennes 1 (1990).

[10] DONIKIAN (S.). – Une approche déclarativepour la création de scènes tridimensionnelles:application à la conception architecturale.Thèse de Doctorat, Université de Rennes 1(1992).

[11] DUMONT (G.). – Animation de scènestridimensionnelles : la mécanique des solidescomme modèle de synthèse du mouvement.Thèse de Doctorat, Université de Rennes 1(1990).

[12] EXCOFFIER (T.). – Construction géométriquede solides et accélération des algorithmes delancer de rayons. Thèse de Doctorat, Univer-sité Claude Bernard (Lyon) (1988).

[13] GARDAN (Y.) et LUCAS (M.). – Techniquesgraphiques interactives et CAO. Hermès(1983).

[14] GASCUEL (M.-P.). – Déformations de surfacescomplexes : techniques de haut niveau pourla modélisation et l’animation. Thèse deDoctorat, Université de Paris Sud, oct. 1990.

[15] HEGRON (G.). – Animation : du dessin animéà la simulation du vivant. Revue inter-nationale de CFAO et d’infographie, 7, no 1,pp. 51-61 (1992).

[16] KERGALL (M.). – Contribution à la conceptionet à la réalisation d’un simulateur de conduiteautomobile destiné à l’apprentissage. Thèsede Doctorat, École Centrale de Nantes-Université de Nantes, mars 1994.

[17] LIEBLING (T.) et ROTHLISBERGER (R.). – Info-graphie et applications. Masson (1988).

[18] LUCAS (M.). – Contribution à l’étude des tech-niques de communication graphique avec unordinateur – Éléments de base des logicielsgraphiques interactifs. Thèse d’État, Univer-sité de Grenoble (1977).

[19] LUCAS (M.). – Parallélisme et synthèsed’images. Techniques et Sciences Infor-matiques (F), 10, no 3, p. 171 (1991).

[20] LUCAS (M.), MARTIN (D.), MARTIN (P.) etPLEMENOS (D.). – Le projet ExploFormes :quelques pas vers la modélisation déclara-tive. Journées Groplan Strasbourg, nov.1989. Publié dans BIGRE (F) no 67, janv. 1990.

[21] MACULET (R.). – Intelligence artificielle etconception assistée par ordinateur en archi-tecture. Université Paris VI. Thèse de Doctorat(1992).

[22] MARTIN (D.) et MARTIN (P.). – Les algo-rithmes de calcul de solides définis par leursbords. Revue de CFAO et d’Infographie (F) 1re

partie : 2, no 4, pp. 7-28 (1987) et 2e partie : 3,no 2, pp. 31-53 (1988).

[23] PRIOL (T.). – Lancer de rayon sur des architec-tures parallèles. Thèse de Doctorat, Univer-sité de Rennes (1989).

[24] PUEYO (X.). – Étude comparative d’algo-rithmes de traitement de surfaces gauches.Élimination des parties cachées par décou-page de scènes par des plans. Thèse deDocteur-Ingénieur, Université de Rennes(1984).

[25] QUEAU (P.). – Le Virtuel : vertus et vertiges.Éditions Champ Vallon/INA (1992).

[26] RHEINGOLD (H.). – La réalité virtuelle. Dunod(1992).

[27] SILLON (F.). – La simulation de la lumière ensynthèse d’image : réalisme et interactivité.Thèse de Doctorat, Université de Paris VI(1989).

[28] TELLIER (P.). – Synthèse d’images réalistes :simulation d’éclairage intérieur et extérieurmixte (naturel et artificiel). Thèse de Doctorat,Université de Rennes (1993).

[29] TROUSSET (Y.). – Visualisation d’objets médi-caux tridimensionnels. Thèse de Docteur-Ingénieur, ENST Paris (1987).

Anglais[30] AKELEY (K.). – The Silicon Graphics

4D/240GTX Superworkstation (La supersta-tion de travail Silicon Graphics 4D/240GTX).IEEE Computer Graphics and Applications(USA), 9, no 4, juil. 1989.

[31] BLINN (J.F.). – Models of Light Reflection forComputer Synthesized Pictures (Modèles deréflexion de la lumière pour la synthèsed’images par ordinateur). Computer Graphics(USA), 11, no 10, oct. 1976.

[32] BLINN (J.F.). – Light Reflection for Simulationof Clouds and Dusty Surfaces (Réflexion de lalumière pour la simulation de nuages et desurfaces poussiéreuses). ACM ComputerGraphics (USA), 16, no 3 (1982).

[33] BOUATOUCH (K.), SAOUTER (Y.) et CANDELA(J.C). – A VLSI Chip for Ray Tracing BicubicPatches (Un circuit VLSI pour le lancer derayons sur des surfaces bicubiques). Actes deEurographics’89, North Holland (1989).

[34] BOULIC (R.), MAGNENAT-THALMANN (N.) etTHALMANN (D.). – Human Free-WalkingModel for a Real Time Interactive Design ofGaits (Un modèle de marche humaine librepour un système temps réel de conceptionde démarches). Actes de Computer Anima-tion’90, pp. 61-70, avril 1990.

[35] CAREY (R.J.) et GREENBERG (D.P.). – Texturesfor Realistic Image Synthesis (Textures pourla synthèse d’images réalistes). Computer &Graphics (USA), 9, no 2 (1986).

[36] COHEN (M.F.), GREENBERG (D.P.), IMMEL(D.S.) et BROCK (P.J.). – An Efficient RadiosityApproach for Realistic Image Synthesis (Uneapproche efficace pour la synthèse d’imageréaliste par la radiosité). IEEE ComputerGraphics & Applications (USA), 6, no 3, mars1986.

[37] COHEN (M.F.) et GREENBERG (D.P.). – TheHemi-Cube : a Radiosity Solution for ComplexEnvironments (Le demi-cube : une solution aucalcul de la radiosité pour des environnementscomplexes). ACM SIGGRAPH, 85, 19, no 3,pp. 31-40 (1985).

[38] COOK (R.L.) et TORRANCE (K.E.). – A Reflec-tance Model for Computer Graphics (Unmodèle de réflectance pour la synthèsed’image). ACM Transactions on Graphics(USA), 1, no 1, janv. 1982.

[39] COQUILLART (S.) et JANCENE (P.). – AnimatedFree-Form Deformation : an InteractiveAnimation Technique (La déformation deformes libres animées : une technique d’ani-mation interactive). Actes de SIGGRAPH’91,pp. 23-26, juil. 1991.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieest strictement interdite. − © Techniques de l’Ingénieur, traité Télécoms Doc. E 5 530 − 1

Page 21: Synthèse d’Image

SYNTHÈSE D’IMAGE ____________________________________________________________________________________________________________________POUR

EN

SAVOIR

PLUS

[40] DE MA (S.) et LIN (H.). – Optimal TextureMapping (Le placage de texture optimal).Eurographics’88 (1988).

[41] FARRELL (E.J.). – Visual Interpretation ofComplex Data (L’interprétation visuelle dedonnées complexes). 2, mars 1991.

[42] FOURNIER (A.) et REEVES (W.T.). – A SimpleModel of Ocean Waves (Un modèle simple desvagues de l’océan). Actes de SIGGRAPH’86,p. 75 août 1986.

[43] GOURAUD (H.). – Computer Display ofCurved Surfaces (La visualisation de surfacesgauches). University of Utah UTEC CSC 7113,juin 1971.

[44] HAGEN (H.) et ROLLER (D.). – GeometricModeling. Methods and Applications (Lamodélisation géométrique – Méthodes etapplications). Springer Verlag (1991).

[45] HAGEN (H.), MÜLLER (H.) et NIELSON(G.M.). – Focus on Scientific Visualization (Lepoint sur la visualisation scientifique).Springer Verlag (1993).

[46] MAGNENAT-THALMANN (N.) et THALMANN(D.). – Complex Models for Animating Syn-thetic Actors (Des modèles complexes pourl’animation d’acteurs de synthèses). IEEEComputer Graphics and Applications, pp. 32-44, sept. 1991.

[47] MARTIN (D.) et MARTIN (P.). – An ExpertSystem for Polyhedra Modelling (Un systèmeexpert pour la modélisation de polyèdres).Eurographics’88 (1988).

[48] NEWELL (M.E.), NEWELL (R.G.) et SANCHA(T.L.). – A New Approach to the Shaded PictureProblem (Une nouvelle approche pour le pro-blème des images ombrées). ACM NationalConference (1972).

[49] PHONG (B.T.). – Illumination for ComputerGenerated Pictures (IIlumination pour lesimages engendrées par ordinateur). Commu-nications of the ACM (USA), 18, no 6, juin 1975.

[50] POTSEMIL (M.) et HOFFERT (E.M.). – ThePixel Machine : A Parallel Image Computer(La Pixel Machine : un calculateur d’imageparallèle). ACM Computer Graphics, 23, no 8,août 1989.

[51] REEVES (W.T.). – Particle Systems : a Tech-nique for Modelling a Class of Fuzzy Objects(Les systèmes de particules : une techniquepour modéliser une classe d’objets flous).Actes de SIGGRAPH’83, pp. 359-376, juil.1983.

[52] REQUICHA (A.G.). – Representations forRigid Solids : Theory, Methodes and Systems(Représentations pour les solides rigides :théorie, méthodes et systèmes). ComputingSurveys (USA), 12, no 4, déc. 1980.

[53] ROTH (S.D.). – Ray Casting for Modeling Solids(Lancer de rayons pour la modélisation desolides). Computer Graphics and Image Pro-cessing (USA), 18 (1982).

[54] SWANSON (R.W.) et THAYER (L.J.). – A fastShaded-Polygon Renderer (Un générateurrapide de polygones ombrés). ACM ComputerGraphics (USA), 20, no 4 (1986).

[55] WALLACE (J.R.), COHEN (M.F.) etGREENBERG (D.P.). – A Two-Pass Solution tothe Rendering Equation : a Synthesis of RayTracing and Radiosity Methods (Une solutionen deux passages à l’équation de rendu : unesynthèse des méthodes de lancer de rayonset de calcul de radiosité). Computer Graphics,21, no 4, pp. 311-320, juil. 1987.

[56] WATKINS (C.S.). – A Real Time VisibleSurface Algorithm (Un algorithme de visuali-sation en temps réel de surfaces visibles).University of Utah UTEC CSC 70101, juin1970.

[57] WHITTED (T.). – An Improved IlluminationModel for Shaded Display (Un modèle amé-lioré d’illumination pour les images ombrées).Communications of the ACM (USA), 23, no 6,juin 1980.

[58] LUCAS (M.). – Infographie interactive.H 1 410, traité Informatique, Techniques del’Ingénieur, sept. 1993.

ConstructeursSimulateurs

AtariCodes RousseauGeneral ElectricRediffusionSegaSinger LinkThomson-CSF

Stations de travail graphiquesApolloSilicon GraphicsSun

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copieDoc. E 5 530 − 2 est strictement interdite. − © Techniques de l’Ingénieur, traité Télécoms