Johannes Leebmann Dreidimensionale Skizzen in erweiterter Realität Dreidimensionale Skizzen in erweiterter Realität Esquisses tridimensionnelles dans une réalité augmentée von Johannes Leebmann Universitätsverlag Karlsruhe 2006 Print on Demand ISBN 3-86644-027-8 Impressum Universitätsverlag Karlsruhe c/o Universitätsbibliothek Straße am Forum 2 D-76131 Karlsruhe www.uvka.de Dieses Werk ist unter folgender Creative Commons-Lizenz lizenziert: http://creativecommons.org/licenses/by-nc-nd/2.0/de/ Dissertation, genehmigt von der Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften der Universität Fridericiana zu Karlsruhe (TH), 2005 Referenten: Prof. Dr.-Ing. habil. Dr. h. c. H.-P. Bähr, Universität Karlsruhe (TH) Professeur des Universités Pierre Grussenmeyer, INSA Strasbourg Zur Erlangung des akademischen Grades eines DOKTOR-INGENIEURS von der Fakult ̈ at f ̈ ur Bauingenieur- Geo- und Umweltwissenschaften der Universit ̈ at Fridericiana zu Karlsruhe (TH) genehmigte DISSERTATION Dreidimensionale Skizzen in Erweiterter Realit ̈ at Th` ese pr ́ esent ́ ee pour obtenir le grade de Docteur de l’Universit ́ e Louis Pasteur Strasbourg I Esquisses tridimensionnelles dans une r ́ ealit ́ e augment ́ ee von/par Dipl.-Ing. Johannes LEEBMANN aus/de K ̈ oßlarn eingereicht am/ soumise le 17. Juni 2005 Tag der m ̈ undlichen Pr ̈ ufung/ Soutenue publiquement le: 23. November 2005 Jury: 1. Directeur de Th` ese/ Betreuer: Prof. Dr.-Ing. habil. Dr. h. c. H.-P. B ̈ ahr, Universit ̈ at Karlsruhe (TH) 2. Co-Directeur de Th` ese/ Betreuer: Professeur des Universit ́ es Pierre Grussenmeyer, INSA Strasbourg 3. Rapporteur Interne/ 1. Gutachter: Prof. Dr.-Ing. Dr. e.h. G ̈ unther Schmitt, Universit ̈ at Karlsruhe (TH) 4. Rapporteur Interne/ 2. Gutachter: Professeur des Universit ́ es Ernest Hirsch, Ecole Nationale Super ́ erieur de Physique de Strasbourg, ULP 5. Rapporteur Externe/ 3. Gutachter: Prof. Dr.-Ing. habil. Helmut Mayer, Universit ̈ at der Bundeswehr M ̈ unchen 6. Examinateur/ 4. Gutachter: Prof. Dr.-Ing. Bernhard Heck, Universit ̈ at Karlsruhe (TH) Vorsitzender: Univ.-Prof. Dr.-Ing. Dr. h.c. Gerd Gudehus, Universit ̈ at Karlsruhe (TH) Inhaltsverzeichnis 1 These 25 2 Allgemeine Grundlagen 27 2.1 Erweiterte Realit ̈ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2 Aufgaben von Skizzen . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3 Dreidimensionale Skizzen . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4 Psychologischer, physikalischer und virtueller Raum . . . . . . . . . . 31 2.4.1 Physikalischer Raum . . . . . . . . . . . . . . . . . . . . . . . 31 2.4.2 Psychologischer Raum . . . . . . . . . . . . . . . . . . . . . . 32 2.4.3 Virtueller Raum . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.5 Rechnergest ̈ utzte R ̈ aumliche Wahrnehmung . . . . . . . . . . . . . . 35 3 Motivation 37 3.1 Katastrophen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.2 Koordination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.3 Direkte Datenintegration . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.4 Direkter Vergleich von wahrer Lage und Lagebild . . . . . . . . . . . 45 3.5 Verf ̈ ugbarkeit von Daten . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.5.1 Vor dem Ereignis gesammelte Daten . . . . . . . . . . . . . . 48 3.5.2 Nach dem Ereignis gesammelte Daten . . . . . . . . . . . . . 49 3.5.3 Abgeleitete Daten und Simulationen . . . . . . . . . . . . . . 49 3.6 Informationsverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4 ̈ Uberlagerung von physikalischen und virtuellen Objekten 53 4.1 Verwendete Ger ̈ ate und Instrumente . . . . . . . . . . . . . . . . . . 54 4.2 Mathematisches Modell . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.3 Sensorgenauigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.4 Struktur von mathematischen Modellen . . . . . . . . . . . . . . . . . 63 1 2 INHALTSVERZEICHNIS 4.5 Grundgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.6 Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 4.6.1 Transformation vom Kamerasystem in das System der Anzei- ge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.6.2 Transformation vom IMU-System in das Kamerasystem . . . 77 4.6.3 Transformation vom GPS-Empf ̈ anger in das Quellensystem . . 79 4.7 Empirische Genauigkeit der Kalibrierung . . . . . . . . . . . . . . . . 80 4.7.1 Globale Genauigkeit . . . . . . . . . . . . . . . . . . . . . . . 82 4.7.2 Genauigkeit der Parameter . . . . . . . . . . . . . . . . . . . . 84 5 Virtuelle dreidimensionale Skizzen in der physikalischen Welt 85 5.1 Konstruktion in rein virtuellen Welten . . . . . . . . . . . . . . . . . 87 5.2 Konstruktion mit kombinierten Sichten . . . . . . . . . . . . . . . . . 87 5.2.1 Hilfslinien bei der Konstruktion . . . . . . . . . . . . . . . . . 88 5.2.2 Bisherige Verfahren f ̈ ur kombinierte Sichten . . . . . . . . . . 93 5.2.3 Ber ̈ uhrungsfreie Konstruktion . . . . . . . . . . . . . . . . . . 94 5.2.4 Kontext der ber ̈ uhrungsfreien Konstruktion von Polygonen . . 95 5.2.5 Minimierungskriterium . . . . . . . . . . . . . . . . . . . . . . 99 5.2.5.1 Distanzmaße f ̈ ur allgemeine Objekte . . . . . . . . . 99 5.2.5.2 Distanz zwischen Polygonen . . . . . . . . . . . . . . 101 5.2.6 Berechnung der beobachteten Raumpolygone . . . . . . . . . . 104 6 Diskussion der Ergebnisse 109 6.1 Allgemeine Systemeigenschaften . . . . . . . . . . . . . . . . . . . . . 110 6.2 Numerische Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 110 6.2.1 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.2.2 Sensitivit ̈ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.3 Genauigkeit der Erfassung . . . . . . . . . . . . . . . . . . . . . . . . 115 6.4 Konstruktionsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 118 7 Ausblick 125 Kurzfassung Die Technik der Erweiterten Realit ̈ at (ER) kann dazu eingesetzt werden, k ̈ unstliche und nat ̈ urliche Sinneseindr ̈ ucke zu einer konsistenten Gesamtwahrnehmung zu ver- schmelzen. Dabei soll der Nutzer den Eindruck haben, dass die physikalische Welt mit virtuellen Objekten zu einer erweiterten Welt erg ̈ anzt wurde. In dieser Erweiter- ten Welt kann der Nutzer sinnvoll mit den wahrgenommenen Objekten interagieren. In dieser Arbeit wird eine Methode vorgeschlagen, mit der durch den Einsatz der ER- Technik virtuelle Skizzen direkt in die physikalische Welt gezeichnet werden k ̈ onnen. Hierzu wird in dieser Abhandlung der Begriff ”dreidimensionale Skizze“ verwendet. Die skizzierte Information soll aber nicht nur zweidimensional, sondern auch drei- dimensional repr ̈ asentiert werden und somit aus verschiedenen Perspektiven dar- stellbar sein. Damit man das Objekt aus verschiedenen Perspektiven betrachten kann, braucht man eine dreidimensionale Repr ̈ asentation des Objektes. Es handelt sich also nicht um eine zweidimensionale r ̈ aumliche Skizze eines dreidimensionalen Objektes, sondern um eine dreidimensional repr ̈ asentierte Skizze eines r ̈ aumlichen Objektes. Ein Anwendungsbereich f ̈ ur dreidimensionale Skizzen ist die Erfassung von Lagein- formation nach Katastrophen. Die dreidimensionale Skizze soll die zweidimensionale Zeichnung als Lagekarte bzw. Lageskizze erg ̈ anzen. Mit Hilfe von Kartenmaterial las- sen sich eingesetzte Kr ̈ afte, Infrastruktur, gef ̈ ahrdete Objekte, Gefahrenentwicklung, Sch ̈ aden und Sonstiges in Beziehung bringen. Die bisherigen Verfahren zur Generie- rung von Skizzen in einer ER-Umgebung sind nicht f ̈ ur den Einsatz beim Katastro- phenmanagement geeignet. Es wird deshalb eine neue Methode vorgestellt, mit der Geometrien in die physikalische Welt skizziert werden k ̈ onnen und damit w ̈ ahrend des Einsatzes vor Ort Lageskizzen angefertigt werden k ̈ onnen. Es wird gezeigt, wie diese dreidimensionalen Daten mit anderen Informationen in ein Gesamtkonzept zum Wissensmanagement bei Katastrophen integriert werden k ̈ onnen. Ein ER-System f ̈ ur ausgedehnte Einsatzgebiete ben ̈ otigt Sensoren, die f ̈ ur den ge- samten Einsatzbereich Position und Orientierung liefern. F ̈ ur diese Arbeit wird die Position durch ein GPS erfasst und die Orientierung mit einem Inertialnavigati- onssystem (INS) bestimmt. Die Verschmelzung der Bilder von physikalischer und virtueller Welt erfolgt mithilfe einer Durchsichtdatenbrille oder mithilfe von Bildern einer Videokamera, die mit computergenerierten Bildern ̈ uberlagert werden. Neben dem mathematischen Modell ist es notwendig die stochastischen Eigenschaf- ten der Komponenten zu kennen. Zur Bestimmung der Genauigkeit des INS wurde eine Methode entwickelt, die das Fehlerverhalten des INS absch ̈ atzen kann, ohne dass zus ̈ atzliche Ger ̈ ate zur Bestimmung notwendig sind. Zur Absch ̈ atzung der Feh- 3 4 Kurzfassung ler wird ausgenutzt, dass sich der Sensor um eine feste Achse drehen muss, wenn er auf einer ebenen Oberfl ̈ ache aufgesetzt und gedreht wird. Die Herausforderung der Kalibrierung der verwendeten Konfiguration besteht darin, dass das mathematische Modell durch nicht-lineare Gleichungssysteme beschrieben wird, die nicht in einem Schritt l ̈ osbar sind. Das Gleichungssystem des mathema- tischen Modells ist eine Erweiterung des Gleichungssystems einer B ̈ undelblockaus- gleichung. Die B ̈ undelblockausgleichung ist f ̈ ur den Fall der perspektiven Abbildung ein nicht-lineares Gleichungssystem. Da die Konvergenz von L ̈ osungsverfahren f ̈ ur dieses Gleichungssystem von verschiedenen Faktoren abh ̈ angen, wie z. B. der Zahl der Unbekannten, der Konfiguration der Aufnahmen, der Wahl der N ̈ aherungswer- te, werden in der Literatur mehrere verschiedene L ̈ osungsstrategien f ̈ ur die B ̈ undel- blockausgleichung vorgeschlagen. Die in dieser Arbeit beschriebene Methode nutzt aus, dass die Konvergenz von der Struktur des mathematischen Modells abh ̈ angt. Zur Beschreibung von Struktur ̈ uberg ̈ angen von einem mathematischen Modell in ein anderes wird eine neue Notation vorgeschlagen, die geeignet ist den gesamten Kalibriervorgang formal vollst ̈ andig darzustellen. Es werden f ̈ ur alle Teilschritte und gesch ̈ atzten Parameter die erreichbaren Genauigkeiten, die empirisch ermittelt wur- den, angegeben. Damit das Gezeichnete in der bewegten Anzeige sichtbar gemacht werden kann, m ̈ ussen die gemessenen Bildpunkte st ̈ andig der Bewegung nachgef ̈ uhrt und in neue Anzeigekoordinatensysteme transformiert werden. G ̈ abe es f ̈ ur die gemessenen Bild- punkte dreidimensionale Objektkoordinaten, dann w ̈ are die Transformation leicht zu berechnen. Doch anfangs verf ̈ ugt man lediglich ̈ uber zweidimensionale Bildkoor- dinaten. In der Literatur findet man f ̈ ur diese Problemstellung keine L ̈ osungen. F ̈ ur diese Arbeit wurde deshalb eine N ̈ aherungsmethode entwickelt, mit der die Bild- punkte des gezeichneten Gesamtbildes der Bewegung des Benutzers nachgef ̈ uhrt werden k ̈ onnen, ohne dass dreidimensionale Koordinaten bekannt sind. Zur Berechnung der dreidimensionalen Koordinaten des Gezeichneten muss die Skizze aus mehreren Perspektiven gezeichnet werden. Im Gegensatz zu vorhande- nen Ans ̈ atzen k ̈ onnen mit der Methode dieser Arbeit polygonale Skizzenelemente ber ̈ uhrungsfrei aus der Distanz konstruiert werden. Beim Konstruieren von dreidi- mensionalen Skizzen werden Polygone im Objektraum beobachtet. Die gemessenen Punkte, die die Polygone beschreiben, liegen nicht mehr in einer Bildebene, da sich der Betrachter w ̈ ahrend des Skizzierens frei im Raum bewegen k ̈ onnen soll. Von min- destens zwei verschiedenen Orten aus zeichnet man mit der Maus Polygonpunkte in die Anzeige. Jede im Bildraum abgetastete Kurve beschreibt eine andere r ̈ aumliche Kurve im Objektraum. Dabei entsteht ein erster Fehler bei der Diskretisierung der Raumkurve durch die Wahl bestimmter St ̈ utzpunkte, die diese Kurve repr ̈ asentieren. Eine weitere Art von Fehlern entsteht durch fehlerbehaftete Sensormessungen und Fehler in den Bildpunktkoordinaten. Dar ̈ uber hinaus wird jedoch ein weit gr ̈ oßerer Fehler dadurch verursacht, dass der Zeichner sich nicht mehr genau an die Punkte erinnert, entlang derer er die Kurve skizziert hat, da kein Polygon, das in den phy- sikalischen Raum gezeichnet wird, sich auf den gleichen physikalischen Ort bezieht. Es entstehen also mindestens zwei B ̈ undel von Strahlen und jedes Strahlenb ̈ undel beschreibt eine Fl ̈ ache, auf der eine Vielzahl von Polygonen liegen kann. Durch Minimierung von Polygondistanzen wird der Verlauf der beobachteten Po- Kurzfassung 5 lygone im physikalischen Raum festgelegt. Die vorgeschlagenen Verfahren werden an verschiedenen Beispielen gepr ̈ uft. Die Ergebnisse der Tests werden diskutiert. Abschließend wird der weitere Entwicklungsbedarf aufgezeigt. 6 Kurzfassung R ́ esum ́ e L’objectif de la r ́ ealit ́ e augment ́ ee (RA) est de fusionner des impressions sensorielles artificielles et naturelles pour aboutir ` a une perception totale coh ́ erente. L’utilisateur doit avoir l’impression que le monde physique a ́ et ́ e compl ́ et ́ e avec des objets virtuels dans lequel il peut interagir raisonnablement. Il est ́ egalement possible de g ́ en ́ erer des impressions sensorielles artificielles pour l’ou ̈ ıe, l’odorat, le goˆ ut et le toucher. Cette th` ese utilise la technique de la RA pour fusionner deux types d’informations visuelles : d’une part des informations naturelles et d’autre part des informations artificielles. Ces informations peuvent provenir de collections de donn ́ ees existantes ayant une relation spatiale au monde physique, mais ́ egalement d’enregistrement de nouveaux objets et de leur g ́ eom ́ etrie. La communication des donn ́ ees spatiales ayant une signification sp ́ ecifique est rendue possible avec d’autres ou avec soi-mˆ eme. Les informations du monde physique et celles du monde virtuel sont prises en compte si- multan ́ ement. Lors du transfert des repr ́ esentations de l’ ́ emetteur vers le r ́ ecepteur, il est important de d ́ efinir une structure de trois espaces, en l’occurrence la structure de l’espace psychologique de l’ ́ emetteur vers le r ́ ecepteur (tous deux li ́ es ` a l’op ́ erateur), de l’espace physique et de l’espace virtuel. En ce qui concerne l’espace physique, il s’agit d’un espace externe ind ́ ependant de toute forme d’interpr ́ etation mentale. L’espace physique peut en pratique ˆ etre suppos ́ e comme un espace euclidien et tri- dimensionnel. L’espace psychologique d ́ ecrit quant ` a lui un espace purement mental qui n’existerait pas sans performances mentales. Avec cette notion, toutes les struc- tures qui repr ́ esentent mentalement des informations spatiales dans le cerveau sont r ́ esum ́ ees. Le troisi` eme espace ` a consid ́ erer en RA est l’espace virtuel. Sa structure n’est pas ind ́ ependante des espaces psychologique et physique, bien qu’il soit un espace compl` etement construit. La construction de l’espace virtuel se base sur la re- pr ́ esentation de l’espace psychologique ou sur les observations de l’espace physique. La structure de l’espace virtuel peut ˆ etre d ́ efinie lors de sa construction et com- pl` etement connue, tandis qu’il est difficile pour l’homme de saisir les ́ el ́ ements de structure d’espace physique et d’espace psychologique. Une des formes les plus im- portantes de communication graphique dans le quotidien est l’esquisse ` a main lev ́ ee. Cette th` ese propose une m ́ ethode permettant de dessiner directement des esquisses virtuelles dans le monde physique. Pour cela nous utilisons la notion d’ “ esquisse tridimensionnelle ”. L’information dessin ́ ee doit non seulement ˆ etre repr ́ esent ́ ee en 2D, mais ́ egalement en 3D et devient de ce fait repr ́ esentable avec diff ́ erentes per- spectives. La repr ́ esentation tridimensionnelle de l’objet est n ́ ecessaire pour le rendre observable en perspective. Il s’agit donc d’une esquisse tridimensionnelle d’un objet de l’espace. Les esquisses utilisent seulement un petit nombre de primitives, et don- nent une signification s ́ emantique dans leur contexte et leur combinaison. Cette th` ese 7 8 R ́ esum ́ e cherche ` a d ́ efinir le principe de la g ́ en ́ eration de ces esquisses tridimensionnelles. Ce type de saisie est appropri ́ e si la mesure de la g ́ eom ́ etrie n’exige pas une pr ́ ecision ́ elev ́ ee. C’est le cas pour des applications n ́ ecessitant rapidement d’une information g ́ eom ́ etrique sans d ́ ependre de la reproduction exacte de cette g ́ eom ́ etrie. Bien que la pr ́ ecision de saisie avec l’ARS (Syst` eme de R ́ ealit ́ e Augment ́ ee) soit limit ́ ee jusqu’` a pr ́ esent, ces syst` emes permettent d’acqu ́ erir des donn ́ ees spatiales en peu de temps. Les donn ́ ees sont rapidement disponibles car la mesure, le calcul, la mod ́ elisation et le contrˆ ole de qualit ́ e sont effectu ́ es en une seule ́ etape. Par cons ́ equent, un champ d’application pour ces esquisses tridimensionnelles est la saisie de l’ ́ etat des lieux ` a l’issue de catastrophes, situation dans laquelle la rapidit ́ e des mesures est n ́ ecessaire. L’esquisse tridimensionnelle doit compl ́ eter le dessin bidimensionnel de la carte de situation et/ou de l’esquisse de situation. G ́ en ́ eralement, seules des esquisses bidi- mensionnelles sont dessin ́ ees pour la gestion des catastrophes. Les repr ́ esentations tridimensionnelles et spatiales sont ` a peine utilis ́ ees. En effet, le dessin spatial tridi- mensionnel ` a main lev ́ ee est difficile pour les personnes inexp ́ eriment ́ ees. Pourtant les informations tridimensionnelles jouent un rˆ ole important. Par exemple, pour les dommages sur les grands bˆ atiments ` a plusieurs ́ etages, la repr ́ esentation en plan est insuffisante pour d ́ ecrire la situation. La visualisation tridimensionnelle dans de tels cas permettra d’am ́ eliorer la description spatiale des dommages. Pour pouvoir utiliser la RA lors de catastrophes, des exigences particuli` eres doivent ˆ etre satisfaites. Le syst` eme doit pouvoir ˆ etre utilis ́ e dans un domaine d’application ́ etendu, il doit pouvoir ́ echanger des informations entre plusieurs intervenants, les objets spatiaux ne sont pas toujours accessibles et leur localisation est inconnue. Les proc ́ edures classiques de production des esquisses dans un environnement de RA ne sont pas appropri ́ ees pour la gestion de catastrophes. Cette th` ese pr ́ esente une nou- velle m ́ ethode o` u les g ́ eom ́ etries peuvent ˆ etre d ́ ecrites dans le monde physique et des esquisses de situation peuvent ˆ etre produites sur site. Nous montrons comment ces donn ́ ees tridimensionnelles peuvent ˆ etre int ́ egr ́ ees avec d’autres informations dans un concept g ́ en ́ eral de gestion de savoir pour des catastrophes. Pour ces applications, le syst` eme n ́ ecessite des capteurs qui fournissent l’orientation et la position quelque soit le rayon d’action. La position est alors saisie avec un GPS et l’orientation est d ́ etermin ́ ee avec un syst` eme de navigation inertielle (INS). Les techniques de posi- tion cin ́ ematique en temps r ́ eel (RTK) permettent la localisation en temps r ́ eel par GPS diff ́ erentiel (DGPS) sur le terrain. Un syst` eme DGPS se compose des ́ el ́ ements suivants : un r ́ ecepteur GPS fixe comme une station de r ́ ef ́ erence GPS, une trans- metteur pour la transmission des donn ́ ees de correction et un r ́ ecepteur GPS mobile (qui peut r ́ eceptionner des donn ́ ees de correction). Comme l’utilisateur est ́ equip ́ e d’un r ́ ecepteur mobile, on peut enregistrer le vecteur de diff ́ erence entre la station de r ́ ef ́ erence et l’utilisateur. Contrairement ` a d’autres syst` emes de RA d ́ ecrits dans la litt ́ erature, des r ́ ecepteurs GPS bi-fr ́ equences sont utilis ́ es dans notre cas pour atteindre une pr ́ ecision plus ́ elev ́ ee. Deux types de r ́ ecepteurs GPS ́ etaient disponi- bles : un r ́ ecepteur GPS du type Trimble 4800 et un r ́ ecepteur GPS de type Leica SR530. Les fabricants de ce type de r ́ ecepteur indiquent une pr ́ ecision (d ́ ependante de la g ́ eom ́ etrie entre les r ́ ecepteurs et la quantit ́ e de satellites observ ́ es) de 3 cm + 2 ppm pour le Trimble 4800 et/ou 1 cm + 1 ppm pour le Leica SR530. L’orientation est mesur ́ ee avec une “ unit ́ e de mesure de combinaison ” (CMU) Xsens MT9. R ́ esum ́ e 9 Dans ce qui suit, ce capteur est appel ́ e Inertial Measurement Unit (IMU). Xsens- IMU d ́ etermine l’orientation du capteur dans l’espace relatif ` a un certain r ́ ef ́ erentiel par l’int ́ egration des valeurs d’acc ́ el ́ eration mesur ́ ees et corrige les erreurs qui sont caus ́ ees par l’int ́ egration des valeurs d’acc ́ el ́ eration de fa ̧ con ` a observer la direction du fil ` a plomb et la direction donn ́ ee du champ magn ́ etique terrestre. La pr ́ ecision relative des angles est de l’ordre d’un degr ́ e, conform ́ ement aux indications du fa- bricant. Lors de la pr ́ esentation l’utilisateur peut choisir entre deux variantes du syst` eme : la fusion des images du monde physique et virtuel a lieu soit ` a l’aide de lunettes ` a RA (monocle) ou d’images d’une cam ́ era vid ́ eo qui sont superpos ́ ees avec des images g ́ en ́ er ́ ees par un ordinateur. Pour la superposition avec une cam ́ era vid ́ eo, on utilise une cam ́ era vid ́ eo Unibrain Fire-i avec diff ́ erentes r ́ esolutions pos- sibles de 640x480, de 320x240 ou de 160x120 pixels et un ́ ecran d’un ordinateur portatif. La mise au point de la cam ́ era est fixe pour ce projet et la distance foca- le est constante. Le syst` eme Microvision Nomad a ́ et ́ e utilis ́ e pour l’autre variante qui se base sur la superposition ` a l’aide de lunettes ` a RA (monocle). Ce dernier convient pour des applications ext ́ erieures en raison de sa transparence et de sa lu- minosit ́ e particuli` erement adapt ́ ee. On peut ainsi rendre visibles des informations dans des conditions d’ ́ eclairage difficiles, par exemple lors de mesures avec le ciel en arri` ere-plan. Ces constituants principaux sont fix ́ es sur le cadre d’un sac ` a dos. Le r ́ ecepteur GPS (reli ́ e ` a une barre), un tripode, la cam ́ era, le syst` eme inertiel et une valise d’aluminium sont transportables dans un sac ` a dos. Tous les cˆ ables, les batteries et l’ordinateur portatif sont rang ́ es dans une valise. Lorsque le monocle est utilis ́ e, un syst` eme IMU (Inertial Measurement Unit) doit ˆ etre attach ́ e ` a la boˆ ıte du monocle, parce que l’orientation de la tˆ ete peut se diff ́ erencier de l’orientation de la cam ́ era. Les deux variantes ont permis de montrer lors du d ́ eveloppement des diff ́ erences de confort pour l’utilisateur. ́ Etant donn ́ e que la r ́ esolution du monocle est limit ́ ee ` a 800 x 600 pixels (SVGA : Super Video Graphics Array), tout l’ ́ ecran du monocle est utilis ́ e pour pr ́ esenter la sc` ene virtuelle. Avec l’ ́ ecran d’un ordina- teur portatif, on peut en plus utiliser d’autres documents plac ́ es ` a cˆ ot ́ e de la fenˆ etre repr ́ esentant la sc` ene vid ́ eo ; mais pour l’observation le d ́ eplacement de tout le sac ` a dos avec la cam ́ era est n ́ ecessaire, alors qu’une simple rotation de la tˆ ete suffit avec le syst` eme Nomad. Pour fusionner la sc` ene du monde physique et la sc` ene du monde virtuel dans une image, on d ́ efinit un mod` ele math ́ ematique du processus de la superposition. Les param` etres inconnus du processus sont d ́ etermin ́ es par un ́ etalonnage. Une m ́ ethode originale de calibrage du syst` eme a ́ et ́ e d ́ evelopp ́ ee, ́ etant donn ́ ee qu’aucun proc ́ ed ́ e efficace n’a ́ et ́ e trouv ́ e dans la bibliographie. Le mod` ele math ́ ematique est d ́ ecrit par un syst` eme d’ ́ equations non lin ́ eaires r ́ esolu de mani` ere it ́ erative. Pour d ́ eterminer la pr ́ ecision du syst` eme INS, une m ́ ethode pour estimer le comportement des erreurs a ́ et ́ e d ́ evelopp ́ ee, sans que des appareils suppl ́ ementaires soient n ́ ecessaires. Pour l’estimation des erreurs, on impose au capteur de tourner autour d’un axe fixe, lorsqu’il est mis en oeuvre sur une surface plane. Puisque cette m ́ ethode se base sur un principe g ́ eom ́ etrique simple, elle n’exige pas d’installations techniques complexes visant le r ́ eexamen de l’ ́ etat de marche des capteurs. Pour la cr ́ eation d’un prototype du syst` eme, cette m ́ ethode permet de choisir le capteur appropri ́ e parmi une liste de capteurs disponibles et facilite la compr ́ ehension des erreurs de calibrage. Les capteurs consid ́ er ́ es diff` erent du point de vue des valeurs absolues des erreurs ainsi que des erreurs syst ́ ematiques. L’orientation de l’espace 10 R ́ esum ́ e 3D est d ́ ecrit par trois angles (coordonn ́ ees angulaires) d ́ efinis dans un syst` eme de coordonn ́ ees sp ́ ecifique. Dans ce travail, une ́ etude porte ́ egalement sur le choix ap- propri ́ e du syst` eme de coordonn ́ ees et la d ́ efinition des coordonn ́ ees angulaires. On peut ainsi montrer que les diff ́ erentes coordonn ́ ees angulaires n’ont pas les mˆ emes erreurs maximales et que les erreurs sont d ́ ependantes de la vitesse du mouvement du capteur pendant la mesure d’angle. Les erreurs peuvent ˆ etre interpr ́ et ́ ees physi- quement : la diff ́ erence de la valeur absolue maximale des erreurs entre les capteurs s’explique par le fait que l’observation de la direction du fil ` a plomb est plus pr ́ ecise que l’observation de la direction donn ́ ee du champ magn ́ etique terrestre dans le cas particulier de notre syst` eme. En outre, la proc ́ edure d’int ́ egration du syst` eme IMU est ` a l’origine d’erreurs syst ́ ematiques. Le syst` eme utilis ́ e est une adaptation des syst` emes de compensation en bloc par les faisceaux bien connus en photogramm ́ etrie. La convergence des calculs d ́ epend de diff ́ erents facteurs, comme par exemple le nombre d’inconnues, la configuration des photos, le choix des valeurs approch ́ ees, etc. Diff ́ erentes strat ́ egies de r ́ esolution pour l’ajustement en bloc ont ́ et ́ e d ́ evelopp ́ ees. Dans la m ́ ethode d ́ ecrite dans cette th` ese, la convergence d ́ epend de la structure du mod` ele math ́ ematique. Pour la de- scription des relations entre les mod` eles math ́ ematiques, une nouvelle notation est propos ́ ee, appropri ́ ee ` a une description formelle du processus global d’ ́ etalonnage. Les pr ́ ecisions ont ́ et ́ e d ́ etermin ́ ees empiriquement, et indiqu ́ ees pour tous les pa- ram` etres et toutes les ́ etapes. En particulier une approche de d ́ etermination des param` etres visant le calibrage d’un ERS bas ́ ee simultan ́ ement sur les mesures INS et GPS est confront ́ ee ` a d’autres approches de la litt ́ erature. On peut montrer que la pr ́ ecision de d ́ etermination des param` etres du syst` eme peut ˆ etre augment ́ ee de mani` ere significative dans le cadre d’une approche ferm ́ ee. Lors de la formalisation du processus de calibrage, une nouvelle pr ́ esentation facilitant la repr ́ esentation des transitions entre mod` eles structurels est pr ́ esent ́ ee. Par la nouvelle pr ́ esentation le processus d’ ́ etalonnage total peut ˆ etre repr ́ esent ́ e sans lacunes et les diff ́ erences entre mod` eles peuvent ˆ etre d ́ ecrites plus facilement. Les avantages d’une approche ferm ́ ee sont dus en particulier ` a la prise en compte des erreurs lors de la d ́ etermination du centre de projection et de l’orientation de la cam ́ era. Si ceux-ci ne sont pas pris en compte, cela peut conduire ` a une erreur consid ́ erablement plus grande sur les points- images. La reproduction des erreurs devrait ainsi ˆ etre prise en compte ou compens ́ ee dans un mod` ele ferm ́ e. Puisque la qualit ́ e du calibrage influence la pr ́ ecision de la g ́ eom ́ etrie de l’esquisse, l’attention doit ˆ etre port ́ ee au calibrage du syst` eme. Dans notre approche, l’utilisateur du syst` eme doit avoir l’impression qu’il dessine des esquisses directement, comme avec un crayon dans le monde physique tridimen- sionnel. Il en r ́ esulte qu’on peut non seulement dessiner sur la surface des objets du monde physique, mais aussi dans l’espace en g ́ en ́ eral. Cette id ́ ee peut pratiquement ˆ etre mise en oeuvre par l’utilisateur qui choisi les points d’un polygone avec un poin- teur pilot ́ e par une souris d’ordinateur ou un syst` eme ́ equivalent. Puisque l’utilisateur avec les lunettes ` a RA (monocle) ou la cam ́ era vid ́ eo peut se d ́ eplacer librement pen- dant le dessin, les points mesur ́ es sur l’image ne font pas partie du mˆ eme syst` eme de coordonn ́ ees-images. Les points-images mesur ́ es doivent ˆ etre constamment ajust ́ es au mouvement et constamment transform ́ es dans de nouveaux syst` emes de coor- donn ́ ees-images, afin que le dessin puisse ˆ etre rendu visible dans l’image en mouve-