Springer Reference Naturwissenschaften
Willfried Schwarz Hrsg.
Ingenieur geodäsie Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel
Springer Reference Naturwissenschaften
Springer Reference Naturwissenschaften bietet Praktikern, Wissenschaftlern und Studierenden zielführendes Fachwissen in aktueller, modularisierter und verständlicher Form. Während traditionelle Handbücher ihre Inhalte bislang lediglich gebündelt und statisch in einer Druckausgabe präsentiert haben, bietet Springer Reference Naturwissenschaften eine um dynamische Komponenten erweiterte Online-Präsenz: ständige digitale Verfügbarkeit, frühes Erscheinen neuer Beiträge „online first“ und fortlaufende Erweiterung und Aktualisierung der Inhalte. Die Werke und Beiträge der Reihe repräsentieren den jeweils aktuellen Stand des Wissens des Faches, insbesondere auch in den Anwendungen und in der Verzahnung der verschiedenen Gebiete. Review-Prozesse sichern die Qualität durch die aktive Mitwirkung namhafter Herausgeber(innen) und ausgesuchter Autor(inn)en. Springer Reference Naturwissenschaften wächst kontinuierlich um neue Kapitel und Fachgebiete. Weitere Informationen zu dieser Reihe finden Sie auf http://www.springer.com/ series/15072
Willfried Schwarz Herausgeber
Ingenieurgeodäsie Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel
mit 325 Abbildungen und 28 Tabellen
Hrsg. Willfried Schwarz Fakultät Bauingenieurwesen Bauhaus Universität Weimar Weimar, Deutschland
ISSN 2522-8161
ISSN 2522-817X (eBook)
Springer Reference Naturwissenschaften
ISBN 978-3-662-47187-6 ISBN 978-3-662-47188-3 (eBook) ISBN 978-3-662-53796-1 (Bundle) https://doi.org/10.1007/978-3-662-47188-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort der Gesamtherausgeber
In den Jahren 1961 bis 1968 erschienen die Bände der 10. und letzten Auflage des „Handbuch der Vermessungskunde“, jeweils mit einem Vorwort von Max Kneissl. Die erste Auflage aus den Jahren 1877 und 1878 stammte noch aus der Feder von Wilhelm Jordan (1842–1899). Sie fasste in zwei Büchern das Vermessungswesen der damaligen Zeit zusammen. Seither hat sich in der Geodäsie ein tief greifender Wandel vollzogen. Mit der stürmischen Entwicklung der Computertechnologie einher gingen neuartige und präzisere Verfahren des Messens, der mathematischen Darstellung und Analyse, und parallel hierzu eine beträchtliche Erweiterung des Aufgabenspektrums. Man könnte von zwei Modernisierungswellen sprechen: In den fünfziger bis siebziger Jahren des letzten Jahrhunderts ergaben sich aus neuen physikalischen Messprinzipien, den Anfängen elektronischen Rechnens und vor allem dem Eintritt ins Raumfahrtzeitalter grundlegend neue Perspektiven für die Geodäsie. In Ansätzen sind einige der daraus resultierenden Methoden und Verfahren in den sechs Bänden der zehnten Auflage des „Handbuch der Vermessungskunde“ bereits wieder zu finden. Seit einiger Zeit erleben wir eine zweite, vergleichbar grundlegende Welle der Veränderung der Geodäsie. Die komplette Verarbeitungskette von geodätischer Information, von ihrer Erfassung bis zur Anwendung geschieht ausschließlich digital, analoge geodätische Messverfahren wurden fast vollständig abgelöst von Verfahren, die auf der Verarbeitung elektromagnetischer Signale beruhen und es sind Satellitensysteme entstanden, mit denen die Erde global sehr schnell und genau vermessen werden kann. Auch die wissenschaftlichen und gesellschaftlichen Anforderungen an die Geodäsie haben sich verändert. War früher die Aufgabe der Geodäsie überwiegend eine statische Bestandsaufnahme unseres Lebensraums und der Erde als Ganzem, so widmet sich die Geodäsie heute primär Veränderungsprozessen. Neben die klassischen Aufgabengebiete im Ingenieurbereich und in der Landesvermessung trat die Geoinformatik mit all ihren Facetten der Bereitstellung von Geoinformation. Die geodätischen Beiträge zu der Erforschung des Erdsystems – sowohl in seiner Gesamtheit als auch in lokalen Teilsystemen und bei der Bewältigung der Herausforderungen des globalen Wandels – spiegeln ebenfalls eine neue Qualität der Geodäsie wider.
v
vi
Vorwort der Gesamtherausgeber
Das vorliegende Handbuch der Geodäsie war inspiriert durch das große Erbe des „Handbuchs der Vermessungskunde“ von Jordan-Eggert-Kneissl. Es wäre jedoch undenkbar, die neueren Entwicklungen in der Geodäsie mit vergleichbarer Akribie, Vollständigkeit und Detailgenauigkeit darstellen zu wollen, wie dies noch in den sechziger Jahren mit der zehnten Auflage des „Jordan-Eggert-Kneissl“ gelang. Stattdessen will das Handbuch der Geodäsie ein repräsentatives Gesamtbild des Sachstands der heutigen Geodäsie bieten. Die Geodäsie wird nicht flächendeckend behandelt, sondern exemplarisch anhand sorgfältig ausgewählter Einzelthemen. Die Beiträge sollen einen allgemein verständlichen Zugang zu den Themen der aktuellen Forschung und Entwicklung bieten. Das Handbuch richtet sich an die Studierenden und Kollegen in Forschung und Praxis ebenso wie an Fachkollegen der Nachbardisziplinen, die sich über den Stand der Geodäsie und ihre Herausforderungen informieren wollen. Das Handbuch wurde zu diesem Zweck in sechs Einzelbände untergliedert. Für die Herausgabe eines jeden der sechs Einzelbände konnte ein renommierter Geodäsie-Kollege gewonnen werden. Die Herausgeber der Einzelbände sind in Klammer angegeben: • • • • • •
Erdmessung und Satellitengeodäsie (Rummel, München) Photogrammetrie und Fernerkundung (Heipke, Hannover) Ingenieurgeodäsie (Schwarz, Weimar) Geoinformationssysteme (Sester, Hannover) Bodenordnung und Landmanagement (Kötter, Bonn) Mathematische Geodäsie (Freeden, Kaiserslautern).
Den Herausgebern der Einzelbände wurde die Konzeption des Inhalts und die Auswahl der Autoren überlassen. Die Initiative zu diesem Handbuch geht zurück auf den Springer-Verlag. Wir bedanken uns sehr herzlich für die gute Zusammenarbeit mit den Vertretern des Verlags. Unser tiefer Dank geht an die Mitherausgeber und an alle Autoren dieser sechs Bände. Kaiserslautern und München April 2016
Willi Freeden und Reiner Rummel
Vorwort zum Band „Ingenieurgeodäsie“
Das Spektrum der Arbeitsbereiche der Ingenieurgeodäsie ist weit gespannt. Es erstreckt sich u. a. von der Planung, Errichtung, Unterhaltung und Überwachung von Bauwerken unterschiedlichster Art, wie z. B. Gebäuden, Talsperren, Türmen, Straßen, Kanälen, Brücken, Tunneln bis hin zur Einrichtung und Überprüfung von hochsensiblen Maschinen, etwa im Automobil-, Flugzeug-, Schiffs-, Schienenfahrzeugbau und zur hochpräzisen Vermessung von Anlagen der Hochenergiephysik, wie z. B. von Teilchenbeschleunigern. Ebenso weit gefächert ist das Spektrum der in den einzelnen Arbeitsbereichen zu erbringenden Forderungen an die Qualität und an die Genauigkeit der zu bestimmenden Größen. Werden im Bauwesen Genauigkeiten im Zentimeter- und Millimeterbereich gefordert, sind hingegen im Maschinenbau und in der Hochenergiephysik Genauigkeiten von wenigen Zehntelmillimetern bis hin in den Mikrometerbereich zu gewährleisten. In letzter Zeit neu- bzw. weiterentwickelte Messmethoden, wie die terrestrische Mikrowelleninterferometrie, die Laserinterferometrie (Lasertracker, Lasertracer), das terrestrische Laserscanning, die Inertialmesstechik, die Faseroptik, die Indoor-Positionierung und die Geosensornetze bereichern die messtechnischen Möglichkeiten der Ingenieurgeodäsie und eröffnen zum einen die Bearbeitung neuer Anwendungsszenarien, z. B. bei der Überwachung von Bauwerken sowie der Vermessung von Maschinenanlagen und zum anderen eine Steigerung der Effizienz bisher eingesetzter Methoden. Weiterhin wurden die bestehenden Sensoren in ihrer Leistungsvielfalt (Messgenauigkeit, Messfrequenz) wesentlich erhöht. So haben sich z. B. Tachymeter zu voll elektronisch steuerbaren, autark agierenden, bildgebenden Video-Robot-Tachymetern entwickelt. Mit den heutzutage verfügbaren Sensoren ist die zeitliche Skala der messtechnischen Möglichkeiten wesentlich erweitert worden, so dass mit ihnen u. a. Schwingungen von Bauwerken durch die unterschiedlichen Belastungseinwirkungen hochgenau bestimmt werden können. Parallel zu den Verbesserungen bei den Sensorsystemen wurden die Methoden zur Qualitätsbeurteilung und -sicherung der in der Ingenieurgeodäsie ausgeführten Messungen in Anbetracht der zum Teil hohen Genauigkeitsforderungen weiterentwickelt. Ein wesentlicher Beitrag dabei ist, nicht nur die zufälligen, sondern auch die durch eine Korrektion nicht erfassbaren systematischen Messabweichungen im Genauigkeitsmaß zu berücksichtigen, z. B. nach den im Bereich des Maschinenbaus
vii
viii
Vorwort zum Band „Ingenieurgeodäsie“
entwickelten „Guide to the Expression of Uncertainty in Measurement (GUM)“. Ein weiteres wichtiges Element bei der Qualitätsbeurteilung der Messungen sind zeitgemäße Methoden und Verfahren zur Überprüfung und Kalibrierung der Messmittel. Besonders hervorheben möchte ich die in letzter Zeit weiterentwickelten Methoden und Modelle zur Auswertung ingenieurgeodätischer Überwachungsmessungen, eine Domäne der Ingenieurgeodäsie, die das Potenzial hat, auf andere Anwendungsbereiche übertragen zu werden. Der vorliegende Band möchte über die in den letzten Jahren erfolgten Weiterentwicklungen im Bereich der Sensorsysteme, der Beurteilung der Qualität der Messungen, der zeitgemäßen Mess- und Auswertemethoden, der Analyse, Interpretation und Präsentation der Ergebnisse berichten. Dabei wird das Ziel verfolgt, nicht nur Geodäten über die derzeitigen Leistungspotenziale der Ingenieurgeodäsie zu informieren, sondern in besonderem Maße die Fachkollegen der Nachbardisziplinen. Es wird damit die Hoffnung verbunden, dass durch eine fachübergreifende Zusammenarbeit die bei den Projekten zu lösenden Aufgabenstellungen effizienter bearbeitet werden können. Dieser Band erscheint nicht als klassisches Lehrbuch mit einer einheitlich strukturierten Gliederung. Aus Gründen der Aktualität werden die derzeitigen Leistungspotenziale der Ingenieurgeodäsie in diesem Band vielmehr in insgesamt 17 Einzelbeiträgen präsentiert. Auch wenn in den einzelnen Beiträgen gegenseitige Verweise aufgenommen worden sind, ließ es sich nicht gänzlich verhindern, dass einige Sachverhalte mehrfach angesprochen werden. Dieser Nachteil ist der Aktualität geschuldet, weil ansonsten die dann notwendigerweise erforderlichen Abstimmungen der einzelnen Autoren untereinander wesentlich mehr Zeit in Anspruch genommen hätten. Bei der inhaltlichen Darstellung in Einzelbeiträgen ist es aber weiter von Vorteil, dass alle in diesem Zusammenhang wichtigen Aspekte, z. B. bei neuen Sensorsystemen die physikalischen Grundlagen, Aspekte der Überprüfung und Kalibrierung, die Messdatenerfassung, die Auswertung und Interpretation sowie die Anwendungsbeispiele, direkt hintereinander diskutiert werden. Es war nicht möglich, alle Gebiete der Ingenieurgeodäsie in diesem Band darzustellen. So muss es weiteren Auflagen vorbehalten bleiben, z. B. über die derzeitig im Bereich der Hochenergiephysik eingesetzten hochpräzisen Mess- und Auswerteverfahren sowie über hydrostatische Messsysteme (Schlauchwaagen) zu berichten. Das Gleiche trifft auf den Bereich der hydrografischen Vermessung von Gewässern zu. Auch dieser anspruchsvolle Bereich, eine Kernaufgabe der Wasser- und Schifffahrtsverwaltung, kann nur in einer folgenden Auflage umfassend dargestellt werden. Gerne werden auch Hinweise und Korrekturvorschläge seitens der Leserschaft entgegengenommen, die dann bei einer Neuauflage gegebenenfalls berücksichtigt werden. Bedanken möchte ich mich bei allen Autoren für das Schreiben der Beiträge. Neben den vielfältigen Aufgaben, die jeder Autor in seinem Beruf zu erledigen hat, ist es keine Selbstverständlichkeit mehr, wissenschaftliche Manuskripte zu verfassen. Mein Dank gilt auch den Vertretern des Verlags bei der Umsetzung der Manuskripte, der Erstellung der Druckversionen der Beiträge und für die
Vorwort zum Band „Ingenieurgeodäsie“
ix
entgegengebrachte Geduld sowie den beiden Gesamtherausgebern für die Anregung und Initiative zu diesem Gesamtwerk der Geodäsie. Allen Bänden des Handbuchs der Geodäsie wünsche ich eine interessierte Leserschaft aus dem Bereich der Geodäsie und besonders aus den benachbarten Disziplinen. Mögen die Fachkollegen dieser Disziplinen die Leistungspotenziale der Geodäsie erkennen, um sie gemeinsam zu nutzen. Weimar Juni 2016
Willfried Schwarz
Inhaltsverzeichnis
1 Ingenieurgeodäsie – eine Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . Andreas Wieser, Heiner Kuhlmann, Volker Schwieger und Wolfgang Niemeier
1
2 Bauaufnahme, Gebäudeerfassung und BIM . . . . . . . . . . . . . . . . . . . . . Jörg Blankenbach
23
3 Indoor-Positionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jörg Blankenbach, Harald Sternberg und Sebastian Tilch
55
4 Mobile Multisensorsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Heiner Kuhlmann und Lasse Klingbeil
93
5 Geosensornetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 Otto Heunecke 6 Flächenhafte Abtastung mit Laserscanning . . . . . . . . . . . . . . . . . . . . . 167 Heiner Kuhlmann und Christoph Holst 7 Terrestrische Mikrowelleninterferometrie . . . . . . . . . . . . . . . . . . . . . . . 213 Gwendolyn Läufer, Martin Lehmann und Sabine Rödelsperger 8 Faseroptische Messverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 Heinz Döring,Wolfgang Habel,Werner Lienhart und Willfried Schwarz 9 Baumaschinensteuerung – der ingenieurgeodätische Beitrag . . . . . . 283 Volker Schwieger und Alexander Beetz 10
Messverfahren im Maschinenbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 Maria Hennes
11
Messmittel der Large Volume Metrology (LVM) . . . . . . . . . . . . . . . . . 347 Maria Hennes
xi
xii
Inhaltsverzeichnis
12
Qualitätsbewertungen in der Ingenieurgeodäsie . . . . . . . . . . . . . . . . . 371 Willfried Schwarz und Maria Hennes
13
Überprüfung und Kalibrierung der Messmittel in der Geodäsie . . . . 403 Helmut Woschitz und Hansbert Heister
14
Schwingungsuntersuchungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 Frank Neitzel und Willfried Schwarz
15
Methoden und Modelle bei ingenieurgeodätischen Überwachungsmessungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507 Andreas Eichhorn, Otto Heunecke, Heiner Kuhlmann und Hans Neuner
16
Monitoring von Hangrutschungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539 Wolfgang Niemeier und Björn Riedel
17
Tunnelvermessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565 Adrian Ryf, Roland Stengele und Thomas Heiniger
Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607
Mitarbeiterverzeichnis
Alexander Beetz MTS Maschinentechnik Schrode AG, Hayingen, Deutschland Jörg Blankenbach Geodätisches Institut und Lehrstuhl Bauinformatik & Geoinformationssysteme, RWTH Aachen University, Aachen, Deutschland Heinz Döring University of Applied Science, Mittweida, Deutschland Andreas Eichhorn Geodätisches Institut, TU Darmstadt, Darmstadt, Deutschland Wolfgang Habel Fachbereich 8.6 Faseroptische Sensorik, BAM Bundesanstalt für Materialforschung und -prüfung, Berlin, Deutschland Thomas Heiniger Geoengineering, Amberg Technologies AG, Regensdorf-Watt, Schweiz Hansbert Heister Institut für Geodäsie – Geodätisches Labor, Universität der Bundeswehr München, Neubiberg, Deutschland Maria Hennes Geodätisches Institut (GIK), KIT, Karlsruhe, Deutschland Otto Heunecke Ingenieurgeodäsie, Universität der Bundeswehr München, Neubiberg, Deutschland Christoph Holst Institut für Geodäsie und Geoinformation, Rheinische FriedrichWilhelms-Universität Bonn, Bonn, Deutschland Lasse Klingbeil Institut für Geodäsie und Geoinformation, Rheinische FriedrichWilhelms-Universität Bonn, Bonn, Deutschland Heiner Kuhlmann Institut für Geodäsie und Geoinformation, Rheinische Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland Gwendolyn Läufer Europäisches Satellitenkontrollzentrum (ESOC), Darmstadt, Deutschland Martin Lehmann Institut für Geodäsie und Photogrammetrie, TU Braunschweig, Braunschweig, Deutschland
xiii
xiv
Mitarbeiterverzeichnis
Werner Lienhart Institute of Engineering Geodesy and Measurement Systems, TU Graz, Graz, Österreich Frank Neitzel Institut für Geodäsie und Geoinformationstechnik, Technische Universität Berlin, Berlin, Deutschland Hans Neuner Department of Geodesy and Geoinformation, Vienna University of Technology, Wien, Österreich Wolfgang Niemeier Institut für Geodäsie und Photogrammetrie, Technische Universität Braunschweig, Braunschweig, Deutschland Björn Riedel Institut für Geodäsie und Photogrammetrie, Technische Universität Braunschweig, Braunschweig, Deutschland Sabine Rödelsperger Meta Sensing B.V., DK Nordwijk, Niederlande Adrian Ryf Geomatik, AlpTransit Gotthard AG, Luzern, Schweiz Willfried Schwarz Professur Computer Vision in Engineering, Bereich Geodäsie, Bauhaus-Universität Weimar, Weimar, Deutschland Volker Schwieger Institut für Ingenieurgeodäsie, Universität Stuttgart, Stuttgart, Deutschland Roland Stengele Geschäftsleitung, BSF Swissphoto AG, Regensdorf-Watt, Schweiz Harald Sternberg Ingenieurgeodäsie und geodätische Messtechnik, HafenCity Universität Hamburg, Hamburg, Deutschland Sebastian Tilch Unterentfelden, Schweiz Andreas Wieser Institut für Geodäsie und Photogrammetrie, ETH Zürich, Zürich, Schweiz Helmut Woschitz Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, Graz, Österreich
1
Ingenieurgeodäsie – eine Einführung Andreas Wieser, Heiner Kuhlmann, Volker Schwieger und Wolfgang Niemeier
Inhaltsverzeichnis 1 Ingenieurgeodäsie und Ingenieurvermessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Aufgaben der Ingenieurgeodäsie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Aufnahmevermessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Absteckung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Monitoring/Überwachungsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Charakterisierung von Ingenieurvermessungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Geometriebezogene Phänomene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Räumliche Skala: lokale und regionale Phänomene . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Qualitätsbeurteilung und Qualitätssicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Sensorik und geodätische Messtechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 3 3 5 7 10 10 11 12 14
Diese Einleitung besteht zum überwiegenden Teil aus einer gekürzten und geringfügig überarbeiteten Version des Kapitels Ingenieurgeodäsie aus Kummer et al. [39]. Insbesondere wurde hier wegen der nachfolgenden Kapitel auf Abbildungen und detaillierte Beispiele verzichtet. A. Wieser () Institut für Geodäsie und Photogrammetrie, ETH Zürich, Zürich, Schweiz E-Mail:
[email protected] H. Kuhlmann Institut für Geodäsie und Geoinformation, Rheinische Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland E-Mail:
[email protected] V. Schwieger Institut für Ingenieurgeodäsie, Universität Stuttgart, Stuttgart, Deutschland E-Mail:
[email protected] W. Niemeier Institut für Geodäsie und Photogrammetrie, Technische Universität Braunschweig, Braunschweig, Deutschland E-Mail:
[email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 W. Schwarz (Hrsg.), Ingenieurgeodäsie, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47188-3_19
1
2
A. Wieser et al.
3.5 Bezugssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Messungsplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15 16 17 18
Zusammenfassung
Die Ingenieurgeodäsie wird anhand ihrer Aufgaben, Methoden und Charakteristika als anwendungsorientierte Wissenschaft vorgestellt, deren Forschungsfragen sich häufig aus beobachteten Phänomenen oder ungelösten Fragestellungen der Praxis ergeben. Als wesentliches Merkmal zeigt sich die kompetente Bearbeitung geometriebezogener Fragestellungen mit durchgreifender Qualitätsbeurteilung von der Planung über die Messung bis zur Auswertung und Interpretation unter Berücksichtigung des Wirtschaftlichkeitsprinzips. Die aktuellen methodischen Entwicklungen sind vor allem vom Übergang auf raumkontinuierliche Verfahren gekennzeichnet sowie von der zunehmenden Integration der Messung und Analyse in anspruchsvolle Bau-, Fertigungs- und Überwachungsprozesse. Schlüsselwörter
Ingenieurgeodäsie • Aufnahme • Absteckung • Monitoring • Bezugssysteme
1
Ingenieurgeodäsie und Ingenieurvermessung
Die Methoden, Prozesse und Charakteristika, welche die Ingenieurgeodäsie in Praxis und Wissenschaft heute kennzeichnen, werden in diesem Band anhand ausgewählter Schlaglichter umrissen. Als wesentliches Merkmal zeigt sich dabei die kompetente Bearbeitung geometriebezogener Fragestellungen unter Berücksichtigung des Wirtschaftlichkeitsprinzips und mit durchgreifender Qualitätsbeurteilung von der Planung über die Messung bis zur Auswertung und Interpretation. Die Aufgabenstellungen bzw. Anwendungsfelder liegen fast ausschließlich im interdisziplinären Umfeld und fordern vom Ingenieurgeodäten daher in besonderem Maße auch Kenntnisse und Verständnis übergeordneter Prozesse der Nachbardisziplinen; genannt seien hier beispielhaft das Bauwesen, die Geowissenschaften oder der Maschinenbau. Die enge Kooperation mit den Nachbardisziplinen war schon immer Charakteristikum der Ingenieurgeodäsie, wie die früheren Definitionen zeigen, welche explizit Bezug auf die Anwendungsfelder nehmen (Tab. 1). Der Schwerpunkt lag dabei zunächst auf Anwendungen im Bauwesen; im Laufe der Zeit hat sich das Spektrum verbreitert. Erstmals wird die Definition von Brunner [3] nicht mehr nur aus den zu vermessenden Objekten heraus abgeleitet, und in DIN 18710-1 [9] wird die enge Verbindung zu anderen Disziplinen explizit und allgemein hergestellt. Technologische Entwicklungen in der Sensor- oder Auswertetechnik hatten dagegen keinen direkten Einfluss auf die Begriffsentwicklung. Die aktuelle Definition (letzte Zeile in Tab. 1) liegt, ebenso wie die zugehörigen Publikation von Kuhlmann et al. [38], dem Kapitel Ingenieurgeodäsie in Kummer et al. [39] und damit auch dieser Einleitung zu Grunde.
1 Ingenieurgeodäsie – eine Einführung
3
Tab. 1 Definitionen der Ingenieurvermessung/Ingenieurgeodäsie in chronologischer Reihenfolge Quelle FIG (1971) [12]
Beschreibung „Technische Vermessungen, die im Zusammenhang mit der Projektierung, Ausführung, Abnahme und späteren Beobachtung von Bauwerken erforderlich sind.“ Rinner (1971) [57], „Demnach gehören zur Ingenieurgeodäsie alle jene Vermessungsarbeiten, Rinner (1978) [58] welche in Verbindung mit der technischen Planung, der Absteckung und der Überwachung von technischen Objekten durchzuführen sind.“ „. . . Sie [die Ingenieurgeodäsie] ist die praktische Nutzanwendung des Gesamtgebietes der Geodäsie unter den erschwerenden Umständen der turbulenten Praxis der Ausführung technischer Projekte.“ DIN 18709-2 „Ingenieurvermessungen befassen sich mit Vermessungen für Planung, (1986) [8] Baudurchführung, Abnahme und Überwachung von Objekten, z. B. Verkehrsbauwerken (Straßen, Eisenbahnen, Wasserstraßen), Maschinenanlagen.“ DIN 18709-1 „Vermessungen im Zusammenhang mit der Projektierung, Ausführung, (1995) [7], FIG Abnahme und Überwachung von Bauwerken oder anderen Objekten (1997) [13] (siehe DIN 18709-2).“ Brunner (2007) [3] „Engineering geodesy is the production of geodetic information necessary for the planning of technical projects, setting out of the project design, control of the correct construction, and monitoring of deformations.“ DIN 18710-1 „Vermessung im Zusammenhang mit der Aufnahme, Projektierung, (2010) [9] Absteckung, Abnahme und Überwachung von Bauwerken oder anderen Objekten.“ Anmerkung: „Ingenieurvermessung – synonym für Ingenieurgeodäsie – bildet das Spektrum an Vermessungsarbeiten, die mit technischen Projekten anderer Disziplinen (z. B. Bauwesen) in Verbindung stehen.“ Kuhlmann et al. „Die Ingenieurgeodäsie ist die Disziplin von der Aufnahme, der (2013) [38] Absteckung und dem Monitoring lokaler und regionaler geometriebezogener Phänomene mit besonderer Berücksichtigung von Qualität, Sensorik und Bezugssystemen“
Als Bezeichnung für die Disziplin hat der Begriff „Ingenieurgeodäsie“ den früher gebräuchlicheren Begriff „Ingenieurvermessung“ ersetzt. Letzterer bezog sich häufig nur auf technische Vermessungen, wohingegen der Begriff Ingenieurgeodäsie weiter gefasst wird und den kompletten Methodenschatz zur Auswertung und Modellierung der Messgrößen sowie davon abgeleiteter Schätzgrößen mit umfasst.
2
Aufgaben der Ingenieurgeodäsie
2.1
Aufnahmevermessung
Bei der Aufnahme, Aufnahmevermessung oder – häufig ebenfalls synonym verwendeten – Bestandserfassung handelt es sich um die geometrische und semantische
4
A. Wieser et al.
Erfassung und Modellierung des Ist-Zustandes eines Objektes oder eines Gebietes, fallweise auch unter Hinzunahme weiterer raumbezogener Parameter. Gegenstand der Aufnahme kann beispielsweise ein einzelnes Bauwerk, eine Maschinenanlage, ein ganzer Stadtteil oder die abgerutschte Masse eines Hanges sein. Häufig sind Bestandserfassungen als topographische (Gelände-)Aufnahmen zu verstehen und dienen der Erstellung von Planungsunterlagen, die wiederum die Basis eines nachfolgenden Bau-, Fertigungs- oder Veränderungsprozesses bilden. Grundlage der Aufnahme sind Messungen, die früher überwiegend mit Tachymetern oder Nivellierinstrumenten durchgeführt und auf sorgfältig ausgewählte, repräsentative Einzelpunkte, eventuell auch Punkte in einem regelmäßigen Raster, bezogen wurden. In den letzten Jahren setzten sich auch die gleichfalls einzelpunktbasierten GNSS-gestützten Verfahren durch. Mit steigenden Anforderungen an die Informationsdichte, mit der allgemeinen Verfügbarkeit leistungsfähiger Computer und kostengünstiger Speicher sowie mit enormen Fortschritten in der instrumentellen Entwicklung reflektorloser elektronischer Distanzmessung haben sich Instrumentarium und Methodik der Aufnahme stark diversifiziert. Ein typisches aktuelles Beispiel ist die Erfassung von Fahrbahnoberflächen ganzer Straßenzüge und Straßennetze, die heute in der Regel mittels Multisensorsystemen durchgeführt wird, z. B. Gräfe [17]. Diese beinhalten neben den Sensoren zur Fahrbahn- und Umgebungserfassung meist separate Sensoren zur Positionsund Orientierungsbestimmung. In der Regel werden für die Aufnahme selbst dabei digitale Kameras und Laserscanner im kinematischen Modus eingesetzt (die dritte Dimension ergibt sich dann erst durch die Bewegung des Scanners mit der Trägerplattform). Neben straßengebundenen Fahrzeugen und Geländefahrzeugen sowie Flugzeugen, Helikoptern, Schiffen und Booten kommen inzwischen vermehrt auch (kleine bis kleinste) unbemannte Luftfahrzeuge als bewegte Trägerplattformen zum Einsatz, sog. Unmanned Aerial Vehicles (UAV) oder – synonym verwendet – Unmanned Aerial Systems (UAS) bzw. Micro Aerial Vehicles (MAV), Eisenbeiß [11]. Zunächst repräsentieren die Messwerte der Sensoren die abgetasteten Oberflächen in Form von verrauschten und durch Abschattungen häufig lückenhaften Punktwolken; im Rahmen der Datenaufbereitung müssen daraus Objekte detektiert und modelliert werden, was derzeit, je nach Aufgabenstellung und Qualitätsanforderungen (Genauigkeit, Vollständigkeit, etc.), noch mit hohem Aufwand und häufig auch interaktiver Bearbeitung verbunden ist. Ein Überblick über die technischen und methodischen Herausforderungen sowie den Stand der Technik bei mobilen Multisensorsystemen folgt in Kap. 4, „Mobile Multisensorsysteme“ in diesem Band. Laserscanning ist aber nicht nur eine wesentliche Komponente mobiler Multisensorsysteme, sondern stellt heute für viele kleinräumige Aufnahmevermessungen eine Standardmethode dar. Wesentliche Herausforderungen bestehen darin, die einzelnen Scans, die aus Gründen der Sichtbarkeit, der Aufnahmequalität und anderer Randbedingungen als 3D-Scans von mehreren Standpunkten aus gewonnen wurden, zu registrieren, d. h. nahtlos in ein gemeinsames Modell zusammenzuführen, sowie die Punkte in den teilweise enorm großen Punktwolken (mehrere 10–100 Mio. Punkte) hinsichtlich Semantik zu interpretieren. Bisher erfordern diese Schritte in der Regel noch aufwendige interaktive Bearbeitung. Die ingenieurgeodätische
1 Ingenieurgeodäsie – eine Einführung
5
Forschung beschäftigt sich zurzeit intensiv mit flächenhafter Abtastung durch Laserscanning ( Kap. 6, „Flächenhafte Abtastung mit Laserscanning“). Die Aufnahme umfasst auch die entsprechenden Schritte im Zusammenhang mit der Abnahme eines technischen Objektes, die zur Qualitätssicherung und Abrechnung nach der Erstellung eines Bauwerkes oder Durchführung anderer Maßnahmen erfolgt. Häufig dient die Erfassung des Ist-Zustandes hierbei dem Vergleich mit dem Soll-Zustand und wird nach Baufertigstellung durchgeführt; in diesem Zusammenhang wird sie häufig auch als Kontrollvermessung bezeichnet. In den letzten Jahren lassen sich Tendenzen feststellen, den Bestand auch während des Bauerstellungs-, Herstellungs- oder Veränderungsprozesses zu erfassen, um Zwischenschritte zu dokumentieren und zu bewerten. Häufig ist die Dokumentation in Echtzeit oder mit kurzer zeitlicher Verzögerung umzusetzen. Hierfür ist ein umfassendes, über die ingenieurgeodätischen Prozesse hinausgehendes, Prozessverständnis erforderlich. Man kann die Aufnahme in diesem Zusammenhang, und auch ganz allgemein, als wesentlichen Teil eines Monitorings ansehen [20, 46]. Darüber hinaus gewinnt die direkte Einbindung der Aufnahme und der daraus abgeleiteten Modelle im Rahmen des Building Information Modeling (BIM) rasant an Bedeutung, siehe Kap. 2, „Bauaufnahme, Gebäudeerfassung und BIM“ in diesem Band. Die Gesamtheit der Aufnahmevermessungen, deren aufgabenspezifische und qualitätsgesicherte Planung und Auswertung sowie die Entwicklung der erforderlichen Methoden und Instrumente sind wichtige Aufgabengebiete der Ingenieurgeodäsie und stellen eine ihrer Kernkompetenzen dar.
2.2
Absteckung
Die Absteckung ist als Übertragung vorgegebener geometrischer Größen aus einem Planungsmodell in die Örtlichkeit definiert. Dabei werden Soll-Maße wie Koordinaten oder Abstände mit Hilfe eines Regelkreises in die Realität übertragen (Soll-Koordinaten oder Soll-Abstände als Regelziel) und in der Örtlichkeit kenntlich gemacht. Die Absteckung ist Kernkompetenz und Alleinstellungsmerkmal der Ingenieurgeodäsie. Die Anwendungen der Absteckung haben unterschiedliche Anforderungen an die Genauigkeit und die Zuverlässigkeit. Vor allem letztere, also die Aufdeckbarkeit grober Fehler bzw. die Beschränkung ihrer Auswirkung ist bei der Absteckung von großer Bedeutung, da sie häufig als Echtzeitprozess unmittelbar einem Bauprozess vorangeht bzw. in diesen integriert ist. Damit sind Fehler bei der Absteckung nur mit hohem Kostenaufwand korrigierbar. Eine durchgreifende Kontrolle der abgesteckten Elemente ist daher zwingend notwendig. Die folgende Liste von beispielhaften Absteckungsaufgaben vermittelt einen Eindruck der unterschiedlichen Anforderungen in Bezug auf geometrische Qualität und Zeit: – Kennzeichnen der Ecken einer Baugrube für den Erdaushub, – Errichten von Schnurgerüsten zur Einhaltung der Abstände eines Gebäudes von der Grundstücksgrenze,
6
A. Wieser et al.
– Markieren einer Straßenachse für den Erdbau, – Einbringen der Asphaltschicht einer Straße unter Berücksichtigung von Sollhöhe und Ebenheit, – Steuern einer Tunnelbohrmaschine, – Einrichten des Gleiskörpers vor dem Betonieren der „Festen Fahrbahn“, – Ausrichten von Magneten in Beschleunigeranlagen der Hochenergiephysik. Als Beispiel für eine Echtzeitanforderung mit hoher Genauigkeit wird hier die Absteckung der „Festen Fahrbahn“ vorgestellt, Möhlenbrink [44]. Die geometrischen Anforderungen sind in Tab. 2 zusammengefasst. Die erforderliche Genauigkeit der äußeren Geometrie (Lage, Höhe) ergibt sich aus den einzuhaltenden Abständen zu Bahnsteigkanten, Fahrleitungen etc. Sie wird über einen Anschluss an ein trassennahes Festpunktfeld entsprechender Qualität realisiert. Die Anforderungen an die innere Geometrie (Längshöhe, Richtung) ergeben sich aus einem glatten Gleisverlauf und damit fahrdynamisch günstigen Verhältnissen. Bei allen Werten handelt es sich um zulässige Abmaße. Um daraus die Standardabweichung des Messverfahrens abzuleiten, sind diese Werte bzw. die daraus gewonnenen Toleranzen entsprechend umzurechnen (DIN 18710-1 [9]). Beispielsweise ergibt sich hier aus der Anforderung an die Genauigkeit der Längshöhe für Punkte im Abstand von 5 m eine maximal zulässige Standardabweichung des Messverfahrens von 0,5 mm. Das Messsystem besteht aus einem zielverfolgenden Tachymeter höchster Genauigkeit, dessen Position und Orientierung über ein spezielles Festpunktfeld bestimmt werden, sowie weiteren Sensoren. Damit die hohen Genauigkeitsanforderungen erfüllt werden, sind die einzurichtenden Gleise analog zum späteren Fahrbetrieb zu markieren. Dieses geschieht über einen Gleismesswagen dessen Reflektor vom Tachymeter eingemessen wird. Sensoren auf dem Wagen messen Querneigung und Spurweite. Die Messungen selbst sind heute in hohem Maße automatisiert; lediglich das Einrichten des Messsystems erfolgt in der Regel
Tab. 2 Genauigkeitsanforderungen (zulässige Abmaße) bei der Festen Fahrbahn [44] Messgröße Lage Höhe Spurweite Überhöhung Längshöhe
Richtung
Betrag der zulässigen Abweichung 10 mm bezogen auf die Solllage 10 mm bezogen auf die Sollhöhe 2 mm bezogen auf das Grundmaß der Spurweite (1,436 m) 2 mm bezogen auf die Sollüberhöhung Abweichung des Istpfeilhöhenunterschiedes zweier benachbarter Nachweispunkte vom Sollpfeilhöhenunterschied 2 mm für Punkte im Abstand von 5 m 10 mm für Punkte im Abstand von 150 m Abweichung des Istpfeilhöhenunterschiedes zweier benachbarter Nachweispunkte vom Sollpfeilhöhenunterschied 2 mm für Punkte im Abstand von 5 m 10 mm für Punkte im Abstand von 150 m
1 Ingenieurgeodäsie – eine Einführung
7
noch manuell. Mit den gemessenen Werten wird der Gleisrost (Verbindung von Schwellen und Schienen) in Lage und Höhe verändert, bis die Sollwerte erreicht sind. Unmittelbar danach wird der Beton vergossen, in dem die Schwellen liegen. Anschließend besteht keine Möglichkeit mehr, die Geometrie zu verändern. Die Ingenieurgeodäsie ist auch bei der Übertragung der Soll-Trasse eines Tunnels in die Örtlichkeit besonders gefordert: Hier ist sie für die Absteckung unter höchsten Anforderungen an Zuverlässigkeit und Genauigkeit zuständig, wobei der ingenieurgeodätische Prozess heute vollständig automatisiert und in den Bauprozess integriert ist [51, 71]. Die Tunnelbohrmaschine wird auf der Basis ingenieurgeodätischer Messungen gesteuert. Die vollständige Automatisierung ist erforderlich, um die notwendige Echtzeitintegration in den kontinuierlichen Bauprozess sicherzustellen. Der Anschluss an das obertägige Netz erfolgt dabei über den Startschacht oder das Tunnelportal, wobei die Sichtverhältnisse oftmals sehr beschränkt sind und sich dies negativ auf die Richtungsgenauigkeit auswirkt. Die Unsicherheit pflanzt sich dann im Tunnel ungünstig fort, da meist kein weiterer Anschluss gegeben ist und Seitenrefraktion die Richtungsmessung untertage stark beeinflussen kann. Häufig ist daher eine Stützung über Kreiselmessungen erforderlich. Die Maschinensteuerung Kap. 9, „Baumaschinensteuerung – der ingenieurgeodätische Beitrag“ kann im Sinne der Ingenieurnavigation als kinematische Verallgemeinerung der Absteckung betrachtet werden [45, 79]. Der oben angesprochene Regelkreis ist dann vollständig geschlossen und die Absteckung kommt somit ohne temporär vermarkte Hilfskonstruktionen, wie Pflöcke, Drähte oder Schnurgerüste aus. Im Verkehrswegebau und ganz allgemein im Tiefbau ist diese Form der kinematischen Absteckung bereits weit verbreitet [70]. Für den Hochbau wird sie noch erforscht. Bei der Errichtung schlanker, sehr hoher Bauwerke, wie etwa des Burj Chalifa in den Vereinigten Arabischen Emiraten, wurden GNSS-TachymeterKombinationen zur quasi-kinematischen Absteckung und Dokumentation im Bauprozess entwickelt und bereits erfolgreich eingesetzt [73]. Neben der, im Zuge der Absteckung zu korrigierenden, Bauabweichung aus den vorhergehenden Bauabschnitten verformt sich das schlanke Bauwerk aber auch durch die seitliche Sonneneinstrahlung und weitere reversible Belastungen. Dieser Anteil der Verformung darf natürlich nicht korrigiert werden und ist daher zunächst zu ermitteln, was eine Kombination von Messungen und Prognosen auf Basis eines Strukturmodells erfordert. Methodisch gesehen handelt es sich hier also bereits um eine Kombination aus einer Deformationsanalyse (Abschn. 2.3) und einer Absteckung. Sie ist bei schlanken, sehr hohen Türmen typisch, teilweise aber auch bei der Absteckung von Tunneln anzutreffen.
2.3
Monitoring/Überwachungsmessung
Allgemein versteht man in den Ingenieurwissenschaften unter Monitoring die Erfassung, Beobachtung oder Überwachung von natürlichen und künstlichen Systemen. Ein Monitoringsystem ermöglicht zum Teil auch Eingriffe in die betreffenden
8
A. Wieser et al.
Prozesse oder sogar deren Steuerung, sofern sich abzeichnet, dass der Prozess nicht den gewünschten Verlauf nimmt, also z. B. Bewegungen nicht innerhalb eines definierten Toleranzbereichs bleiben [51, 67]. Anwendungsfälle finden sich zum Beispiel beim Tunnelbau unterhalb von Talsperren (Beispiel in Kap. 17, „Tunnelvermessung“) oder bei der Untertunnelung von Städten, wie etwa beim City-Tunnel in Leipzig [72]. Durch den Tunnelbau kommt es an der Erdoberfläche zu Setzungen, wodurch Schäden an Gebäuden entstehen können. Ein Messsystem überwacht die Setzungen automatisiert. Häufig besteht das Messsystem aus einer Vielzahl von räumlich verteilten Sensoren, die zentral oder dezentral gesteuert werden, und deren Daten nach der automatisierten Auswertung über ein Webinterface den berechtigten Nutzern zur Verfügung stehen. Die Sensoren können dabei als Knoten in einem Geosensornetz aufgefasst werden ( Kap. 6, „Flächenhafte Abtastung mit Laserscanning“). Überschreiten die Setzungen vordefinierte kritische Werte, so wird üblicherweise eine abgestufte Alarmierungskette aktiviert, die ihrerseits zur Einleitung der erforderlichen Maßnahmen führt, etwa zur Stabilisierung oder Hebung durch Injektion von Verpressschächten aus. In der Ingenieurgeodäsie werden unter Überwachungsmessungen insbesondere die messtechnische Erfassung des geometrischen Ist-Zustandes eines Objektes und der Vergleich desselben mit den Ist-Zuständen der Vergangenheit verstanden. Ziel ist es dabei, Starrkörperbewegungen und Verformungen zu detektieren und diese in Relation zu den Ursachen der Deformationen zu analysieren, siehe Kap. 15, „Methoden und Modelle bei ingenieurgeodätischen Überwachungsmessungen“. In diesem Sinne sind Überwachungsmessungen als Teil des Monitorings zu sehen. Neben der Bestimmung des zeitlichen Verlaufs von Bewegungen und Deformationen werden Überwachungsmessungen auch zur Beweissicherung für den Schadensfall eingesetzt. Die Überwachung gilt entweder von Menschen errichteten Objekten – etwa Brücken, Dämmen, Stauanlagen, turmartigen Bauwerken, Tunneln, Maschinenanlagen oder Schleusen – oder natürlichen Prozessen, bei denen das Monitoring beispielsweise Aufschluss über Rutschungen, Felsstürze, Bodensenkungen, rezente Krustenbewegungen oder Gletscherflussgeschwindigkeiten geben soll. Geodätische Überwachungsmessungen eigenen sich auch besonders dafür, im Zuge des Monitorings die künstlichen Objekte gemeinsam mit ihrer natürlichen Umgebung zu überwachen und damit insbesondere auch Aufschluss über allfällige Wechselwirkungen zwischen beiden zu erhalten. Für die Überwachung natürlicher Phänomene, insbesondere der Veränderungen der Erdoberfläche und der Kryosphäre, hat sich auch in der Ingenieurgeodäsie der Begriff „Geomonitoring“ durchgesetzt. Hierfür sind speziell auf die Bedürfnisse des jeweiligen Monitorings abgestimmte Überwachungsnetze oder Messsysteme zu konzipieren. Dem Entwurf und der Realisierung liegt dabei eine Optimierung hinsichtlich Sensitivität gegenüber angenommenen bzw. kritischen Deformationen und Bewegungen sowie hinsichtlich geringer Fehlalarmrate, Robustheit und weiterer technischer und nicht-technischer Kriterien zugrunde. Für die Analyse eingetretener Veränderungen bedient sich die Ingenieurgeodäsie eines eigenständig entwickelten Spektrums an statistischen
1 Ingenieurgeodäsie – eine Einführung
9
Methoden, die es erlauben, Punktverschiebungen, Objektbewegungen sowie Verformungen unter Berücksichtigung der Unsicherheiten der Messungen und Modelle nachzuweisen [30, 55]. Zentral ist dabei die Betrachtung des Zusammenhangs zwischen den verursachenden Kräften auf der Eingangsseite, der Reaktion des Objektes auf diese Kräfte (Übertragungsverhalten) und den damit resultierenden Deformationen bzw. Bewegungen auf der Ausgangsseite. Ist diese kausale Kette verstanden, so kann die Prädiktion der Ausgangsseite allein aus der Erfassung der Eingangsseite erfolgen und das Objektverhalten in der (näheren) Zukunft vorhergesagt werden. Dies ist in vielen Fällen von Nutzen, wo durch diese Vorhersage Risiken reduziert werden können (z. B. im Zusammenhang mit einem Rutschhang, der eine Bahnlinie gefährdet) oder Mittel für Vorsorgemaßnahmen effektiv und effizient eingesetzt werden können (z. B. bei der Planung und bei Instandhaltungsarbeiten an Brücken oder anderen Bauwerken). Bei der mathematischen Beschreibung der kausalen Kette werden vier Fälle unterschieden, je nachdem, wie stark das Deformationsmodell als Ersatzdarstellung der Realität bezüglich der Zeitabhängigkeit und der Berücksichtigung der Eingangsseite vereinfacht wird. Dies führt dann zum Kongruenzmodell, zum kinematischen, statischen und dynamischen Modell. Die dynamische Modellierung bietet die weitreichendsten Interpretationsmöglichkeiten, ist aber auch mit dem höchsten Aufwand verbunden – insbesondere, wenn das Übertragungsverhalten noch nicht genau genug bekannt ist oder hinsichtlich Veränderungen analysiert werden soll, um strukturell relevante Veränderungen am Objekt zu detektieren und zu identifizieren. In diesen Fällen muss eine Systemidentifikation auf Basis von Messwerten aller relevanten Eingangs- und Ausgangsgrößen durchgeführt werden, was neben der Einbeziehung der Zeit die Kenntnis der Einflussgrößen, die die Veränderungen am überwachten Objekt hervorrufen, sowie eine mindestens ungefähre Kenntnis vom Übertragungsverhalten und damit dem dynamischen System erfordert. Zur Beschreibung des Modellverhaltens sind in der Ingenieurgeodäsie vielfältige parametrische und nicht-parametrische Ansätze entwickelt worden, siehe Kap. 15, „Methoden und Modelle bei ingenieurgeodätischen Überwachungsmessungen“. Die Deformationsanalyse selbst kann im dynamischen Modell nur interdisziplinär bearbeitet werden. Bauingenieur, Geologe, Geotechniker und Vertreter anderer Nachbardisziplinen bringen dabei die dynamische Modellvorstellung des Objekts, z. B. das Finite-Elemente-Modell einer Staumauer [18], ein. Die ingenieurgeodätische Kernkompetenz liegt in der Integration dieses Modells mit den Messungen [41] z. B. in einem Kalman-Filter [10,28]. Zur näheren Illustration des interdisziplinären Charakters wird hier auf das Monitoring von Rutschhängen verwiesen, das in Kap. 16, „Monitoring von Hangrutschungen“ näher behandelt wird, sowie auf das Monitoring von Brücken ( Kap. 14, „Schwingungsuntersuchungen“). Die zur Deformationsanalyse eingesetzten Methoden basieren heute im Wesentlichen auf der Beschreibung von Punkten, denen Messwerte, Koordinaten oder andere Größen zugeordnet werden. Zurzeit wird erforscht, wie sich diese Methoden auf die Objekterfassung durch bildgebende oder scannende Messverfahren übertragen lassen. Hierunter verstehen wir insbesondere terrestrisches Laserscanning, Airborne-Laserscanning, bodengebundene und satellitengestützte
10
A. Wieser et al.
Radarinterferometrie sowie bildgebende Messverfahren. Wesentliches Charakteristikum dieser Verfahren ist, dass bei der Betrachtung von zwei oder mehreren Objektzuständen keine unmittelbar identischen Objektpunkte mehr vorliegen. Damit sind die in einer Deformationsanalyse zu vergleichenden Objektteile in der Auswertung mit zu bestimmen, etwa durch die parametrische Darstellung von Oberflächenelementen [30].
3
Charakterisierung von Ingenieurvermessungen
3.1
Geometriebezogene Phänomene
In fast allen ingenieur- und naturwissenschaftlichen Disziplinen stellen Messungen eine wesentliche Grundlage für Problemlösung oder Erkenntnisgewinn dar. Meist geht es dabei um die Bestimmung physikalischer Größen ohne direkten Bezug zu Geometrie. Die Ingenieurgeodäsie dagegen konzentriert sich in erster Linie auf geometrische Fragestellungen wie die Bestimmung und Kontrolle von Koordinaten, Abständen, Winkeln und davon abgeleiteten Eigenschaften wie Höhenunterschieden, Geradheit, Krümmung oder Neigung. Gleichwohl kann es bei vielen Anwendungen für die Modellierung des Messprozesses oder des Objektverhaltens und damit für die Analyse der Messresultate durchaus erforderlich sein, weitere raumbezogene Parameter ebenfalls zu erfassen und zu modellieren, etwa atmosphärische Bedingungen entlang der Signalausbreitungswege, Oberflächentemperaturen oder Materialeigenschaften. Alle diese Parameter und ihre Variation mit der Zeit subsumieren wir unter dem Begriff „geometriebezogene Phänomene“. Die Änderung der Parameter mit der Zeit kann dabei sowohl das zu modellierende Objekt als auch das Messsystem selbst betreffen; letzteres etwa bei der kinematischen Aufnahme von Straßenzügen mittels Mobile-Mapping-Systemen, ersteres etwa beim Geomonitoring – und beides zum Beispiel bei der Steuerung von Baumaschinen bzw. der Absteckung von bewegten Plattformen aus [14]. In der Vergangenheit war die räumliche Diskretisierung eine grundlegende Methode der Ingenieurgeodäsie [3]. Auch heute gibt es Anwendungsfälle, bei denen von verteilten Einzelpunkten auf ein flächenhaftes Kontinuum geschlossen wird [80]. Inzwischen wird die punktorientierte Vorgehensweise jedoch häufig durch linien- und flächenhafte Mess- und Auswertemethoden ersetzt, wobei – ebenso wie bei den sog. zeit-kontinuierlichen Messverfahren – letztlich eine Abtastung mit vernachlässigbar kleinem Diskretisierungsintervall an die Stelle sorgfältig geplanter Einzelmessungen tritt und als „kontinuierliche“ Messung bezeichnet wird. Dabei spielt die prozessorientierte Herangehensweise eine wachsende Rolle. Die Prozesse, z. B. bei der Erstellung von Tunneln oder Brücken, werden beobachtet, und die Beobachtungsergebnisse dienen zum Teil der sequentiellen Verbesserung der Prozessmodelle, zum Teil aber auch der Steuerung der Prozesse [51].
1 Ingenieurgeodäsie – eine Einführung
3.2
11
Räumliche Skala: lokale und regionale Phänomene
Traditionell und auch noch heute beschäftigt sich die Ingenieurgeodäsie in hohem Maße mit geometriebezogenen Fragestellungen aus dem Bereich des Bauwesens, darüber hinaus auch aus dem Bereich des Maschinenbaus, der Geotechnik und weiterer Nachbardisziplinen. Die beobachteten und modellierten Phänomene haben daher vielfach einen, im Sinne der Geodäsie (als Wissenschaft von der „Ausmessung und Abbildung der Erdoberfläche“ nach F. R. Helmert, [23]), lokalen Charakter, erreichen aber durchaus auch regionale Ausdehnung. Beispielhafte Skalenbereiche und Anwendungsfelder sind nachfolgend aufgeführt [53]. Der kleinste Skalenbereich umfasst etwa Ausdehnungen von 1 cm bis zu 10 m. Höchste Genauigkeit ist zur Überprüfung der Qualität im Maschinenbau [24, 27] und bei Teilchenbeschleunigern erforderlich. Die Anforderungen können hier bis in den Bereich weniger Zehner-m gehen. In der Folge werden für diesen Skalenbereich häufig hochpräzise Instrumente, wie Lasertracker oder Koordinatenmessmaschinen, eingesetzt. Eine völlig andere Anwendung in einem ähnlichen Skalenbereich ist die Erfassung von geometrischen Parametern von Nutzpflanzen [54], etwa mit Messarm und Triangulationslaserscanner. Beide Anwendungen zeigen die Interdisziplinarität der Ingenieurgeodäsie auf: im ersten Fall mit dem Maschinenbau, im zweiten mit der Agrarwissenschaft. Es zeigt sich gerade in diesem Skalenbereich, dass die Anwendungen der Ingenieurgeodäsie über das Bauingenieurwesen hinausgehen. Methoden und Anwendungsbeispiele für diesen Skalenbereich finden sich in Kap. 6, „Flächenhafte Abtastung mit Laserscanning“, Kap. 10, „Messverfahren im Maschinenbau“ und Kap. 11, „Messmittel der Large Volume Metrology (LVM)“. Der nächste Skalenbereich ist derjenige von 10 m bis etwa 1 km. Typische Anwendungen in diesem Bereich sind die Absteckung eines Einfamilienhauses oder die Überwachung einer Brücke [37, 59]. Neben dem Einsatz klassischer geodätischer Instrumente wie Tachymeter und Nivellier hat sich bei Brücken mit größeren Bewegungsraten auch das Monitoring mittels GNSS und weiteren Sensoren wie Neigungs- und Beschleunigungsmessern durchgesetzt, siehe Kap. 14, „Schwingungsuntersuchungen“, wobei sowohl der Detektion von kritischen Bewegungen und Verformungen als auch der Bestimmung von Frequenzen und Frequenzänderungen große Bedeutung zukommt (z. B. [64]). Der Skalenbereich von 1 bis 100 km führt hin zur Einrichtung von Sonderund Überwachungsnetzen für große Bauprojekte (z. B. [34, 76]) und zur Steuerung von Tunnelvortrieben ( Kap. 17, „Tunnelvermessung“), wobei im Zusammenhang mit letzteren für die Grundlagennetze Genauigkeiten im mm-Bereich selbst über Entfernungen von mehreren Zehner-km eingehalten werden müssen. Für den Skalenbereich größer 100 km kann als ein Anwendungsbereich die Aufnahme von Verkehrswegen durch mobile Multisensorsysteme [17] genannt werden. Ein weiteres Beispiel ist die Erfassung postglazialer oder tektonischer Bewegungen (z. B. [1]).
12
A. Wieser et al.
Die Abgrenzung der räumlichen Skala und die Abgrenzung zu geometriebezogenen Aufgabenstellungen in benachbarten Disziplinen, wie etwa der Landesvermessung und der Erdmessung am oberen Ende des Skalenbereichs oder der Geotechnik und dem Maschinenbau am unteren, ist nicht scharf möglich. Die Bestimmung tektonischer Bewegungen in lokalen oder regionalen Bereichen, wie etwa an der San-Andreas-Verwerfung, gehört zum Aufgabenbereich der Ingenieurgeodäsie, dagegen ist die Bestimmung (momentaner) globaler Geschwindigkeitsvektoren aufgrund plattentektonischer Bewegungen in der Regel der Erdmessung oder physikalischen Geodäsie zuzuordnen, wenngleich in beiden Fällen dieselben Methoden zur Datenanalyse und kinematischen Modellierung zum Einsatz kommen. Eine Kernkompetenz der Geodäsie und insbesondere der Ingenieurgeodäsie – und eine Abgrenzung zu benachbarten Disziplinen – liegt darin, geometriebezogene Problemstellungen, die sich über mehrere der oben angeführten Skalenbereiche erstrecken, in einem einheitlichen Referenzsystem zu bearbeiten.
3.3
Qualitätsbeurteilung und Qualitätssicherung
Die Ingenieurgeodäsie hat seit ihrer Entstehung besonderes Augenmerk auf die Definition, Planung und Sicherung der Qualität ihrer Messungen und ihrer Auswerteergebnisse gelegt. Nur dadurch ist es möglich, die wechselnden Anforderungen aus der jeweiligen Applikation unter den ökonomischen Zwängen der Praxis zu erfüllen und gleichzeitig das Risiko für das Auftreten folgenschwerer Fehler zu beschränken. Lange Zeit hat man sich dabei vor allem auf die Genauigkeit als Qualitätsmerkmal konzentriert ( Kap. 12, „Qualitätsbewertungen in der Ingenieurgeodäsie“). Die Erforschung der Modellierung, Fortpflanzung und Reduktion zufälliger Abweichungen und ihre Quantifizierung mit statistischen Präzisionsmaßen wie Standardabweichung, Konfidenzellipsen oder skalaren Funktionen der Kovarianzmatrix (z. B. der Determinante) in linearen und nicht-linearen Auswertemodellen sind zweifelsohne Kernkompetenzen der Ingenieurgeodäsie. Dies gilt ebenso für die bereits früh adaptierte Beurteilung der Zuverlässigkeit im Sinne der möglichst umfassenden Aufdeckbarkeit von Modellfehlern und der möglichst geringen Auswirkung allenfalls nicht aufgedeckter Modellfehler. Die Kenntnis der Messinstrumente und Messprozesse mit allen relevanten Einflussgrößen sowie die redundante Erfassung von Messgrößen unter Nutzung unterschiedlicher physikalischer Prinzipien sind wesentliche Grundlagen für die Beurteilung der Präzision und der Zuverlässigkeit. Systematische Einflüsse konnten durch Kalibrierung oder entsprechende Wahl von Messanordnung oder Auswerteverfahren eliminiert oder wenigstens so weit reduziert werden, dass die verbleibenden systematischen Abweichungen gegenüber den statistisch beschriebenen zufälligen Abweichungen vernachlässigbar waren. Auch schien es möglich, befürchtete Systematiken durch entsprechende Maßnahmen im Zuge der Messung und Auswertung zu randomisieren [62]. Inzwischen ist es in vielen Fällen gelungen, die zufälligen Abweichungen mess- und auswerte-
1 Ingenieurgeodäsie – eine Einführung
13
technisch deutlich zu reduzieren. Die verbleibenden systematischen Abweichungen sind damit häufig nicht mehr vernachlässigbar. Ein vertieftes Verständnis der Messprozesse sowie der physikalischen Sensormodelle hat auch zu der Erkenntnis geführt, dass die Randomisierung nicht durchgängig gelingt [40] bzw. zu Korrelationen [36] und Auto-Korrelationen führt, was zwangsläufig bedeutete, dass die Ingenieurgeodäsie auch den Methodenschatz der stochastischen Prozesse adaptieren musste [43]. Die Modellierung und Fortpflanzung der Genauigkeit musste daher um die systematischen Anteile erweitert werden. Man spricht heute allgemeiner von Unsicherheitsmodellierung [40, 47] und berücksichtigt auch in der Ingenieurgeodäsie verstärkt den „Guide to the Expression of Uncertainty in Measurement (GUM)“ [21, 31, 52] bei der Einschätzung des gesamten Genauigkeits- bzw. Unsicherheitsbudgets von Messsystemen. Bekannte systematische Messabweichungen sind dabei zu korrigieren. Unbekannte systematische Abweichungen müssen durch dokumentierte (Verteilungs-)Annahmen der Quantifizierung zugänglich gemacht werden. Aus diesen Annahmen werden – häufig mit Hilfe von Monte-Carlo-Simulationen – die Messunsicherheiten vom „Typ B“ berechnet, welche gemeinsam mit jenen vom „Typ A“ (empirisch aus Stichproben abgeleitet) zur Ableitung der kombinierten Standardunsicherheit und bei Bedarf der erweiterten Messunsicherheit herangezogen werden. Die Ingenieurgeodäsie wird von Außenstehenden nicht selten über die Fähigkeit und den angeblichen Hang zu besonders hoher Messgenauigkeit definiert. Tatsächlich misst der Ingenieurgeodät jedoch so genau wie nötig und nicht so genau wie möglich. Gerade dieser Effizienzgedanke bei der Ableitung und Umsetzung der Qualitätsanforderungen aus dem übergeordneten Prozess ist eine der Kernkompetenzen der Ingenieurgeodäsie. Gleichwohl zeichnet sich die Ingenieurgeodäsie im Kanon der geodätischen Disziplinen unter anderem auch dadurch aus, dass sie bei Bedarf Messungen sehr hoher Genauigkeit im lokalen Bereich erreichen kann, zum Beispiel, um eine Strecke von 1 km Länge mittels besonderer Messverfahren, deterministischer und stochastischer Modellierung aller relevanten Einflüsse mit einer Genauigkeit von besser als 0,1 mm zu bestimmen [29], oder Komponenten eines Teilchenbeschleunigers mit eigenständig entwickelten Instrumenten und Verfahren relativ zueinander mit Genauigkeiten von wenigen m auszurichten. Die Ingenieurgeodäsie hat die Reduktion des Begriffs Qualität auf das Merkmal Genauigkeit bereits früh aufgegeben und einen umfangreichen Methodenschatz aufgebaut, um etwa geodätische Netze durch ein umfassendes Qualitätsmodell zu beurteilen, welches auch Parameter wie Sensitivität und Trennbarkeit umfasst, Grafarend et al. [16], Niemeier [49, 50] und Li [42]. Zurzeit wird in interdisziplinärer Zusammenarbeit ein umfassendes Qualitätsmodell für Anwendungen im Bauwesen mit entsprechenden Methoden zur Fortpflanzung der Qualitätsparameter entwickelt [66]. Dabei werden die Qualitätsmerkmale Genauigkeit, Korrektheit, Vollständigkeit, Zuverlässigkeit und Pünktlichkeit aufgeführt und durch Parameter weiter konkretisiert (Tab. 3). Wegen der typischen Kombination aus hohen technischen Anforderungen einerseits, ökonomischen, zeitlichen und örtlichen Zwängen sowie widriger Arbeits-
14
A. Wieser et al.
Tab. 3 Qualitätsparameter und -merkmale für ingenieurgeodätische Prozesse (nach Schweitzer und Schwieger [66]) Merkmal Genauigkeit (Präzision) Korrektheit Vollständigkeit
Zuverlässigkeit
Pünktlichkeit
Parameter Standardabweichung Toleranzkorrektheit Topologische Korrektheit Anzahl fehlender/überflüssiger Elemente Übereinstimmung mit dem Plan Bedingungsdichte Minimal aufdeckbarer Fehler Auswirkung eines minimal aufdeckbaren Fehlers auf die Parameter Störanfälligkeit Zeitverzug
und Umgebungsbedingungen andererseits kommt der Überprüfung der Einhaltung von Qualitätsparametern in der Ingenieurgeodäsie eine immense Rolle zu. Diese Kontrolle muss häufig vor Ort und möglichst schon während der zu kontrollierenden Messungen erfolgen, sodass die Qualitätsprüfung nahtlos in den Mess-, Auswerteund Bauprozess integriert werden muss [46, 67].
3.4
Sensorik und geodätische Messtechnik
Die Ingenieurgeodäsie ist eine messende Wissenschaft. Ohne die messtechnische Erfassung würde sie ihre Relevanz für Gesellschaft und Wissenschaft verlieren. Die reine messtechnische Erfassung steht dabei jedoch nicht im Zentrum, sondern die deterministische und stochastische Modellierung des Messprozesses, die Kenntnis des physikalischen Sensormodells, die Erfassung und Modellierung der Umgebungsbedingungen und aller sonstigen relevanten Einflussgrößen sowie die (indirekte) Bestimmung der Zielgrößen und ihrer Qualitätsparameter aus den rohen Messwerten. Die Datenauswertung unter Kenntnis des Systemmodells mündete häufig in eine Ausgleichung nach der Methode der kleinsten Quadrate im linearisierten Gauß-Markov- oder Gauß-Helmert-Modell. Inzwischen wurde diese methodische Basis der Parameterschätzung zunehmend durch robuste Schätzer [5,75] und Bayes-Schätzer [35,48] sowie stochastische Verfahren wie Monte-CarloVerfahren (z. B. [65]) oder heuristische Methoden wie Genetische Algorithmen (z. B. [56]) erweitert. Entsprechend der Breite an Anwendungsfeldern und Anforderungen, mit denen die Ingenieurgeodäsie konfrontiert ist, greift sie auf eine umfangreiche Basis an Messinstrumenten und Sensoren zurück. Totalstation, GNSS-Empfangssysteme, Nivelliere und terrestrische Laserscanner sind die am häufigsten eingesetzten Standardinstrumente. Photogrammetrische Systeme, Inertialmesseinheiten, optische Lote, Schlauchwaagen, Vermessungskreisel und Lasertracker sind weitere,
1 Ingenieurgeodäsie – eine Einführung
15
in der Ingenieurgeodäsie typischerweise eingesetzte Messinstrumente, zunehmend auch terrestrische Mikrowelleninterferometer mit realer oder synthetischer Apertur. Darüber hinaus greifen Ingenieurgeodäten, insbesondere im Zusammenhang mit Monitoringaufgaben, auf einen Fundus an Sensoren zurück, wie etwa Neigungssensoren, Extensometer, Positionsdetektoren oder faseroptische Dehnungs- und Temperatursensoren. Im Zusammenhang mit der Kalibrierung von Sensoren werden Laserinterferometer, Kollimatoren und weitere Spezialinstrumente benötigt. Einen guten Überblick über die etablierten Instrumente und Sensoren geben Deumlich und Staiger [6], Schlemmer [61] und Schwarz [63]; Information zu den neueren Instrumenten und Sensoren findet man z. B. bei Rödelsperger [60], Habel und Brunner [19] und Juretzko et al. [32]. Um die Anforderungen aus übergeordneten Prozessen einzuhalten, muss der Ingenieurgeodät optimale Messanordnungen und -konzepte entwickeln sowie die qualitätsgesicherte Auswertung der Messergebnisse gewährleisten. Aus diesen Anforderungen kann sich auch die Notwendigkeit der zeitlichen und räumlichen Integration mehrerer Sensoren oder Instrumente in einem Multisensorsystem ergeben. Diese Multisensorsysteme können an einem Ort als redundante oder sich ergänzende Systeme integriert sein oder als Sensornetze räumlich verteilt aufgebaut sein ( Kap. 5, „Geosensornetze“). Die Konzipierung, Entwicklung und Kalibrierung solcher Systeme inklusive ihrer Komponenten ist für das Berufsbild und die Forschungsaktivitäten der Ingenieurgeodäsie gleichermaßen von zentraler Bedeutung. Dabei nimmt die Kalibrierung ( Kap. 13, „Überprüfung und Kalibrierung der Messmittel in der Geodäsie“) eine besondere Rolle ein [25]. Zum einen ist sie Voraussetzung für das Vordringen in extreme Genauigkeitsbereiche, wie sich am Beispiel von GNSS-Messungen mit Sub-Millimeter-Standardabweichungen zeigen lässt [81]. Zum anderen wird sie zunehmend herausfordernder, da die Messsysteme komplexer werden und der Anwender sie nur noch als Black-Box auffassen kann. Vor diesem Hintergrund löst die Systemkalibrierung die Komponentenkalibrierung in zunehmenden Maße ab [4, 15, 22, 26]. In Einzelfälle entwickelt der Ingenieurgeodät auch neue Sensoren für spezielle Fragestellungen.
3.5
Bezugssysteme
Die Verortung, Orientierung und Verknüpfung der durchgeführten Messungen mit Hilfe der Festlegung des geodätischen Datums – und besonders die weiterführende Analyse auf Basis von Koordinaten – machen die Einführung eines geeigneten Bezugssystems notwendig, wobei zwischen Beobachtungsraum und Koordinatenraum zu unterscheiden ist [3]. Traditionell arbeiten die Ingenieurgeodäten zunächst im Beobachtungsraum, in dem sie beispielsweise Strecken, Winkel und Richtungen messen. Das Bezugssystem wird dann im Koordinatenraum definiert, und Koordinaten werden durch Ausgleichung geodätischer Netze geschätzt. Häufig werden diese Netze auch nach außen mittels Vermarkungen sichtbar gemacht. Zur Absteckung werden dagegen
16
A. Wieser et al.
aus vorgegebene Koordinaten, die meist einem geodätischen Netz oder Planungsunterlagen entnommen sind, Beobachtungsgrößen wie Strecken und Winkel abgeleitet, um die Planungen in die Realität umzusetzen. Nur für Objektvolumina von wenigen Kubikmetern kann das Koordinatensystem – beispielsweise durch Koordinatenmessmaschinen – direkt mechanisch realisiert werden, und die Unterscheidung zwischen Koordinaten- und Beobachtungsraum entfällt, da die Koordinaten als Beobachtungen aufzufassen sind. Bei größeren Dimensionen wird das Bezugssystem durch vermarkte Punkte (Bezugsrahmen) indirekt realisiert. Die Notwendigkeit, derartige Bezugsrahmen zu schaffen, geometrische Beziehungen durch Anbindung an diesen Bezugsrahmen abzuleiten und darzustellen und dabei grundlegende physikalische Einflüsse zu berücksichtigen – wie etwa Lotabweichungs- und Geoidvariationen im Zuge der Absteckung eines Tunnels oder Teilchenbeschleunigers [2] – ist ein wesentlicher Grund, weshalb die Bearbeitung der bereits angeführten geometriebezogenen Fragestellungen nicht nur eine Kernkompetenz, sondern auch weitgehend ein Alleinstellungsmerkmal der Ingenieurgeodäsie geblieben ist. Bei ingenieurgeodätischen Anwendungen kommt häufig als Herausforderung hinzu, dass das Bezugssystem nicht starr und unveränderlich ist. Vielmehr ändert es sich durch Bewegungen der vermarkten Punkte oder des äußeren Referenzrahmens während der Projektlaufzeit in nicht vernachlässigbarem Ausmaß ( Kap. 17, „Tunnelvermessung“). In tektonisch aktiven Gebieten ist es daher notwendig, den Referenzrahmen mit der Zeit zu koppeln, so dass für jeden gewählten Zeitpunkt ein Referenzrahmen zur Verfügung gestellt wird. Entwicklungen hierzu werden unter anderem von Stanaway et al. [69], unter Nutzung lokaler kinematischer Referenzpatches vorangetrieben. Sie tragen den tatsächlichen Koordinatenveränderungen auch im Katasternachweis und für Ingenieurprojekte Rechnung. Aufgrund dieser Instabilität des Referenzrahmens sowie der Erfassung und Modellierung sich bewegender Objekte oder Messsysteme und der zunehmenden Kombination und Integration verschiedener Sensoren zu Multisensorsystemen gewinnt die Zeit als vierte Dimension an Bedeutung. Man benötigt einen wohldefinierten und stabilen Referenzrahmen zur Modellierung zeitlicher Verläufe und zur Synchronisation der unterschiedlichen Sensoren [14].
3.6
Messungsplanung
Wesentlicher Bestandteil aller ingenieurgeodätischen Vermessungen ist eine sorgfältige Planung der Messkonfiguration. Bei einfacheren Messaufgaben sind dabei nur die Anzahl der Messstandpunkte und deren optimale gegenseitige Anordnung festzulegen. Beispielsweise wird für den klassischen Vorwärtsschnitt ein möglichst günstiger Schnittwinkel angestrebt, für einen Polygonzug die Anzahl an Polygonpunkten möglichst gering gehalten und bei einer Turmhöhenüberwachung ein minimaler Zenitwinkel nicht unterschritten. Viele dieser Planungskriterien haben Eingang in die Grundlagenbücher der Vermessungskunde und der Ingenieurgeodäsie gefunden (z. B. [33, 78]).
1 Ingenieurgeodäsie – eine Einführung
17
Für alle ingenieurgeodätischen Messungen sind vorab außerdem im Zuge der Planung detaillierte Überlegungen hinsichtlich einzusetzendem Instrumentarium, Messkonfiguration, Datenerfassung und Datenauswertung anzustellen. Diese Überlegungen basieren in der Regel auf Simulationsrechnungen, die die Qualität der zu erwartenden Resultate der späteren Messungen prädizieren. Besonders deutlich zeigt sich dieses beim Monitoring, da hier Veränderungen beobachtet werden, die in Relation zur Messgenauigkeit einzelner Messungen durchaus klein sein können und darüber hinaus in Abhängigkeit von der Zeit ablaufen. Um sie zuverlässig aufzudecken, ist eine Vielzahl an Randbedingungen zu berücksichtigen, insbesondere die Ausdehnung des von den Deformationen beeinflussten Bereichs sowie Ursachen, Betrag, Richtung und zeitlicher Verlauf der erwarteten Deformationen. Daraus können Werte für den Messbereich, die erforderliche Messgenauigkeit sowie die räumliche und zeitliche Diskretisierung abgeleitet werden. Am Ende dieser Vorüberlegungen steht neben der geometrischen Ausgestaltung die Auswahl des Messinstrumentariums, das die Anforderungen erfüllen kann. Besondere Bedeutung gewinnt diese Planung bei der Anlage von geodätischen Netzen, da diese vermarkt und auf Dauer angelegt werden. Sie sind häufig Grundlage sowohl für die Aufnahme als auch für Absteckung und Überwachung. Die festgelegte Netzkonfiguration und das zugehörige stochastische Modell, definiert durch das gewählte Instrumentarium und die Messprozedur, beeinflussen die Genauigkeit und Zuverlässigkeit der Ergebnisse. Nutzt man diese Qualitätsmerkmale als Zielgrößen, so kann die Netzkonfiguration auf Grundlage der bereits erwähnten Simulationsrechnungen (a-priori Netzausgleichungen) optimiert werden [16, 55]. Von besonderer Bedeutung ist dieses für die Anlage von Überwachungsnetzen. Hier ist nicht, wie für Mehrzwecknetze üblich, hinsichtlich eines oder mehrerer Qualitätsparameter zu optimieren, sondern sehr spezifisch hinsichtlich der Aufdeckbarkeit zu erwartender Bewegungen und Deformationen. Dieses gelingt mit Methoden der Sensitivitätsanalyse [68, 77]. Neben der Planung der Geometrie und der Auswahl der Instrumente und Messverfahren ist auch der Ablauf der Messungen sorgfältig zu planen. Die korrekte Reihenfolge der Arbeitsschritte unterstützt zum einen das Erzielen optimaler Ergebnisse hinsichtlich Genauigkeit und Zuverlässigkeit, zum anderen ist sie aber auch Voraussetzung für Effizienz hinsichtlich Zeit und Kosten. Je nach Umfang der Messaufgabe können bei vorgegebener Netzplanung durch Optimierung des Messablaufs unter Umständen erhebliche Zeitvorteile erzielt werden [74].
4
Ausblick
Die Methoden, Prozesse und Charakteristika, welche die Arbeit des Ingenieurgeodäten in Praxis und Wissenschaft heute kennzeichnen, wurden in diesem Kapitel umrissen. Sie werden in den folgenden Kapiteln schlaglichtartig weiter vertieft. Zusammenfassend soll hier nochmals hervorgehoben werden, dass als schöpferische Leistung die Entwicklung der Messkonzepte und Messanordnungen – und zwar
18
A. Wieser et al.
sowohl theoretisch-methodisch als auch durch numerische Simulation und Optimierung – zu den Kernaufgaben der Ingenieurgeodäsie gehören. Im Hinblick auf aktuelle Entwicklungen sind vor allem drei Trends zu erkennen. Erstens findet ein Übergang von kontrollierter, räumlicher Diskretisierung zu quasiflächenhaften Ansätzen statt. Das Objekt wird für Aufnahme und Überwachung häufig nicht mehr durch wenige, sorgfältig ausgewählte, wohl definierte und signalisierte Einzelpunkte repräsentiert, sondern mit einer Punktwolke überzogen, die vornehmlich mit Laserscannern oder aus den Aufnahmen digitaler Kameras erzeugt wird. Die relevanten Objektinformationen werden dann nicht direkt bei der Messung, sondern erst anschließend in der Auswertung extrahiert. Zweitens kommen vermehrt Aufnahmesysteme zum Einsatz, die sich kinematisch entlang des zu vermessenden Objektes bewegen. Dies gilt inzwischen vielfach auch bei der Absteckung, wenn die zu erstellende Geometrie unmittelbar, ohne vermarkte Zwischenpunkte, durch eine gesteuerte Maschine in die Örtlichkeit übertragen wird. Drittens ist die Ingenieurgeodäsie generell zunehmend nahtlos in Bau-, Produktionsund Überwachungsprozesse integriert, wobei Messung, Analyse und Interpretation – inklusive durchgreifender Qualitätskontrolle – in Echtzeit erfolgen müssen. Insofern sind auch in der Zukunft weiterhin innovative und richtungsgebende Entwicklungen zu erwarten, die das Bild dieser Disziplin prägen und verändern werden.
Literatur 1. Adler, R., Pelzer, H., Foppe, K., Melzer, Y.: Geodetic monitoring of recent crustal activity along the dead sea jordan rift. In: Perelmuter Workshop on Dynamic Deformation Models, Workshop Proceedings, 29.8.–1.9., Haifa, S. 56–68 (1994) 2. Albert, J., Schwarz, W.: Messtechnische Entwicklungen für die Zukunftsprojekte „Linearbeschleuniger“. In: Ingensand, H. (Hrsg.) Ingenieurvermessung 2004, ETH Zürich, Zürich, S. 39–50 (2004) 3. Brunner, F.K.: On the methodology of engineering geodesy. J. Appl. Geod. 1, 57–62 (2007) 4. Brunner, F.K., Woschitz, H.: Kalibrierung von Messsystemen: Grundlagen und Beispiele. In: Heister, H., Staiger, R. (Hrsg.) Qualitätsmanagement in der Geodätischen Messtechnik, Konrad Wittwer Verlag, DVW Schriftenreihe (42), S. 70–90 (2001) 5. Caspary, W.: Fehlertolerante Auswertung von Messdaten: Daten- und Modellanalyse, robuste Schätzung. Oldenbourg Wissenschaftsverlag, 313 S. (2013) 6. Deumlich, F., Staiger, R.: Instrumentenkunde der Vermessungstechnik, 9. Aufl. Herbert Wichmann Verlag, 435 S. (2001) 7. DIN 18709-1: Deutsche Norm: Begriffe, Kurzzeichen und Formelzeichen im Vermessungswesen – Teil 1: Allgemeines. Beuth Verlag, Berlin (1995) 8. DIN 18709-2: Deutsche Norm: Begriffe, Kurzzeichen und Formelzeichen im Vermessungswesen – Teil 2: Ingenieurvermessung. Beuth Verlag, Berlin (1986) 9. DIN 18710-1: Deutsche Norm: Ingenieurvermessung – Teil 1: Allgemeine Anforderungen. Beuth Verlag, Berlin (2010) 10. Eichhorn, A.: Ein Beitrag zur Identifikation von dynamischen Strukturmodellen mit Methoden der adaptiven Kalman-Filterung. Deutsche Geodätische Kommission, Reihe C, Heft 585 (2005) 11. Eisenbeiß, H.: UAV photogrammetry. Dissertation, ETH Zürich, 203 S. (2009) 12. FIG: FIG-Fachwörterbuch – Ingenieurvermessung. Verlag des Instituts für Angewandte Geodäsie, Heft 10, Frankfurt (1971)
1 Ingenieurgeodäsie – eine Einführung
19
13. FIG: FIG-Fachwörterbuch – Ingenieurvermessung. Bundesamt für Kartographie und Geodäsie, Bd. 10, Frankfurt (1997) 14. Foppe, K., Schwieger, V., Staiger, R.: Grundlagen kinematischer Mess- und Auswertetechniken. In: Schwieger, V., Foppe, K. (Hrsg.) Kinematische Messmethoden – „Vermessung in Bewegung“. Beiträge zum 58. DVW-Seminar, Schriftenreihe des DVW, Bd. 45, S. 3–18. Wißner Verlag, Augsburg (2004) 15. Fuhlbrügge, H.-J.: Untersuchungen zur Prüfung von GPS-Echtzeitsystemen als Beitrag zur Qualitätssicherung im Vermessungswesen. Mitteilungen aus den Geodätischen Instituten der Universität Bonn, Nr. 91, Bonn (2004) 16. Grafarend, E., Heister, H., Kelm, R, Kropff, H., Schaffrin, B.: Optimierung Geodätischer Messoperationen, S. 499. Herbert Wichmann Verlag, Karlsruhe (1979) 17. Gräfe, G.: Kinematische Anwendungen von Laserscannern im Straßenraum. Schriftenreihe des Instituts für Geodäsie der Universität der Bundeswehr München, 84 (2009) 18. Gülal, E.: Geodätische Überwachung einer Talsperre: eine Anwendung der KalmanFiltertechnik. Wissenschaftliche Arbeiten der Fachrichtung Vermessungswesen der Universität Hannover, Nr. 224 (1997) 19. Habel, W.R., Brunner, F.K.: Faseroptische Sensoren für den Einsatz im Monitoring: ein Überblick. Allgemeine Vermessungs-Nachrichten (AVN) (118), 204–211 (2011) 20. Heim, M.: Die zeitnahe Leistungsfeststellung von Baustellen – unter besonderer Berücksichtigung von Bildinformationssystemen. Technische Universität Darmstadt, Cuvillier Verlag, Göttingen (2002) 21. Heister, H.: Zur Angabe der Meßunsicheheit in der geodätischen Meßtechnik. In: Heister, H., Staiger, R. (Hrsg.) Qualitätsmangement in der geodätischen Meßtechnik. Beiträge zum 54. DVW-Seminar, Schriftenreihe des DVW, Bd. 42, S. 108–119 (2001) 22. Heister, H., Woschitz, H., Brunner, F.K.: Präzisionsnivellierlatten, Komponenten- oder Systemkalibrierung? Allgemeine Vermessungs-Nachrichten (AVN) (112), 233–238 (2005) 23. Helmert, F.R.: Die mathematischen und physikalischen Theorien der Höheren Geodäsie. Teubner, Leipzig (1880) 24. Hennes, M.: Freiformflächenerfassung mit Lasertrackern – eine ergonomische Softwarelösung zur Reflektoroffsetkorrektur. Allgemeine Vermessungs-Nachrichten (AVN) 116(5), 188–194 (2009) 25. Hennes, M.: Ausgewählte Initiativen zur Qualitätssicherung in der Messtechnik. In: Kutterer, H., Neuner, H. (Hrsg.) Qualitätsmanagement geodätischer Mess- und Auswerteverfahren, Beiträge zum 93. DVW-Seminar, Schriftenreihe des DVW, Bd. 61, S. 239–252. Wißner Verlag, Augsburg (2010) 26. Hennes, M., Ingensand, H.: Komponentenkalibrierung versus Systemkalibrierung. In: Schnädelbach, K., Schilcher, M. (Hrsg.) Ingenieurvermessung 2000, S. 166–177. Wittwer Verlag, Stuttgart (2000) 27. Hennes, M., Runge, P.: Chancen der Ingenieurgeodäsie im modernen Maschinenbau. Allgemeine Vermessungs-Nachrichten (AVN) 113(7), 242–250 (2006) 28. Heunecke, O.: Zur Identifikation und Verifikation von Deformationsprozessen mittels adaptiver Kalman-Filterung (Hannoversches Filter). Wissenschaftliche Arbeiten der Fachrichtung Vermessungswesen der Universität Hannover, Nr. 208 (1995) 29. Heunecke, O.: Auswertung des Ringversuchs auf der neuen Kalibrierbasis der UniBw München zur Bestimmung der Sollstrecken. Allgemeine Vermessungs-Nachrichten (AVN) (119), 380–385 (2012) 30. Heunecke, O., Kuhlmann, H., Eichhorn, A., Neuner, H., Welsch, W.: Auswertung geodätischer Überwachungsmessungen. Wichmann Verlag, Heidelberg (2013) 31. ISO: Guide to the Expression of Uncertainty in Measurement. International Organization for Standardization, Genève (1995) 32. Juretzko, M., Hennes, M., Schneider, M., Fleischer, J.: Überwachung der raumzeitlichen Bewegung eines Fertigungsroboters mit Hilfe eines Lasertrackers. Allgemeine VermessungsNachrichten (AVN) (115), 171–178 (2008) 33. Kahmen, H.: Angewandte Geodäsie Vermessungskunde, 20. Aufl. Verlag Walter de Gruyter, Berlin/New York (2006)
20
A. Wieser et al.
34. Kahmen, H., Wunderlich, T., Retscher, G., Kuhn, M., Plach, H., Teferle, F., Wieser, A.: Ein modulares Konzept zur Absteckung von Hochgeschwindigkeitstrassen. Zeitschrift für Vermessungswesen (ZfV) (123), S. 115–121 (1998) 35. Koch, K.R.: Introduction to Bayesian Statistics, 2. Aufl., 249 S. Springer, Berlin/New York (2007) 36. Koch, K.R., Kuhlmann, H., Schuh, W.D.: Approximating covariance matrices estimated in multivariate models by estimating auto- and cross-covariances. J. Geod. 84, 383–397 (2010) 37. Kuhlmann, H.: Ein Beitrag zur Überwachung von Brückenbauwerken mit kontinuierlich registrierten Messungen, Wissenschaftliche Arbeiten der Fachrichtung Vermessungswesen der Universität Hannover, Nr. 208 (1996) 38. Kuhlmann, H., Schwieger, V., Wieser, A., Niemeier, W.: Ingenieurgeodäsie – Definition, Kernkompetenzen und Alleinstellungsmerkmale. Zeitschrift für Geodäsie, Geoinformation und Landmanagement (ZfV), (138), S. 391–399 (2013) 39. Kummer, K., Kötter, T., Eichhorn, A. (Hrsg.) Das deutsche Vermessungs- und Geoinformationswesen 2015, S. 1244. Wichmann (2014) 40. Kutterer, H.: Zum Umgang mit Ungewissheit in der Geodäsie – Bausteine für eine neue Fehlertheorie. Deutsche Geodätische Kommission, Reihe C, 553 (2002) 41. Lienhart, W.: Analysis of Inhomogeneous Structural Monitoring Data. Shaker Verlag, Aachen (2007) 42. Li, D.: Trennbarkeit und Zuverlässigkeit bei zwei verschiedenen Alternativhypothesen im Gauß-Markov-Modell. Zeitschrift für Vermessungswesen (ZfV) (112), S. 555–563 (1987) 43. Li, L., Kuhlmann, H.: Deformation detection in the GPS real-time series by the multiple Kalman filter model. J. Surv. Eng. 136, 157–164 (2010) 44. Möhlenbrink, W., Kuhlmann, H., Dünisch, M.: Vermessung ,Feste Fahrbahn‘, Verfahren für die Vermessung der Bauart „Feste Fahrbahn“. Eisenbahn-Ingenieur-Kalender 2002. TetzlaffVerlag, Hamburg (2002) 45. Möhlenbrink, W., Kuhlmann, H., Dünisch, M.: Prozessintegrierte kinematische Absteckung am Beispiel „Feste Fahrbahn“. In: Schwieger, V., Foppe, K. (Hrsg.) Kinematische Messmethoden – „Vermessung in Bewegung“. Beiträge zum 58. DVW-Seminar, Schriftenreihe des DVW, Bd. 45, S. 265–282. Wißner Verlag, Augsburg (2004) 46. Möhlenbrink, W., Schwieger, V.: Zur Prozessintegration der geodätischen Messtechnik. Allgemeine Vermessungs-Nachrichten (AVN) 114(11–12), 403–410 (2007) 47. Neumann, I.: Zur Modellierung eines erweiterten Unsicherheitshaushaltes in Parameterschätzung und Hypothesentests. Deutsche Geodätische Kommission, Reihe C, 634 (2009) 48. Niedermayr, S., Wieser, A.: Combination of feature-based and geometric methods for positioning. In: Proceedings of 3rd International Conference on Machine Control and Guidance, Stuttgart, S. 301–310 (2012) 49. Niemeier, W.: Netzqualität und Optimierung. In: Pelzer, H. (Hrsg.) Geodätische Netze in Landes- und Ingenieurvermessung II. Verlag Konrad Wittwer, Stuttgart (1985) 50. Niemeier, W.: Analyse von Überwachungsnetzen. In: Pelzer, H. (Hrsg.) Geodätische Netze in Landes- und Ingenieurvermessung II. Verlag Konrad Wittwer, Stuttgart (1985) 51. Niemeier, W.: Geodetic techniques for the navigation, guidance and control of construction Processes. In: Proceedings of 3rd IAG International Symposium on Geotechnical and Structural Engineering and 12th International Symposium on Deformation Measurements, Baden, Österreich, 22.–24.05. (2006) 52. Niemeier, W.: Ausgleichungsrechnung – Statistische Auswertemethoden, 2. Aufl. de Gruyter Verlag (2008) 53. Niemeier, W., Riedel, B.: Mehrskaliges geodätisches Beobachtungskonzept für die Überwachung großflächiger Rutschungsgebiete. In: Proceedings 7. Geokinematischer Tag, TU Freiberg (2006) 54. Paulus, St., Schumann, H., Kuhlmann, H., Leon, J.: High precision laser scanning system for capturing 3D plant architecture and analyzing growth of cereal plants. Biosyst. Eng. 121, 1–11 (2014)
1 Ingenieurgeodäsie – eine Einführung
21
55. Pelzer, H. (Hrsg.) Geodätische Netze in Landes- und Ingenieurvermessung II. Verlag Konrad Wittwer, Stuttgart (1985) 56. Rehr, I., Rinke, N., Kutterer, H., Berkhahn, V.: Maßnahmen zur Effizienzsteigerung bei der Durchführung tachymetrischer Netzmessungen. Allgemeine Vermessungs-Nachrichten (AVN) 118(1), 2–14 (2011) 57. Rinner, K.: Über die zunehmende Bedeutung der Ingenieurgeodäsie. Zeitschrift für Vermessungswesen (ZfV) (96), 209–217 (1971) 58. Rinner, K.: Entwicklungstendenzen in der Ingenieurgeodäsie. Allgemeine VermessungsNachrichten (AVN) (85), 161–166 (1978) 59. Roberts, G.W., Brown, C.J., Ogundipe, O.: Monitoring bridges by GNSS. In: Proceedings on FIG Congress 2010, Sydney (2010) 60. Rödelsperger, S.: Real-time processing of ground based synthetic aperture radar (GB-SAR) Measurements. Deutsche Geodätische Kommission, Reihe C, 668 (2011) 61. Schlemmer, H.: Grundlagen der Sensorik: Eine Instrumentenkunde für Vermessungsingenieure. Wichmann Verlag (1996) 62. Schmitt, G.: Monte-Carlo-Design geodätischer Netze. Allgemeine Vermessungs-Nachrichten (AVN) (84), 87–94 (1977) 63. Schwarz, W. (Hrsg.): Vermessungsverfahren im Maschinen- und Anlagenbau. Verlag Konrad Wittwer, Stuttgart (1995) 64. Schwarz, W.: Untersuchungen zum Schwingungsverhalten von Brückenbauwerken mittels Laserinterferometer. Allgemeine Vermessungs-Nachrichten (AVN) (114), 111–117 (2006) 65. Schweitzer, J., Schwieger, V.: Modeling of quality for engineering geodesy processes in civil engineering. J. Appl. Geod. 5, 13–22 (2011) 66. Schweitzer, J., Schwieger, V.: Modeling and propagation of quality parameters in engineering geodesy processes in civil engineering. In: Proceedings of 1st International Workshop on the Quality of Geodetic Observation and Monitoring Systems, München, 13–15 April, 2011, Springer, S. 163–168 (2015) 67. Schwieger, V., Beetz, A., Wengert, M., Schweitzer, J.: Echtzeit-Integration ingenieurgeodätischer Messsysteme in Bauregelkreise. In: Wunderlich, T. (Hrsg.) Ingenieurvermessung 10, S. 45–56. Wichmann, Berlin (2010) 68. Schwieger, V.: Nichtlineare Sensitivitätsanalyse, gezeigt an Beispielen zu bewegten Objekten. Deutsche Geodätische Kommission, Reihe C, Nr. 581 (2005) 69. Stanaway, R., Roberts, C., Blick, G., Crook, C.: Four dimensional deformation modelling, the link between international, regional and local reference frames. In: FIG Working Week 2012, Rome, 6–10 May (2012) 70. Stempfhuber, W., Ingensand, H.: Baumaschinenführung und -steuerung – von der statischen zur kinematischen Absteckung. Zeitschrift für Vermessungswesen (ZfV) (133), 36–44 (2008) 71. Stolitzka, G., Scharler, H.: Funktionskriterien für die Beurteilung von TBM-Leitsystemen. In: Brandstätter, G., Brunner, F.K., Schelling, G. (Hrsg.) Ingenieurvermessung 96, S. B4/1–7. Dümmler, Bonn (1996) 72. Trunk, U., Kirsch, F.: Messungen am City-Tunnel in Leipzig. VDV-Seminar Messen im Bauwesen – Bauwerksüberwachung (2010) 73. Van Cranenbroeck, J.: Advanced surveying control services for building the vertical cities. In: Proceedings, FIG Working Week 2007, Hong Kong 13.–17.05.2007, 13 S. (2007) 74. Von Gösseln, I., Kutterer, H.: Efficiency optimization of surveying processes. In: Proceedings of the 1st International Workshop on the Quality of Geodetic Observation and Monitoring Systems. München, 13–15 April, 2011, Springer, S. 157–162 (2015) 75. Wieser, A.: Robust and fuzzy techniques for parameter estimation and quality assessment in GPS, 274 S. Shaker Verlag, Aachen (2002) 76. Wiget, A., Marti, U., Schlatter, A.: Beiträge der Landesvermessung zum AlpTransit GotthardBasistunnel. Geomatik Schweiz: Geoinformation und Landmanagement, 12. AlpTransit (2010)
22
A. Wieser et al.
77. Welsch, W.: Signifikanzen und Sensitivitäten in technischen Netzen. Deutsche Geodätische Kommission, Reihe B, Nr. 216, S. 154–163 (1976) 78. Witte, B., Sparla, P.: Vermessungskunde und Grundlagen der Statistik für das Bauwesen, 7. Aufl. Wichmann Verlag (2011) 79. Wunderlich, Th.: Die Zukunft der geodätischen Absteckung von Bauwerken. In: Bundesanstalt für Gewässerkunde (Hrsg.) Geodätische Arbeiten für Bundeswasserstraßen. Kolloquium am 5./6. Februar 2013, Koblenz, S. 83–88 (2013) 80. Zeimetz, Ph., Kuhlmann, H.: Use of parametric models for analyzing ground movement measurements in the Rhenish lignite mining area. World Min. Surf. Undergr. 63, 256–264 (2011). ISSN:1613-2408 81. Zeimetz, P., Kuhlmann, H.: Einsatz kalibrierter GNSS-Antennen zur genauen Längenmessung. Allgemeine Vermessungs-Nachrichten (AVN) (120), 3–8 (2013)
2
Bauaufnahme, Gebäudeerfassung und BIM Jörg Blankenbach
Inhaltsverzeichnis 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 BIM – Building Information Modeling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Übersicht über die Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Koordinatensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Elektronisches Handaufmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Tachymetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Terrestrisches Laserscanning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Laserscanning in Kombination mit Photogrammetrie . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Mobile-Mapping-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24 24 27 28 30 33 35 43 46 47 50 51
Zusammenfassung
Das Aufmaß von Bauwerken ist ein zentraler Bestandteil für die Planung und Dokumentation, und damit für das Bauen im Bestand. Die klassischen Ergebnisse des Aufmaßes sind zumeist digitale 2D-CAD-Zeichnungen für die Darstellung von Grundrissen, Schnitten und Ansichten. Die Grundlage für die Bauaufnahme stellen dabei geodätische Vermessungsmethoden mit Verfahren, die auf der Erfassung von Einzelpunkten beruhen (elektronisches Handaufmaß, Tachymetrie) sowie flächenhaft erfassende Verfahren (Photogrammetrie, Laserscanning) häufig in Kombination mit entsprechender Erfassungssoftware dar. Auch neuere Entwicklungen im Bereich der Erfassungssysteme (UAV, Multisensor- und Mappingsysteme) basieren auf diesen grundlegenden Methoden. Im Kontext
J. Blankenbach () Geodätisches Institut und Lehrstuhl Bauinformatik & Geoinformationssysteme, RWTH Aachen University, Aachen, Deutschland E-Mail:
[email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 W. Schwarz (Hrsg.), Ingenieurgeodäsie, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47188-3_36
23
24
J. Blankenbach
des Building Information Modelings (BIM) und der 3D-Stadtmodellierung werden jedoch neue Anforderungen an die Bauaufnahme gestellt, da nun digitale dreidimensionale Bauwerksmodelle mit volumenkörperorientierter Objektmodellierung inklusive deren Semantik und Beziehungen sowie beschreibender Eigenschaften gefordert werden. Dieser ganzheitliche Ansatz zur Modellierung bzw. Dokumentation von Bauwerken hat damit auch Auswirkungen auf den Vermessungsworkflow sowie die Verarbeitung und Modellierung der Daten. Schlüsselwörter
Bauaufnahme • Bauaufmaß • Bauvermessung • Bauwerksmodellierung • Building Information Modeling • CityGML
1
Einleitung
Das Ziel des Bauaufmaßes bzw. der Bauaufnahme ist die Erfassung des dreidimensionalen, geometrischen Zustands von Bauwerken und resultiert in – heutzutage nahezu ausschließlich – digitalen Zeichnungen, Plänen und Modellen. Das Ergebnis besteht traditionell aus Grundrissen, Schnitten, Ansichten und gegebenenfalls Detailzeichnungen, die den Baufachleuten wie Architekten, Bauingenieuren, Gebäudetechnikern, Bauhistorikern usw. gewohnte Sichten auf den vorhandenen Bestand auch ohne eine Ortsbegehung ermöglichen. Die Bauwerksvermessung wird regelmäßig ergänzt durch eine Baubeschreibung, mit der bauwerksrelevante Sachverhalte in Gestalt von alphanumerischen Informationen (Sachdaten) dokumentiert werden. Komplettiert wird die Bauaufnahme durch die Recherche von baugeschichtlichen Aspekten, die hilfreich beispielsweise für die Interpretation von Befunden sind [39]. Das Aufmaß dokumentiert damit den Ist-Zustand von Bauwerken (as-built) sowohl für die Planung und Bauausführung im Bestand als auch für die Betriebsphase, z. B. im Rahmen des Facility Managements. Mit der Etablierung der Methode des Building Information Modelings (BIM) werden zukünftig jedoch ganz neue Anforderungen an die Bauaufnahme gestellt.
2
BIM – Building Information Modeling
Building Information Modeling (BIM) beschreibt eine computergestützte Methode im Bauwesen und in der Architektur zur ganzheitlichen, digitalen Bauwerksmodellierung. Im Kern geht es dabei um den Aufbau einer zentralen Datenbasis, die allen am Bau beteiligten Akteuren und Fachdisziplinen über den gesamten Lebenszyklus eines Bauwerks zur Verfügung steht und stets aktuell gehalten wird (vgl. [28]). Naturgemäß ist die Planung, Errichtung und der Betrieb eines Bauwerks eine hochgradig interdisziplinäre Aufgabe verschiedenster Fachdisziplinen (u. a. Architektur, Bauingenieurwesen, Vermessung, Gebäudetechnik, . . . ). Der erforderliche Informationsaustausch und -abgleich zwischen den beteiligten Disziplinen ist
2 Bauaufnahme, Gebäudeerfassung und BIM
25
jedoch in der Praxis insgesamt wenig aufeinander abgestimmt (z. B. fragmentierte Daten, uneinheitliche Modellierung, Medienbrüche, fehlende inhaltliche und zeitliche Abstimmung), was zu Fehlern sowie Verzögerungen in der Bauausführung und schließlich zu höheren Kosten führt. Hieraus ergibt sich die Motivation einer einheitlichen, integrierten und zentralen digitalen Bauwerks-Informations-Modellierung. So soll mit der BIM-Methode das zugrundeliegende Bauwerksmodell im Idealfall bereits während der Planung und Errichtung eines Bauwerks von allen beteiligten Gewerken gespeist und über den gesamten Lebenszyklus bis zum Um- und Rückbau genutzt bzw. als Datenbasis weitergepflegt werden. Dadurch wird nicht nur die Grundlage für eine stets hohe Aktualität, sondern ebenso für eine deutlich verbesserte Transparenz aller Informationen gelegt, was wesentliche Voraussetzungen für Planungs-, Betriebs- sowie Kostensicherheit und damit für eine effiziente Bauausführung bzw. Bewirtschaftung sind. Die Grundlage des BIM stellt dabei ein digitales, dreidimensionales bauteilbezogenes Bauwerksmodell dar. Die Bauteile als wesentliche Modellelemente besitzen neben einer Geometrie eine Semantik (z. B. Tür, Wand, Balken, Stütze etc.), beschreibende Eigenschaften (Sachattribute) und weisen Beziehungen (Relationen) untereinander auf. Die Beschreibung der Bauteilgeometrie erfolgt zumeist volumenkörperorientiert und in parametrischer Darstellung (z. B. Bauteil „Wand“ als Quader mit Breite, Länge, Höhe sowie Translationen zu den Achsen eines lokalen kartesischen Bezugssystems) (Abb. 1) [13]. Bauteile sind dabei Exemplare (Instanzen) vordefinierter Objekttypen, die anhand von Objekttypen-/Bauteilkatalogen in der BIM-Software verwaltet werden. Mit den Objekttypen verbunden sind zudem Regeln und Richtlinien zur Platzierung (z. B. Mindestabstände, Mindestdimensionen,
Abb. 1 Bauteil „Wand“ mit Darstellung der Bauteileigenschaften in der BIM-Software
26
J. Blankenbach
Schrittmaßregel bei Treppen), die auch nach einer Modellmodifikation geprüft bzw. von der BIM-Software automatisch angewendet werden. Neben den physischen bzw. konstruktiven Eigenschaften eines Bauwerks werden jedoch auch die technischen, funktionalen und kaufmännischen Aspekte mit BIM abgebildet mit dem Ziel der Integration aller maßgeblichen Vorgänge (Prozesse) rund ums Bauwerk. Im BIM enthalten sind daher ebenso Kosten, Zeit- und Terminpläne, Dokumentationsinformationen etc. BIM erlaubt dadurch die Durchführung von planungsrelevanten Analysen (z. B. statische oder energetische Analysen, Beleuchtungs- und Fluchtwegsimulationen) in einer frühen Projektphase und damit verbunden Kollisionsprüfungen an den Gewerkeschnittstellen. Änderungen am Modell können von anderen Gewerken nicht nur sofort erkannt, sondern auch direkt z. B. mit Kostenberechnungen verknüpft werden. Durch die Definition von Sichten wird den verschiedenen Akteuren jeweils ihre fachspezifische Sichtweise in Form von Fachmodellen ermöglicht (z. B. Architekturmodell, Tragwerksmodell, TGA-Modell), die je nach Leistungsphase in verschiedenen Fertigstellungsgraden (Level of Development, LOD) vorliegen [16]. Die Fachmodelle können in der Praxis von den Beteiligten getrennt erstellt und in definierten Abständen in ein Gesamtmodell integriert werden. Aus BIM heraus lassen sich verschiedenste Ausgaben und Nachweise, wie Grund- und Aufrisspläne sowie Schnitte, Listen oder Verzeichnisse erzeugen und Dritten zur Verfügung stellen. Für den interoperablen Datenaustausch wird derzeit an einem herstellerübergreifenden BIM-Datenmodell und -Austauschformat, den Industry Foundation Classes (IFC) [12], gearbeitet, das als offener, internationaler Standard (ISO 16739) etabliert werden soll. Die für BIM erforderliche Software wird mittlerweile von verschiedenen Herstellern (u. a. Autodesk, Bentley, Nemetschek, Graphisoft) mit entsprechenden Produkten vertrieben. Während BIM in einigen Ländern (z. B. Finnland, USA) bereits weit verbreitet und bei öffentlichen Bauvorhaben sogar verpflichtend ist, ist die Methode in Deutschland bislang wenig etabliert. Aufgrund von (erheblichen) Termin- und Kostenüberschreitungen bei Großprojekten in der jüngeren Vergangenheit ist BIM jedoch mittlerweile auch in Deutschland in den Fokus des Interesses gerückt und bis in höchste politische Ebenen vorgedrungen [3, 8, 9]. Auch in der HOAI 2013 [22] ist BIM erstmalig explizit namentlich als „Besondere Leistung“ der Vorplanung (Leistungsphase 2) im Leistungsbild „Gebäude und Innenräume“ genannt. Neben BIM haben sich dreidimensionale Bauwerksmodelle ebenso im Bereich des Geoinformationswesens etabliert. Mit CityGML [29] existiert dabei ein XMLbasierter Beschreibungs- und Schnittstellenstandard für die Repräsentation sowie den Austausch von 3D-Stadt- und Landschaftsmodellen. CityGML basiert – ähnlich zu IFC aus dem BIM-Bereich – auf einem semantischen Datenmodell, d. h. es werden neben der Geometrie auch die Topologie sowie beschreibende Eigenschaften der Objekte modelliert. CityGML unterscheidet dabei fünf Detailierungsgrade (Level of Detail, LoD), angefangen beim Geländemodell (LoD 0) über einfache Klötzchenmodelle (LoD 1), detaillierte Modelle mit korrekter Dachform (LoD 2) und ausdifferenzierte Architekturmodelle (LoD 3) bis hin zu Innenraummodellen (LoD 4). Die Anwendung von CityGML ist vielfältig und erstreckt sich von der
2 Bauaufnahme, Gebäudeerfassung und BIM
27
reinen Visualisierung (z. B. für touristische Zwecke) über 3D-GIS-Analysen für die räumliche Planung (z. B. Sichtbarkeitsanalysen) bis hin zu komplexen Simulationen (z. B. Überflutungssimulation) [6]. Wesentliche Unterschiede zwischen BIM-Modellen und CityGML bestehen neben der Anwendung einerseits im Aufbau und der Inhaltstiefe – BIM-Modelle weisen von Hause aus eine deutlich höheren inhaltliche Detailierung auf – sowie andererseits in der Geometriebeschreibung. CityGML verwendet ausschließlich Randflächenbegrenzungsmodelle (Boundary Representation, B-Rep), bei denen die Geometrie durch die begrenzenden Flächen der Objekte und diese durch deren Stützpunkte in Form von Koordinaten - in der Regel in einem räumlichen Bezugssystem - beschrieben werden. Während die Modelle niedriger Detailierungsgrade (LoD 0 bis 2) mit Daten aus Befliegungen und Katastergrundrissen mit einem hohem Automatisierungsgrad abgeleitet werden können, kommen für die Erstellung von Modellen der höherer Detailierungsgrade (LoD 3 und 4) Erfassungsverfahren wie sie im Folgenden beschrieben werden zum Einsatz.
3
Übersicht über die Verfahren
Die Grundlage für das Bauwerksaufmaß stellen geodätische Vermessungsmethoden häufig in Kombination mit entsprechender Erfassungssoftware dar. Auch in Bezug auf BIM- und CityGML-Modelle (LoD 3 und 4) wird bei der Bauaufnahme nicht mit grundsätzlich anderen Verfahren als im Falle eines klassischen Bauaufmaßes gearbeitet, da die Geometriebestimmung eine wesentliche Grundlage von digitalen Bauwerksmodellen darstellt. Allerdings erfordert BIM bzw. die Verwendung von CityGML einen ganzheitlichen Ansatz bei der Dokumentation von Bauwerken, was Auswirkungen auf den Vermessungsworkflow sowie die Verarbeitung und Modellierung der Daten hat. Für die Verarbeitung und Nutzbarmachung für BIM bzw. CityGML muss der Ist-Bestand auf der Grundlage eines einheitlichen Datenmodells abgebildet werden, das sowohl geometrische als auch semantische Eigenschaften berücksichtigt. Besaßen die geometrischen Elemente Punkte, Linien, Flächen und Volumina bislang aus vermessungstechnischer Sicht die zentrale und ordnungsschaffende Bedeutung im Erfassungsprozess, so treten an deren Stelle nun Objekte mit einer Vielzahl an Attributen, von denen die Geometrie nur eine Eigenschaft von vielen ist. Die Objektbildung als Basis der Bauwerksmodellierung steht jetzt im Zentrum einer objektorientierten Arbeitsweise mit redundanzfreier Datenspeicherung und konsistenter Datenhaltung im Fortführungsfall. Für die Vermessungsarbeiten hat dies zur Folge, dass die einzelnen Verfahren viel stärker als bisher in den Erfassungsprozess integriert sind. Klassische Produkte wie Grundrisse, Schnitte, Ansichten und Bauteillisten werden in diesem Zusammenhang erst in einem Folgeschritt als sekundäre Ergebnisse aus den Bauwerksmodellen abgeleitet. Häufig existieren aus der Zeit der Planung und Errichtung eines Bauwerkes Pläne und Zeichnungen. Grundsätzlich können diese als erste Quelle für die Geometrieerfassung dienen, indem beispielsweise Maße daraus abgegriffen wer-
28
J. Blankenbach
den, die dann in die Erstellung eines digitalen CAD-Bestandsplans einfließen. Besonders effektiv kann der Digitalisierungsvorgang erfolgen, wenn die Planvorlage zuvor gescannt und danach als Rastergrafik für eine Onscreen-Digitalisierung eingebunden wird, da während der Vektorisierung der bestehende Plan ständig im Blickfeld des Bearbeiters ist. Grundsätzlich sollte sich aber jeder, der bestehende Bestandszeichnungen für die Bauwerkserfassung heranzieht, darüber im Klaren sein, dass die tatsächliche Situation erheblich abweichen kann. Nicht selten wurde schon bei der Errichtung von den Planvorgaben abgewichen oder es können nicht dokumentierte Veränderungen am Bauwerk stattgefunden haben. Aus diesem Grund gibt es zur vermessungstechnischen Geometrieerfassung oft keine Alternative. Die Entwicklung von leistungsfähigen Messinstrumenten in Verbindung mit direkt oder drahtlos angebundenen Computern (PC, Laptop, Tablet) und der methodenspezifischen Software hat dazu geführt, dass in der aktuellen Praxis folgende Basisverfahren bei der Bauwerksvermessung eingesetzt werden: – – – –
Elektronisches Handaufmaß Tachymetrie Photogrammetrie Laserscanning
Im weiteren Verlauf dieses Kapitels werden die o.g. Verfahren näher erläutert. Dabei wird insbesondere der Bezug zu BIM hergestellt, da BIM im Bauwesen und damit für das Bauwerksaufmaß eine zunehmend wichtigere Bedeutung erlangt. Grundsätzlich kommen für die Datenfassung zur Erstellung von CityGMLModellen höherer Detaillierungsgrade (LoD 3 und 4) dieselben Verfahren zum Einsatz [32], zumal CityGML grundsätzlich durch Schematransformation aus BIMModellen abgeleitet werden kann. Allen im Folgenden beschriebenen Verfahren gemein ist die Tatsache, dass sie ein Referenzsystem benötigen, das den (übergeordneten) Bezugsrahmen für die geometrische Dokumentation der Bauwerksbestandteile bereitstellt. Auf die wichtigsten Kriterien hierbei wird daher zunächst eingegangen.
3.1
Koordinatensystem
Die Geometrie von Bauwerken kann universell und konsistent durch mathematische Koordinaten beschrieben werden. Eine Bauwerksvermessung beginnt daher mit der Definition eines geeigneten Koordinatensystems, das den Bezugsrahmen (Referenzsystem) für alle Vermessungs- und Dokumentationsvorgänge darstellt [40]. In den meisten Fällen wird ein lokales Koordinatensystem definiert, dessen Ausrichtung sich vorzugsweise an den Hauptachsen des Bauwerks orientiert. Liegen die Koordinatenachsen parallel bzw. orthogonal beispielsweise zur dominierenden Flurachse des Bauwerks, erleichtert dies später viele konstruktive Zeichenvorgänge. Neben den Lagekoordinaten (X, Y) wird die Höhe H als dritte Koordinate (Z-Wert) verwendet, um die Bauwerkserfassung und -dokumentation vollständig
2 Bauaufnahme, Gebäudeerfassung und BIM
29
dreidimensional durchführen zu können. Die Benutzung von geodätischen Landeskoordinaten (Gauß-Krüger oder UTM) als Referenzsystem war bislang in der Praxis weniger gebräuchlich wegen der im Allgemeinen willkürlichen Ausrichtung in Relation zum Gebäude. Auch die parametrische Geometriemodellierung in BIM spricht zunächst für die Verwendung eines lokalen Systems in Bezug zum Baukörper für die Vermessung und Primärmodellierung. Durch die Designation von BIM als zentrale und durchgängige Bauwerksdatenbank sollte der Bezug zu einem übergeordneten (amtlichen) Planungskoordinatensystem jedoch gegeben sein (Abb. 2). Durch direktes Anschließen der Aufnahme an Referenzpunkte im übergeordneten System oder durch Einführung identischer Punkte in beiden Koordinatensystemen (übergeordnetes System, lokales System) und anschließende Koordinatentransformation ist der Anschluss an ein übergeordnetes System möglich [41]. Der Bezug zu einem amtlichen System ist insbesondere dann unabdingbar, wenn weitere Geo(basis) datenbestände, z. B. Liegenschaftsdaten des Amtlichen Liegenschaftskatasterinformationssystems (ALKIS) oder Daten aus Leitungskataster damit verknüpft werden müssen, wie es bei der Planung insbesondere von großflächigen oder langgestreckten Bauwerken (z. B. Infrastrukturbauwerke) in der Regel der Fall ist. Bei der Verwendung eines Landessystems als übergeordnetes System, wie bspw. UTM (Universal Transverse Mercator) für Deutschland, sind ggf. Projektionsverzerrungen zu berücksichtigen. Je nach Lage des Messgebietes
Abb. 2 Beispiel Festpunktnetz für das Aufmaß eines Gebäudes
30
J. Blankenbach
können diese eine nicht zu vernachlässigende Größenordnungen annehmen. Für weitere Informationen zu amtlichen Landeskoordinatensystemen, Strecken- und Höhenreduktion etc. sei an dieser Stelle auf die Fachliteratur, z. B. [41], verwiesen. Die Realisierung des Koordinatensystems vor Ort erfolgt durch die Vermarkung von Festpunkten (FP), die entweder vorab oder simultan mit der fortschreitenden Bauerfassung eingemessen und im räumlichen Bezugssystem koordiniert werden. Die FP dienen sowohl als Standorte für die Vermessungsinstrumente als auch als Anschlusspunkte (AP) bzw. Passpunkte (PP) für Stationierungs- und Orientierungsvorgänge. Ihre Positionen sind so auszuwählen, dass damit das Aufmaß problemlos gelingt und zugleich die Dauerhaftigkeit nach Möglichkeit gewährleistet ist. Die Fest- und Anschlusspunkte werden sowohl außerhalb des Gebäudes, also meistens im umgebenden Gelände, als auch innen auf Böden, Wänden und ggf. Decken platziert. Für die Verdichtung des Festpunktnetzes im Innenraum sind die Laibungen der Mauerwerksöffnungen (Türen, Fenster) günstige Standorte, da sie von zwei Seiten gut beobachtbar sind. Abb. 2 zeigt das schematische Beispiel eines Festpunktnetzes für die Bauaufnahme eines Gebäudes. Begonnen wird mit den Außenpunkten, die das Objekt ringförmig umschließen. Hiervon ausgehend werden weitere Festpunkte in das Gebäude übertragen, die die Basis für weitere Verdichtungen bilden. Bei mehreren Stockwerken ist das Prinzip analog für jede Etage anzuwenden. Die geodätische Festpunktbestimmung erfolgt anhand von klassischen Einzelpunktverfahren wie etwa durch Polygonierung oder Schnittverfahren (z. B. Bogenschlag, Vorwärtsschnitt). Den größten Aufwand verlangt die Messung von Strecken- und Richtungsnetzen mit anschließender Ausgleichung; allerdings liefert diese auch die genauesten Koordinaten, wobei Messfehler mit größtmöglicher Wahrscheinlichkeit aufgedeckt werden können. Der beste Instrumentenstandort für das Aufmaß der maßgebenden Bauwerkspunkte stellt sich oftmals erst während der laufenden Vermessungsarbeiten heraus. Bei diesen Punkten unterbleibt in der Regel die Vermarkung und die Standortbestimmung geschieht durch Freie Stationierung. Für weitere Details zu den vorstehend genannten Punktbestimmungsverfahren sei auf die geodätische Fachliteratur verwiesen [41].
3.2
Elektronisches Handaufmaß
Das elektronische Handaufmaß beruht auf der Kombination von elektrooptischen Distanzmessungen, mobilen Computern und spezieller Software. Es unterscheidet sich instrumentell und verfahrenstechnisch von dem früher üblichen klassischen Handaufmaß, das gekennzeichnet war durch die Verwendung von Maßband/2-mGliedermaßstab (Zollstock), Lot, Rechtwinkelprisma und Fluchtstäbe sowie Orthogonal- und Einbindeverfahren als vorherrschende vermessungstechnische Methode. Das moderne Handaufmaß verwendet bei der Streckenmessung gewöhnlich Handlasermessgeräte, die mit einem elektrooptischen Distanzmesser (Abschn. 3.3) ausgestattet sind. Die anzumessenden Punkte werden dabei mit einem sichtbaren Laserstrahl angesprochen. Die Messwerte werden direkt über
2 Bauaufnahme, Gebäudeerfassung und BIM
31
eine Schnittstelle an den mitgeführten mobilen Computer (Tablet, Laptop) per Kabel oder Bluetooth übertragen und in der Aufmaßsoftware weiterverarbeitet. Die Aufmaßsoftware kann ein eigenständiges Programm oder eine Zusatzapplikation in einem CAD-System sein. Bei Letzterem stehen dem Operateur die umfangreichen CAD-Funktionalitäten für die graphische Dokumentation der Vermessungsergebnisse zur Verfügung, die zur Effektivitätssteigerung durch viele, auf das Bauaufmaß abgestimmte, Spezialfunktionen erweitert sind. Eine Übersicht zu Aufmaßsoftwareprodukten für die hier genannten Verfahren findet sich u. a. in [15]. Gemessen werden ausschließlich – zumeist horizontale, vertikale und diagonale – Strecken, weshalb diese Methode auch ohne vermessungstechnische Spezialkenntnisse angewendet werden kann. Methodisch gesehen wird beim elektronischen Handaufmaß das Bauwerk zunächst gedanklich in die vorhandenen Raumeinheiten als Basiselemente zerlegt, deren geometrische Dimensionen unabhängig voneinander erfasst werden. Jeder Raum wird also im ersten Schritt als eigenständige Zelle für sich vermessen. Für die Gesamtdimensionierung eines rechteckigen Standardraumes im Grundriss genügen somit in den meisten Fällen drei horizontale Strecken für Länge, Breite und Diagonale, wobei letztere im Regelfall der Kontrolle auf Rechtwinkligkeit dient (Abb. 3). Hierauf aufbauend werden die Mauerwerksöffnungen, also vor allem Fenster und Türen, sowie Aussparungen, Durchbrüche und Vorsprünge durch weitere Streckenmessungen, ggf. auch durch Maßketten, bestimmt und über die Aufmaßsoftware in der Zeichnung festgehalten. Soll ein dreidimensionales Aufmaß stattfinden, wird durch entsprechende Streckenmessungen in der Vertikalen die dritte Dimension analog erfasst. Die unmittelbare Verbindung zum Referenzsystem findet im Gegensatz zu den anderen Aufmaßverfahren (Tachymetrie, Photogrammetrie und Laserscanning)
Abb. 3 Elektronisches Handaufmaß: Messung von raumbestimmenden Strecken (Länge, Breite und Diagonale)
32
J. Blankenbach
beim Handaufmaß nicht statt. Deshalb müssen die zunächst unabhängig bestimmten Raumeinheiten, die in sich gesehen vollständig geometrisch definiert sind, zu einem Ganzen aggregiert werden, so dass schließlich das Gebäude in seiner geometrischen Ausprägung vollständig repräsentiert ist. Dies geschieht regelmäßig anhand der gemeinsamen Wandöffnungen (Fenster und Türen) und den gemessenen Wandbzw. Laibungstiefen, über die die einzelnen Raumeinheiten lagerichtig zusammengefügt werden. Für diesen Vorgang stellt die Software entsprechende Funktionen zur Verfügung, die einen hierarchischen Aufbau in Räume, Raumgruppen, Geschosse und Gesamtbauwerk unterstützen. Durch das Aggregieren von einzelnen Raumeinheiten stößt das Verfahren bei Bauwerken mit stark verwinkelten bzw. nicht rechtwinkligen Strukturen oder ungleichmäßigen Wandstärken (z. B. historische Gebäude) bisweilen an seine Grenzen. Neuere Aufmaßsysteme gehen einen etwas anderen Weg; sie untergliedern den zuvor beschriebenen Workflow in die beiden Schritte Grobstrukturierung und Feindimensionierung. Bei der Grobstrukturierung werden die Räume im Prinzip skizzenhaft anhand von geschätzten Maßen erfasst, aus denen sich die Raumeinheiten und Gebäudestruktur geometrisch nur grob ergeben. Begleitet wird dieser Schritt durch die Definition von (geometrischen) Bedingungen wie beispielsweise Parallelitäten und Rechtwinkligkeiten, so dass implizit der strukturelle Gebäudeaufbau mit allen Beziehungen bereits vorgegeben ist. Im zweiten Schritt findet dann die Feindimensionierung statt, indem die Streckenmessungen eingeführt werden und die bisher nur grob skizzierten Raumeinheiten nach und nach ihre exakten Dimensionen erhalten. Die Grobskizze verwandelt sich im Ergebnis also schrittweise zu der finalen, geometrisch exakten Gebäudezeichnung. In Abhängigkeit von der Software wird die Gebäudezeichnung im einfachsten Fall als Drahtmodell erstellt, also im Wesentlichen anhand von CADBasiselementen wie Linien und Bögen. Für die 3D-Bauwerksmodellierung existieren Systeme, in denen direkt oder indirekt Flächen- oder Volumenmodelle erzeugt werden, wobei gegebenenfalls mit parametrischer Dimensionierung gearbeitet wird. Korrekturen in der Geometrie können dann sehr einfach durch Anpassung der Parameter umgesetzt werden. Einige Aufmaßsysteme besitzen darüber hinaus Funktionalitäten, die direkt oder indirekt auf BIM ausgerichtet sind (z. B. On-Site Survey,1 SiteMaster BIM,2 ) wie die objektorientierte Bauteilbildung oder eine Schnittstelle für die gleichzeitige Erfassung von nicht-geometrischen Daten, indem zum Beispiel Dialoge für die Eingabe der Sachinformationen bereitgestellt werden. Das Handaufmaß ist für diesen Arbeitsschritt prädestiniert, weil der Bearbeiter vor Ort und mit größtmöglicher Nähe zum Objekt agiert. Der größte Nachteil des Handaufmaßes besteht in der verhältnismäßig geringen Genauigkeit der aufgemessenen Punkte in Bezug zum örtlichen oder übergeordneten Referenzsystem. Jede Raumeinheit besitzt zwar für sich gesehen eine völlig ausreichende relative Genauigkeit, aber aufgrund der oben
1 2
http://www.maxmess-software.de [Zugegriffen im März 2016]. http://www.graebert-isurvey.com/ [Zugegriffen im März 2016].
2 Bauaufnahme, Gebäudeerfassung und BIM
33
beschriebenen Aggregation von Raumeinheiten, also ohne explizite Einbindung eines übergeordneten Referenzsystems, addieren sich Unsicherheiten sowohl in der Messung wie auch den Modellannahmen (z. B. nicht einheitliche Wandstärken) auf. So zeigen Punkte zwischen Anfang und Ende des Bauwerks oftmals Abweichungen im Dezimeterbereich. Aus diesem Grund sollte das Handaufmaß in der Bauvermessung nur als Ergänzungsverfahren eingesetzt werden.
3.3
Tachymetrie
Die Tachymetrie besitzt in der Bauwerksvermessung eine große Bedeutung. Standardmäßig werden hierbei moderne Tachymeterinstrumente mit elektrooptischer Distanzmessung eingesetzt. Die Distanzmessung beruht entweder auf dem Impulslaufzeitverfahren, dem Phasenvergleichsverfahren oder einem kombinierten Impulslaufzeit- und Phasenmessverfahren [26]. Die Messung erfolgt entweder zu Reflektorprismen, die auf die anzumessenden Punkte direkt oder exzentrisch aufgehalten werden, oder die Gebäudepunkte werden reflektorlos angemessen. Hierbei kann ähnlich wie beim Handlaserdistanzmesser mit einem sichtbaren Laserstrahl gearbeitet werden. Die Einführung der reflektorlosen Messung bedeutete in der Bauvermessung eine deutliche Vereinfachung, beschleunigt den Messvorgang und erübrigt die zweite Person am Prisma. Obwohl die reflektorlose Distanzmessung seit einigen Jahren zum technologischen Standard zählt, muss in der Praxis beachtet werden, dass die Reichweite und Genauigkeit der Messung von den metrologischen Bedingungen und insbesondere der Beschaffenheit der reflektierenden Oberfläche (Struktur, Rauigkeit, Farbe, Ausrichtung/Auftreffwinkel) abhängen. Besonderes Augenmerk muss ferner bei der Messung von Ecken und Kanten auf das reflektierte Signal gelegt werden, denn Teilreflektionen können die Distanzmessung verfälschen [26]. Primäre Messelemente bei der Tachymetrie sind Horizontalrichtung (Hz), Zenitbzw. Vertikalwinkel (V) und Schrägstrecke (s), also 3D-Polarkoordinaten, mit denen Punkte dreidimensional bestimmt sind. Die Umrechnung der primären Messwerte in äquivalente Größen wie Horizontalstrecke (e), Höhendifferenz (dH) oder lokale kartesische Koordinaten kann bereits im Instrument erfolgen. Die Messdaten werden meist auf eine Speicherkarte geschrieben bzw. online über Kabel oder Bluetooth an einen Mobilcomputer mit entsprechender Aufmaßsoftware übertragen (z. B. TachyCad,3 Vitas4 ). Aufmaßsoftware für die Tachymetrie besitzt grundsätzlich ähnliche Funktionalitäten wie jene für das Handaufmaß (Abschn. 3.2), ist jedoch (zusätzlich) mit Schnittstellen zu Tachymeterinstrumenten ausgestattet (Abb. 4). Moderne Tachymeter verfügen darüber hinaus intern über eine Vielzahl an
3 4
http://faro-3d-software.de/ [Zugegriffen im März 2016]. http://www.vitruvius.de/ [Zugegriffen im März 2016].
34
J. Blankenbach
Abb. 4 Bestandsaufnahme mit dem Tachymeter und der Zusatzsoftware VITAS (Bildquelle: Vitruvius GmbH)
Programmen, die typische vermessungstechnische Berechnungsvorgänge (Bogenschlag, Freie Stationierung, Zentrierungen usw.) ermöglichen. Als Instrumentenstandorte während der Erfassungsarbeiten werden entweder die zuvor eingerichteten Festpunkte oder die Methode der „Freien Stationierung“ benutzt. Die frei gewählten Standorte werden dabei vor Ort so ausgesucht, dass die Aufnahme der Gebäudepunkte flexibel und effektiv durchgeführt werden kann. In der Regel wird das Tachymeter mit einem Instrumentenstativ direkt auf dem Boden, ggf. unter Verwendung von Stativsternen, aufgestellt. Bei stark verformbaren Fußböden und hohen Ansprüchen an die Genauigkeit können auch spezielle Klemmstative für Stützen, Träger oder Türlaibungen zum Einsatz kommen. Damit der freie Standort, der nicht notwendigerweise vermarkt wird, koordinatenmäßig berechnet werden kann, müssen Anschlussmessungen zu mindestens zwei bekannten Festpunkten erfolgen. Anschluss- und Erfassungsmessungen werden zumeist kombiniert durchgeführt. Hierbei findet kontinuierlich die Verdichtung des Festpunktfeldes anhand von weiteren Punkten auf dem Boden oder den Wänden statt, die temporär mit Reflexmarken signalisiert werden. In den meisten Fällen wird pro Raum eine Instrumentenaufstellung benötigt. Methodisch gesehen können bei der Tachymetrie drei Vorgehensweisen unterschieden werden [15]: a. Erfassung der 3D-Strukturkanten Hierbei werden in den Räumen alle geometriebestimmenden Ecken und Kanten der Räume direkt angezielt und gemessen. In der angeschlossenen Aufmaßsoftware
2 Bauaufnahme, Gebäudeerfassung und BIM
35
entstehen durch Verbindung der Messpunkte die entsprechenden dreidimensionalen Linien und Bögen, die die Gebäudestruktur repräsentieren. Das Ergebnis ist ein 3D-CAD-Drahtmodell des aufzumessenden Bauwerks. Die zweidimensionalen Standardbauzeichnungen wie Grundrisse, Schnitte und Ansichten müssen aus diesen Drahtmodellzeichnungen in einem weiteren Verarbeitungsschritt abgeleitet werden. b. Direkterfassung von Schnitten Wenn im Vorhinein Klarheit über die Anzahl und Lage von Grundrissen und Schnitten herrscht, bietet sich die Direkterfassung in Schnittebenen an. Es werden hierzu alle Punkte angemessen, die geometriebestimmend für den Grundriss oder Vertikalschnitt sind. In der Aufmaßsoftware findet dabei fortwährend die Projektion der 3D-Punkte in die vordefinierte Schnittebene statt. Häufig wiederkehrende Elemente wie zum Beispiel Fenster und Türen in Grundrissen können mit entsprechenden Spezialfunktionen der (CAD-)Software sehr effektiv erfasst werden [15]. Das Ergebnis ist unmittelbar eine 2D-Zeichnung. c. 3D-Modellierung Für BIM oder die Erstellung von 3D-Stadtmodellen ist das dritte Verfahren am bedeutendsten. Ähnlich wie bei (a) werden die geometriebestimmenden Punkte des Bauwerks gemessen. Aus den Punktkoordinaten leitet man dann die dreidimensionalen Flächen- und Volumenelemente ab, die am Ende das Gebäudemodell darstellen. Wenn Begrenzungskanten oder -ecken nicht direkt angezielt werden können, werden indirekte Messungen auf den Wand- und Deckenflächen durchgeführt und diese zum Schnitt gebracht. Im Hinblick auf BIM kann während der Geometrieerfassung gleichzeitig die Objektbildung und zusätzliche Anreicherung mit Sachinformationen erfolgen. Die Erfassungssoftware muss dann über entsprechende Dialogschnittstellen verfügen. In der Praxis wird das tachymetrische Verfahren häufig mit dem Handaufmaß kombiniert, insbesondere wenn etwa aufgrund von Parallelitäts- oder Rechtwinkelbedingungen – wie bei Aussparungen oder Vorsprüngen – einfache, lineare Streckenmaße ausreichen.
3.4
Photogrammetrie
Die Photogrammetrie, also die Vermessung anhand von photographischen Bildern, ist in der Bauaufnahme gewöhnlich nur im Außenbereich sinnvoll einsetzbar, zum Beispiel bei der Erfassung der äußeren Gebäudehülle. Für die Innenräume ist das Verfahren in der Regel zu aufwendig, weil die Anzahl der zu bestimmenden geometrischen Größen in keinem akzeptablen Verhältnis zum Aufwand steht. Eine Ausnahme besteht ggf. bei großen Bauwerken wie Kirchen oder Konzerthäusern mit entsprechend großvolumigen Innenräumen oder denkmalpflegerischen Objekten
36
J. Blankenbach
mit einer entsprechend hohen Detaildichte. Bei der Photogrammetrie ist der Zeitaufwand vor Ort eher gering, die eigentliche Vermessungstätigkeit wird ins Büro verlagert. In den meisten Anwendungen findet eine Kamerakalibrierung statt, insbesondere wenn die Genauigkeit gesteigert werden soll. Hierbei werden die Parameter der inneren Orientierung bestimmt, die sich zusammensetzen aus der Kamerakonstante und den Bildhauptpunktkoordinaten (Lage des Projektionszentrums) sowie der Verzeichnung und der Sensorgeometrie (Affinität, Scherung) als die Bildfehler beschreibenden Größen. Verfahrensmäßig werden vorzugsweise die Testfeld- oder die Simultankalibrierung durchgeführt; letztere nutzt die Aufnahmen gleichzeitig für die eigentliche Objektvermessung. In beiden Fällen wird ein – in der Regel signalisiertes und nach Möglichkeit räumliches – Punktfeld rundum systematisch aufgenommen, das im Idealfall durch mehrere Maßstäbe mit bekannten Strecken ergänzt wird. Die Bestimmung der Kameraparameter findet dann im Rahmen einer Bündelausgleichung statt [24]. Erfolgt die Objektvermessung anhand von signalisierten Punkten und in Verbindung mit detaillierten Kalibrieransätzen, sind relative Genauigkeiten von 1:100.000 und besser erzielbar [7, 24]. Das heißt, bei einer Raumgröße von z. B. 10 10 10 m können die Koordinaten der Punkte mit einer Präzision im Submillimeterbereich bestimmt werden. Bei den photogrammetrischen Verfahren können grundsätzlich folgende Verfahren unterschieden werden: Einbildphotogrammetrie, Mehrbildphotogrammetrie und Stereophotogrammetrie. In jüngerer Zeit hat sich neben diesen noch die UAVPhotogrammetrie etabliert.
3.4.1 Einbildphotogrammetrie Bei der Einbildphotogrammetrie findet eine Auswertung anhand jeweils eines, heutzutage ausnahmslos digitalen Bildes statt. Die ursprüngliche Aufnahme, die wie alle Fotografien nach den Gesetzen der Zentralprojektion entsteht, weist projektive Verzerrungen auf; als Folge hiervon sind in der Natur parallele Objektkanten im Bild mehr oder weniger stark konvergent. Für die Auswertung wird das digitale Bild projektiv entzerrt, d. h. es findet eine Bildumrechnung statt; die Parallelität der Objektkanten ist dann z. B. wiederhergestellt. Dies geschieht zumeist anhand von mindestens vier Passpunkten pro Bild, die zuvor geodätisch zu bestimmen sind. Die eigentliche Auswertetätigkeit findet im entzerrten Bild statt, wobei sich die Onscreen-Digitalisierung bewährt hat. Die entzerrte Aufnahme befindet sich hierbei im Hintergrund und der Operateur zeichnet alle relevanten Konturen ab. Wenn die photogrammetrische Auswertesoftware in ein CAD-System – wie beispielsweise beim digitalen Auswertesystem PHIDIAS5 (Abb. 6), das als Zusatzapplikation in die CAD-Software MicroStation integriert ist [4] – werden die Auswerte- und Zeichenarbeiten durch die systemeigenen CAD-Funktionalitäten (Kopieren, Spiegeln usw.) unterstützt. Die Überlagerung der Zeichnung mit der Aufnahme (Superimposition)
5
http://phocad.de/ [Zugegriffen im März 2016].
2 Bauaufnahme, Gebäudeerfassung und BIM
37
erleichtert die Überprüfung der graphischen Auswertung auf Vollständigkeit und Richtigkeit. Mit der Einbildauswertung können grundsätzlich nur 2D-Objekte wie zum Beispiel ebene Hausfassaden vermessen werden, weil die photographische Abbildung prinzipbedingt in die (zweidimensionale) Ebene des Kamerasensors stattfindet. Hierdurch geht eine Dimension verloren und die Einbildphotogrammetrie muss sich daher auf plane Objekte beschränken. Ausnahme: Wenn es sich bei der Objektfläche um abwickelbare Regelflächen (Zylinder, Kegelstümpfe) wie etwa ein Turmbauwerk handelt, gelingt auch hier eine Auswertung auf der Grundlage von nur einem Bild, sofern die Orientierungsdaten der Aufnahme vorliegen. Für nähere Erläuterungen hierzu sei auf die Fachliteratur verwiesen (z. B. [5]).
3.4.2 Mehrbildphotogrammetrie Für die Mehrbildphotogrammetrie wird das Objekt freihändig von verschiedenen Standorten aus anhand einer Vielzahl an Bildern aufgenommen, die sich 30 % bis 90 % überlappen; es entsteht ein Bildverband (Abb. 5). Jeder zu messende Objektpunkt sollte in mindestens zwei Aufnahmen abgebildet sein, denn dies ist die Grundlage für die dreidimensionale Punktbestimmung. Als Voraussetzung für die Mehrbildauswertung ist zuvor die Bildorientierung durchzuführen. Hierbei wird die Aufnahmesituation mathematisch rekonstruiert, d. h. die Positionen und
Abb. 5 Bildverband für die Mehrbildauswertung
38
J. Blankenbach
Rotationen der Kamera bzw. Bilder zum Zeitpunkt der Aufnahme (Orientierungsdaten) werden bestimmt. Die Orientierungsberechnung erfolgt in der Regel durch Bündelausgleichung, wobei die Kameradaten (Kamerakonstante, Hauptpunktkoordinaten, Verzeichnungsparameter) gewöhnlich simultan mitbestimmt werden. Die Einbindung in das lokale Koordinatensystem der Bauvermessung bzw. in das übergeordnete Referenzsystem geschieht über Passpunkte, die geodätisch bestimmt werden. Für weitere Erläuterungen zu Bildorientierung und Kamerakalibrierung sei auf die Fachliteratur verwiesen [24]. Die Auswertung der Aufnahmen beruht auf dem Vorwärtsschnittprinzip. Der zu bestimmende Punkt wird in zwei oder mehr Bildern monoskopisch gemessen, d. h. nacheinander in den Bildern lokalisiert und seine jeweiligen Bildkoordinaten bestimmt. In Verbindung mit den Orientierungsdaten können daraus die korrespondierenden Raumstrahlen rekonstruiert und zum Schnitt gebracht werden. Das Ergebnis sind die 3D-Koordinaten der Objektpunkte, aus denen anschließend zum Beispiel die Linien gebildet werden können, die entsprechende Objektkonturen repräsentieren. Die Auswerteergebnisse werden im Allgemeinen als dreidimensionale CAD-Zeichnung festgehalten. Das Auswertesystem PHIDIAS stellt alle für die Mehrbildauswertung benötigten Prozeduren zur Verfügung (Abb. 6). Das Auswerteergebnis ist im Regelfall eine 3D-Drahtmodellzeichnung, die am Bildschirm mit den orientierten Aufnahmen im Hintergrund perspektivisch kongruent überlagert wird. Hierdurch ist die visuelle Kontrolle während der Auswertung ständig gegeben. Ähnlich wie bei
Abb. 6 Photogrammetrisches Auswertesystem PHIDIAS (Bildquelle: PHOCAD GmbH)
2 Bauaufnahme, Gebäudeerfassung und BIM
39
der Einbildauswertung erfolgt eine Art Onscreen-Digitalisierung, nur dass jetzt dreidimensional gemessen wird. Alternativ kann statt Drahtmodell sofort auch die 3D-Modellierung mit Flächen- und Volumenelementen stattfinden. Wenn darüber hinaus unter MicroStation eine BIM-Softwareapplikation installiert ist (z. B. AECOsim Building Designer,6 ) besteht in PHIDIAS die Möglichkeit, die photogrammetrische Geometrieerfassung mit der Aufbereitung für BIM-Anwendungen zu kombinieren.
3.4.3 Stereophotogrammetrie Die Stereophotogrammetrie spielt in der Bauwerksvermessung nur eine untergeordnete Rolle, weil die Anforderungen an Personal und Ausrüstung relativ hoch sind. Das Verfahren macht sich die menschliche Fähigkeit zunutze, Szenen räumlich, also stereoskopisch, betrachten zu können. In Verbindung mit einer ebenso räumlichen Messmarke können so auch konturlose Objekte photogrammetrisch vermessen werden, z. B. die gewölbte Kuppeldecke einer Kirche. Für die Stereoauswertung werden je zwei Aufnahmen in sog. Normalfallanordnung erstellt. Normalfall bedeutet, dass die beiden Aufnahmerichtungen parallel und gleichzeitig senkrecht (normal) zur Basis sind. Dies kann mit einer Kamera nacheinander oder mit zwei Kameras simultan geschehen. Die Basis ist der Abstand zwischen den beiden Aufnahmestandorten. Sie ist so zu wählen, dass die Überlappung der Bildbereiche etwa 50 % bis 60 % beträgt. Die Normalfallbedingung muss in der Praxis zumindest genähert eingehalten werden. Für die Auswertung müssen die Aufnahmen des Stereobildpaares den Augen des Operateurs getrennt zugeführt werden, damit die gleiche Situation wie beim natürlichen Sehen vorliegt. Die Bildtrennung kann optisch erfolgen mit Stereoskopen oder – bei digitalen Aufnahmen heute meist üblich – mit Shutter-Brillen nach dem Wechselblendenprinzip [24]. Hierbei werden die Bilder mit etwa 100 Hz abwechselnd auf dem Bildschirm angezeigt. Im gleichen Takt werden das linke und das rechte Brillenglas wechselweise durchlässig geschaltet. Durch die Abstimmung auf den Bildwechsel kommt die Bildtrennung zustande und der Betrachter nimmt die dargestellte Szene bei genügend hoher Wechselfrequenz räumlich wahr. Für die Stereoauswertung steht dem Operateur eine räumliche Messmarke zur Verfügung, die er beliebig im Stereoraum bewegen und platzieren kann. Dieser 3D-Cursor wird zum Beispiel unter visueller Kontrolle des Betrachters auf die Objektoberfläche gesetzt, womit implizit die dreidimensionalen Koordinaten des so lokalisierten Punktes erfasst sind. Dieser Vorgang kann kontinuierlich fortgesetzt werden, so dass die Oberflächen entlang dreidimensionalen Kurven, ähnlich wie Höhenlinien, abgefahren werden. Die Stereophotogrammetrie besitzt den Vorteil, dass damit auch Objekte ohne diskrete Konturen dreidimensional vermessen werden können, z. B. bildhauerisch entstandene Skulpturen. In der Luftbildauswertung werden heute spezielle digitale Stereoauswertestationen eingesetzt, die für den Dauerbetrieb ausgelegt sind.
6
http://www.bentley.com [Zugegriffen im März 2016].
40
J. Blankenbach
Grundsätzlich können diese hochentwickelten, aber auch kostspieligen Geräte für die Bauwerksvermessung eingesetzt werden, was aber selten stattfindet. Die Photogrammetrieapplikation PHIDIAS (Abb. 6) unterstützt ebenfalls die Stereoauswertung, wobei die Bildtrennung mit einer Shutter-Brille erfolgt.
3.4.4 UAV-Photogrammetrie Die Entwicklungen der letzten Jahre in der computergestützten Bilddatenverarbeitung ermöglichen es, auf der Basis einer großen Anzahl stark überlappender Bildaufnahmen mit Verfahren zur dichten Bildzuordnung (Dense Image Matching) automatisiert Punktwolken abzuleiten (Abb. 7). Angewendet wird dieses Verfahren u. a. für die Geodatenerfassung mit unbemannten Luftfahrzeugen (Unmanned Aerial Vehicles, UAV), die mit Kameras ausgestattet Bildaufnahmen aus der Luft für die Erstellung von Oberflächenmodellen und Orthophotos liefern. Die Luftbildphotogrammetrie, bis dahin größtenteils auf bemannte Luftfahrzeuge gestützt, erlaubt es, durch Kombination der Verfahren mit unbemannten Luftfahrzeugen eine neue Flexibilität, Wirtschaftlichkeit und Genauigkeit zu erreichen. Zahlreiche Evaluierungen zum UAV-Einsatz wurden bereits durchgeführt [1, 19, 27]. Unbemannte Luftfahrzeuge können in senkrecht startende Drehflügler und horizontal startende Flächenflugzeuge, jeweils in unterschiedlichen Gewichtsklassen, unterschieden werden. Bei den Rotorflüglern sind vor allem die Multikoptersysteme (Abb. 8) hervorzuheben, die sich durch eine sehr hohe Flexibilität und Stabilität bei relativ simplen Betriebskonzepten und schneller Einsatzbereitschaft auszeichnen. Horizontal startende Flächenflugzeuge bieten grundsätzlich eine hohe Reichweite
Abb. 7 Bildbasierte Punktwolke aus UAV-Aufnahmen durch Dense Image Matching
2 Bauaufnahme, Gebäudeerfassung und BIM
41
Abb. 8 Hexakopter mit Kamera (Bildquelle: Geodätisches Institut, RWTH Aachen)
und geringe Windanfälligkeit. Weitere Bauformen von UAV stellen Kleinluftschiffe (Zeppeline) sowie die Gleitschirm-Fluggeräte (Kites) dar. Diese haben durchweg eine hohe Tragfähigkeit bei großer Reichweite. Die Herausforderung zum konsequenten Einsatz von unbemannten Luftfahrzeugen stellen neben rechtlichen Fragen und der Einbindung in die Luftfahrt vor allem die Integration in bestehende Prozesse zur Datenverarbeitung dar. Für die Orientierung der UAV-Bildverbände – zumeist in Verbindung mit einer simultanen Kamerakalibrierung – haben zuletzt Algorithmen und Verfahren aus dem Bereich der Computer Vision unter dem Begriff Structure from Motion (SfM) große Bedeutung erlangt [30, 37, 38]. Die Kernaufgabe der photogrammetrischen Bildorientierung, wie auch der 3D-Punktbestimmung, besteht in der Lösung des Zuordnungsproblems (Image Matching). Die im Allgemeinfall ungeordneten UAVBilder mit zum Teil konvergenten Aufnahmerichtungen stellen hierbei eine besondere Herausforderung dar, die die SfM-Algorithmen zuverlässiger bewältigen als die herkömmlichen Verfahren, die vorzugsweise auf der klassischen merkmals- und flächenbasierten Korrespondenzanalyse beruhen (z. B. Kreuzkorrelation, KleinsteQuadrate-Zuordnung, [24]). Unter der Vielzahl an Matching-Algorithmen und deren Varianten sind beispielsweise SIFT- (Scale Invariant Feature Transform) [23], SGM- (Semi-Global-Matching) [21] oder SURF-Operator (Speeded Up Robust Features) [1] zu nennen. In den dichten Bildverbänden existieren für die Verknüpfungspunkte vielfach Korrespondenzen in mehreren Bildpaaren, was man zusätzlich durch Multi-View-Stereo Matching (MVS) ausnutzt [35]. Als Ergebnisse der gekoppelten Mehrbildkorrespondenzanalyse und -orientierung erhält man neben den Daten für die inneren und äußeren Orientierungen auch eine erste, allerdings noch dünne Punktwolke, die sich implizit aus den Verknüpfungspunkten ergibt.
42
J. Blankenbach
Die Verdichtung der Punktwolke geschieht in einem weiteren Schritt durch Dense Image Matching, wobei die Orientierungsdaten in den Prozess als bekannte Größen eingehen. Da die Grundaufgabe identisch ist, werden hierbei die zuvor erwähnten Verfahren gleichermaßen verwendet. Das heißt, sowohl die merkmalsund flächenbasierten Methoden wie auch die SfM-Algorithmen kommen zum Einsatz. Die 3D-Koordinaten der Objektpunkte ergeben sich dann durch redundantes Vorwärtseinschneiden (Triangulationsprinzip). Die Objektoberfläche, also zum Beispiel die äußere Hülle eines Gebäudes und dessen umliegende Topographie, wird im Ergebnis durch eine hochdichte Punktwolke repräsentiert. Die dichten Punktwolken beschreiben die Geometrie mit hoher Auflösung, die wegen der bei UAV-Aufnahmen häufig großen Bildmaßstäbe oft nur wenige Zentimeter beträgt. Die Auflösung reicht aus, um beispielsweise die Gebäudehülle zur Generierung von 3D-Stadtmodellen im Detailierungsgrad LoD 2 (bzw. LoD 3) zu modellieren. Für die Fassadenrekonstruktion aus terrestrischen LiDAR-Daten (TLS) sind in der Vergangenheit verschiedene Verfahren entwickelt worden [2, 10, 18], die auf UAV-Punktwolken prinzipiell übertragbar sind [25], wobei die Methoden von der höheren Punktdichte profitieren. Die Extraktion von Strukturelementen wie Kanten, Ecken und Flächen bleibt der überwiegend manuellen Auswertung vorbehalten, zumal wenn es gleichzeitig mit der semantischen Modellierung von BIM-Objekten kombiniert wird. Aufgrund der Analogie zum Airborne Laserscanning (ALS) werden aus den UAV-Punktwolken überwiegend die gleichen Folgeprodukte wie beim ALS erzeugt. Der erste Schritt ist gewöhnlich die Generierung von Digitalen Oberflächenmodellen (DOM), zumeist DOM der Erdoberfläche. Durch Dreiecksvermaschung der 3D-Punkte zu einem TIN (Triangulated Irregular Network) entsteht hierbei eine lückenlose Polyederfläche. Die Digitalen Oberflächenmodelle sind Ausgangsbasis für weitere Darstellungen. Neben Schummerungsansichten können die DOM texturiert (Textur-Mapping) oder aus den Originalaufnahmen maßstäbliche Orthophotos berechnet werden. Die mit UAV-Photogrammetrie erzielbaren Genauigkeiten hängen – wie von der klassischen Photogrammetrie her bekannt – von einer Vielzahl an Faktoren wie Bildmaßstab, Auflösung, Aufnahmekonstellation, Kameratechnik, Kalibrieransatz etc. ab. In der Literatur sind eine Reihe von Untersuchungen dokumentiert, die das Genauigkeitspotenzial von UAV-Projekten bewerten [11, 14, 17, 20, 27, 33]. Da deterministische Genauigkeitsabschätzungen in der Photogrammetrie etwa durch Simulationen aufwendig sind, werden stattdessen die photogrammetrischen Zielgrößen – also zumeist singuläre 3D-Objektmerkmale (Punkte, Kanten) oder DOM – vorzugsweise im Rahmen von Praxisanwendungen einem Soll-Ist-Vergleich unterzogen. Die Referenzwerte werden in diesem Zusammenhang durch klassische Messverfahren mit übergeordneter Genauigkeit wie Tachymetrie, Laserscanning oder (Aero-) Photogrammetrie mit hochwertigen Luftbildkameras und Auswertesystemen bereitgestellt. Zusammenfassend kann festgestellt werden, dass bei UAV-Projekten mit den SfM-basierten Verfahren die Bestimmung der Bildorientierungen und Punktwolken mit ebenso hoher Genauigkeit wie mit den konventionellen photogrammetrischen Werkzeugen gelingt, nämlich im Subpixelbereich,
2 Bauaufnahme, Gebäudeerfassung und BIM
43
obwohl vergleichsweise einfache Kameratechnik zum Einsatz kommt. Wenn die Bodenpixelauflösung (GSD, Ground Sample Distance) im Mittel beispielsweise 6 cm beträgt, weisen signalisierte Kontrollpunkte nach der Bildorientierung durchschnittliche Punktabweichungen von ca. 2–5 cm in der Lage auf [17]. Die photogrammetrische Tiefenmessgenauigkeit ist regelmäßig schlechter. So zeigen die Soll-Ist-Vergleiche bei Digitalen Oberflächenmodellen in der Vertikalkomponente typische Abweichungen von 1 bis 2GSD; unter günstigen Voraussetzungen ist aber auch in der Höhenkomponente Subpixelgenauigkeit erzielbar [14]. Mit der UAV-Photogrammetrie steht eine neuartige Messmethode zur Verfügung, mit der bildbasierte Punktwolken in einem weitgehend automatisierten Workflow erzeugt werden können. Sie tritt damit in Konkurrenz zum distanzbasierten Laserscanning (LiDAR). Das Verfahren ist besonders geeignet bei der Außenaufnahme von hohen oder schwer zugänglichen Objekten (z. B. Turmbauwerken oder Gebäudefassaden im Steilhang) sowie bei der Erfassung von Dachflächen.
3.5
Terrestrisches Laserscanning
Terrestrische Laserscanner erlangen zunehmend Bedeutung in der Bauvermessung, obwohl die Instrumententechnik vergleichsweise aufwendig und kostenintensiv ist. Bei einfachen Strukturen (z. B. Gebäude mit rechtwinklig zugeschnittenen Räumen) ist das Laserscanning im Gebäudeinneren – ähnlich wie die Photogrammetrie – oft zu aufwendig, da enorme Datenmengen anfallen, die in keinem Verhältnis zur relevanten Geometrieinformation stehen. Für komplexere Bauwerke wie Industrieanlagen, historische Bauwerke, Kirchen etc. ist das Laserscanning aufgrund der flächenhaften Abtastung dagegen eine effiziente Erfassungsmethode. Generell besitzt die automatische Auswertung von Punktwolken ein hohes Entwicklungspotenzial, so dass auch die Innenraumvermessung anhand von Laserscannern zunehmend interessant wird. Viele Hersteller setzen daher derzeit auf Laserscanning als Erfassungsmethode für BIM und stellen Softwarepakete zur Punktdatenverarbeitung für BIM bereit [34]. Während eines Scans tastet ein Laserstrahl den Messbereich systematisch in vorgegebenen Winkelschritten horizontal und vertikal ab (Abb. 9). Von der Bauform des Scanners hängt es ab, welche Raumsegmente in einem Durchgang erfassbar sind (Kamera-, Panorama- oder Hybridscanner, siehe [26]). Gleichzeitig wird wie beim reflektorlos messenden Tachymeter über das zurückkommende Signal die Distanz nach dem Impulslaufzeit- oder Phasenvergleichsverfahren (Abschn. 3.3) zum Objektpunkt gemessen, so dass laufend 3D-Polarkoordinaten (zwei Winkel und eine Schrägstrecke) aufgezeichnet werden, die in entsprechende kartesische 3DKoordinaten umgerechnet werden. Das Ergebnis ist pro Scan eine 3D-Punktwolke. Laserscanner, die nach dem Phasenvergleichsverfahren arbeiten, ermöglichen Scangeschwindigkeiten mit Messraten von mehr 1.000.000 Punkten pro Sekunde; allerdings ist die Reichweite limitiert (einige Deka- bzw. Hektometer), was für die Bauaufnahme in der Regel jedoch ausreichend ist. Laserscanner, die nach dem Impulsmessverfahren arbeiten, können in der neuesten Generation ebenfalls bis
44
J. Blankenbach
Abb. 9 Terrestrisches Laserscanning
zu 1.000.000 Punkte pro Sekunde erfassen, dafür kann bis zu mehreren Kilometern weit gemessen werden. Die Standardabweichung der Einzelstreckenmessung beträgt beim Laserscanner 2 bis 5 mm. Neben den geometrischen Messgrößen registrieren viele Scanner die Intensität des reflektierten Messsignals. Prinzipiell ist zu beachten, dass beim Laserscanning insbesondere hinsichtlich der Streckenmessung dieselben Probleme wie bei der reflektorlosen Distanzmessung mit einem Tachymeter auftreten können (Abschn. 3.3). Da im Gegensatz zur Tachymetrie der Objektraum automatisch abgetastet wird, d. h. ohne Diskretisierung des Messobjekts und manuelles Auslösen der Messung durch den Operateur, können spezielle Effekte in den Punktwolken auftreten. Dazu gehören insbesondere virtuelle Punkte, die durch Mehrfachreflexionen (z. B. an Boden, Wandoder Glasflächen), sich temporär im Objektraum befindliche Objekte (z. B. sich bewegende Personen) oder Strahldivergenz an Objektkanten entstehen können [26]. Da beim Laserscanning jedoch viele Messpunkte in der unmittelbaren Umgebung erfasst werden, können derartige Ausreißer durch Analyse der Punktnachbarschaft eliminiert werden. Die Scannerstandorte werden prinzipiell frei gewählt, der Aufbau des Instrumentes über Festpunkte ist also nicht erforderlich. Auf jedem Standort entsteht in der Regel eine Punktwolke, die zunächst im lokalen, im Allgemeinfall nicht horizontierten Sensorkoordinatensystem koordiniert ist. Für die Weiterverarbeitung werden die einzelnen Punktwolken in ein gemeinsames Koordinatensystem überführt, was als
2 Bauaufnahme, Gebäudeerfassung und BIM
45
Registrierung bezeichnet wird. Die Registrierung kann über hochreflektierende Zielmarken (Reflexfolien, Passkugeln oder -zylinder), in den Punktwolken extrahierbare Merkmale wie Ecken, Kanten oder Ebenenstücke sowie über die Punktwolken selbst (ICP-Algorithmen) erfolgen [5]. Mathematisch gesehen finden zwischen den Punktwolken räumliche Ähnlichkeitstransformationen anhand von gemeinsamen Passelementen statt. Die Laserscanner sind gewöhnlich mit der entsprechenden Software des Herstellers für die Registrierung ausgestattet, die sich in Handhabung und Automatisierungsgrad unterscheiden. Die Informationen über Bauwerksgeometrie und -struktur befinden sich mittelbar in den 3D-Punktwolken. Bei der Auswertung der Punktwolken können – ähnlich wie bei der Tachymetrie – drei grundsätzliche Verfahren unterschieden werden: • Direkt-Erfassung in Schnittebenen: Die Punktwolke wird hierbei mit zumeist horizontalen oder vertikalen Ebenen, die in der Praxis mehr oder weniger breite Korridore sind, zum Schnitt gebracht; in diesen Schnittkorridoren wird das entsprechende Profil für den Operateur sichtbar. Der Profilverlauf kann dann manuell oder (teil-)automatisch nachgezeichnet werden. Hierbei muss beachtet werden, dass die gescannten Punkte streuen und auf der Objektoberfläche mehr oder weniger willkürlich verteilt sind. Der Vorteil der Schnittebenenmethode besteht darin, dass unmittelbar 2D-Standardzeichnungen wie Grundrisse und Vertikalschnitte entstehen und das Verfahren sich durch Einfachheit auszeichnet. • Konturbezogene Erfassung: Hierbei wird die Bauwerksstruktur aus den Punktwolken in Form von Ecken, Kanten und Ebenen erfasst. Das Ergebnis ist ein dreidimensionales Drahtmodell. Da die Messpunkte des Scanners im Regelfall nie direkt auf den Ecken und Kanten liegen, müssen indirekte Auswertemethoden zum Einsatz kommen. Zum Beispiel ergibt sich eine Objektkante durch den Schnitt benachbarter Ebenen. Da bei diesen Prozeduren häufig über eine große Anzahl an Messpunkten gemittelt wird, oft in Verbindung mit Filterund Glättungsverfahren, kann die geometrische Genauigkeit der so abgeleiteten Konturelemente im Millimeterbereich, und somit für Bauaufnahmen sehr hoch, liegen. • 3D-Modellierung: Für BIM hat diese Auswertemethode die größte Bedeutung, denn sie schafft die Voraussetzungen für die ganzheitliche Objektdarstellung mit Bauteilbildung und Attributierung. Die geometrische Gestalt des Bauwerks wird aus den Punktwolken in Form von Flächen, Quadern, Zylindern, Kegeln und anderen Primitiven modelliert, indem diese Elemente in die Punktwolke durch spezielle Fitting-Algorithmen eingepasst werden. Dieser Vorgang findet zumeist halbautomatisch statt, d. h. die Punkte für den Fitting-Vorgang werden durch den Operateur manuell selektiert und anschließend von der Software automatisch für die Einpassung der Primitive verarbeitet (z. B. PHIDIAS), wobei auch die Objektbildung für BIM von einigen Produkten unterstützt wird (z. B. Scalypso7 ). Die vollständige Automatisierung dieser Aufgabe ist Gegenstand der aktuellen
7
http://www.scalypso.com [Zugegriffen im März 2016].
46
J. Blankenbach
Forschung, sie gelingt zumindest in Teilbereichen aber heute schon. Die 3DModellierung aus Punktwolken besitzt überwiegend eine sehr hohe Genauigkeit, weil die Geometriebestimmung anhand von vielen Messpunkten erfolgt. Laserscanner sind spezialisierte Messinstrumente mit extrem hohen Messraten. Neueste Entwicklungen gehen dahin, Tachymeterinstrumente zusätzlich mit Scanfunktionen sowie integrierten Kameras für die Bildaufzeichnung auszurüsten (z. B. Leica Nova MS608 oder Trimble VX.9 ) Neben den klassischen Winkel- und Streckenmessungen können dadurch mit demselben Instrument auch einfache Scans durchgeführt werden, dies ggf. in Verbindung mit Farbaufnahmen. Die Messrate im Scanmodus beträgt allerdings zurzeit maximal 1000 Hz, was die Einsatzmöglichkeiten dieser Technologie auf Ergänzungsmessungen beschränkt. Für die Zukunft ist jedoch zu erwarten, dass die Messsensoriken für Tachymetrie, Photogrammetrie und Laserscanning – zum Vorteil für die Bauvermessung – in einem Universalinstrument verschmelzen.
3.6
Laserscanning in Kombination mit Photogrammetrie
Die beiden Messverfahren Laserscanning und Photogrammetrie können sich sehr gut ergänzen und die jeweiligen Nachteile der anderen Methode kompensieren. Die Schwächen bei der Tiefenmessgenauigkeit, die der Photogrammetrie verfahrensbedingt innewohnen, besitzt das Laserscanning nicht. Umgekehrt haben die photogrammetrischen Aufnahmen eine höhere Auflösung an der Objektoberfläche und die Detailerkennbarkeit ist demzufolge deutlich höher als bei Laserscannerdaten. Das Auswertesystem PHIDIAS macht sich diesen Sachverhalt zunutze und kombiniert die orientierten Aufnahmen mit den dreidimensionalen Punktwolken für die Geometrieerfassung (Abb. 10). Dabei werden die Punktwolken lagerichtig und deckungsgleich über die orientierten Bilder dargestellt. Der Operateur betrachtet also beide gleichzeitig und kann auch in beiden simultan messen. Im einfachsten Fall misst der Auswerter mit der Maus einen einzelnen, dreidimensionalen Punkt: Die Lokalisierung erfolgt visuell vorwiegend anhand des Bildes, die 3D-Koordinatenbestimmung findet dagegen in der Punktwolke statt (Monoplotting, [36]). Zwischen den Messungen nur in der Punktwolke, nur in den Aufnahmen sowie der Kombinationsmessung kann fortwährend gewechselt werden. Hierbei werden entweder die Standardzeichenfunktionen des CAD-Systems oder spezielle Tools benutzt, wie beispielsweise die (semi-) automatische Bestimmung von Leitungsrohren. Die Erfassung der Bauwerksgeometrie ist in Form von Draht-, Flächen- oder Volumenmodellen möglich. Das grafische Ergebnis wird durch Superimposition über Bilder und Punktwolken eingeblendet, so dass der Auswerter laufend Fortschritt und Richtigkeit der Auswertung kontrollieren kann.
8
http://www.leica-geosystems.com/de/Leica-Nova-MS60_106652.htm [Zugegriffen im März 2016]. 9 http://www.trimble.com/3d-laser-scanning/vx.aspx [Zugegriffen im März 2016].
2 Bauaufnahme, Gebäudeerfassung und BIM
47
Abb. 10 PHIDIAS – Kombinierte Auswertung von Bildaufnahmen und Punktwolken (Bildquelle: PHOCAD GmbH)
3.7
Mobile-Mapping-Systeme
Im Gegensatz zur stationären Vermessung mit einem Tachymeter oder Laserscanner von einem Stativ aus können Aufnahmen auch von beweglichen Plattformen aus erfolgen. Kinematisches Laserscanning wurde zuerst in Flugzeugen eingesetzt (Airborne LiDAR) und mittlerweile auch in Landfahrzeugen. Die Aufnahmesensoren der Mobile-Mapping-Systeme, meist Kameras und Laserscanner, werden durch weitere Sensoren ergänzt, die zur Positionsbestimmung nötig sind [31]. Die Geschwindigkeit der Datenerfassung ist im Vergleich zur stationären Aufnahme um ein Vielfaches höher und insbesondere bei großflächigen Aufnahmen ganzer Straßennetze oder Stadtmodelle effizienter.
3.7.1 Sensoren Die meisten Mobile-Mapping-Systeme sind mit einem oder mehreren Laserscannern, sog. Profil- oder 2D-Scannern, ausgestattet. Da die Plattform mit dem Fahrzeug beweglich ist, muss der Laserstrahl nur noch um eine Achse rotiert werden, um die gesamte Umgebung abzudecken. Liegt die Drehachse parallel zur Fahrtrichtung, beschreibt der Laserstrahl eine spiralförmige Bahn. Bei konstanter Dreh- und Pulsrate des Scanners bestimmt die Fahrgeschwindigkeit den Abstand der Profillinien bzw. die Dichte der resultierenden Punktwolke. Bei einer Drehrate von 100 Hz und einer Fahrgeschwindigkeit von 10 m/s (D36 km/h) beträgt der
48
J. Blankenbach
Abstand zwischen den Profilen beispielsweise 10 cm. Der Abstand der Punkte in der Profillinie (also quer zur Fahrtrichtung) beträgt bei einer Messrate von 500.000 Punkten pro Sekunde und einer durchschnittlichen Objektentfernung von 10 m ca. 13 mm. Für die Aufnahme von Gebäuden werden meist zwei Profilscanner eingesetzt, deren Drehachsen relativ zur Fahrtrichtung nach links und rechts um einen gewissen Betrag verdreht sind (Abb. 11). Der Vorteil dieser Anordnung besteht darin, dass auch Flächen, die senkrecht zur Fahrtrichtung stehen, erfasst werden können. Bei hohen Geschwindigkeiten im laufenden Verkehr reicht die Punktdichte des Laserscanners nicht aus, um kleine Details wie z. B. schmale Masten, Leitungen, Fassadendetails oder Fahrbahnschäden zu erfassen. Zur Steigerung der Detailauflösung setzt man in der Regel mehrere Digitalkameras ein, die je nach Einsatzbereich unterschiedliche Richtungen abdecken. Zur Erfassung des Straßenraums reichen jeweils eine Front- und Heckkamera aus, für die Aufnahme von Gebäudefassaden benötigt man eventuell zusätzliche Kameras. Voraussetzung für die Auswertung der Laserscannerdaten und Digitalfotos ist, dass zu jedem Zeitpunkt die Position und Rotation der Aufnahmeplattform bekannt ist. Die Position kann mit GNSS je nach Sichtbarkeit der Satelliten auf wenige Zenti- oder Dezimeter bestimmt werden. Zur Bestimmung der Rotationen mit der erforderlichen Frequenz und Genauigkeit wird in der Regel ein Inertialmesssystem eingesetzt [31].
Abb. 11 Mobile Scanning System Riegl VMX-250 (Bildquelle: RIEGL Laser Measurement Systems)
2 Bauaufnahme, Gebäudeerfassung und BIM
49
Zur Stützung der Navigation und Überbrückung von Satellitenempfangslücken aufgrund von Brücken, Tunneln oder hoher Bebauung können weitere Sensoren eingesetzt werden, wie z. B. ein Barometer zur indirekten Bestimmung des Höhenunterschieds und Radsensoren (Odometer) zur Messung der Wegstrecke bzw. von Richtungsänderungen.
3.7.2 Positionsbestimmung Die Daten der verschiedenen Sensoren mit unterschiedlichen Genauigkeiten und Frequenzen werden im Postprocessing ausgeglichen (Abb. 12). Eine sofortige Korrektur der Satellitensignale im RTK-Modus ist in der Regel nicht erforderlich. Die Qualität der ausgeglichenen Messdaten hängt von verschiedenen Faktoren wie der Satellitensichtbarkeit, der Qualität des Inertialmesssystems, der Verteilung zusätzlicher Passpunkte und dem Ausgleichungsverfahren ab. Die Genauigkeit bezogen auf das globale Koordinatensystem kann im günstigen Fall bei ca. 2 cm Standardabweichung liegen. Die relative Genauigkeit, mit der Fahrbahnunebenheiten oder Gebäudeverformungen bestimmt werden, kann sogar deutlich unter 1 cm liegen [19]. 3.7.3 Datenauswertung Es wird zwar angestrebt, durch Kombination vieler verschiedener Sensoren die nötigen Daten möglichst lückenlos zu erfassen, eine vollständige Abdeckung ist aber nicht immer erreichbar. Teile der Straßenoberfläche bleiben auch trotz mehrfacher Befahrung von Fahrzeugen verdeckt, Gebäude werden bei einer Aufnahme von der Straße aus nur teilweise erfasst und für die Auswertung von Dachflächen müssen Luftbilder hinzugezogen werden. Der wesentliche Vorteil der Mobile-Mapping-Systeme ist die schnelle und effiziente Erfassung von Messdaten großer Bereiche. Der entscheidende Schritt zum Endprodukt, das „Mapping“, erfolgt allerdings vorwiegend nicht mobil, sondern im Postprocessing zu einem großen Teil manuell (siehe Abschn. 3.6 und Abb. 13). Der Automatisierungsgrad ist bei einfachen Endprodukten wie z. B. Orthophotos von Straßenoberflächen zur Schadensanalyse sehr hoch. Auch für einfache Visualisierungszwecke kann ein Flächennetz der Gebäudefassaden weitgehend automatisiert
Abb. 12 Darstellung der eingefärbten Punktwolke und Trajektorie einer Aufnahme mit dem Mobile Scanning System Riegl VMX-250, Canal Grande, Venedig (Bildquelle: RIEGL Laser Measurement Systems)
50
J. Blankenbach
Abb. 13 Auswertung mobil aufgenommener Scandaten und Fotos mit PHIDIAS (Bildquelle: PHOCAD GmbH)
aus der Punktwolke generiert und mit Fototextur belegt werden. Die detaillierte Modellierung von komplexen Gebäuden – insbesondere für BIM-Anwendungen – ist dagegen nur begrenzt automatisierbar.
4
Fazit
Mit den vorgestellten Verfahren zur Bauaufnahme stehen bewährte Methoden für das Aufmaß, d. h. für die Geometrieerfassung von Bauwerken, sei es durch Einzelpunktverfahren (elektronisches Handaufmaß, Tachymetrie) oder flächenhaft erfassende Sensoren (Photogrammetrie, Laserscanning), zur Verfügung. Der Trend in der Instrumentenentwicklung geht zu Multisensorsystemen, die verschiedene Messtechnologien entweder in einem Instrument integrieren (z. B. Tachymeterinstrument mit Scanfunktion und integrierter Kamera) oder auf einer Plattform (z. B. Mobile-Mapping-Systeme) kombinieren. Für die Bauwerksmodellierung, sei es für die Stadtmodellierung oder im Kontext von BIM, werden jedoch neue Anforderungen an die Bauaufnahme gestellt. BIM wird sich mittelfristig in Deutschland etablieren und zum Standard im Bauwesen werden. An die Bauaufnahme bzw. Bauvermessung, insbesondere hinsichtlich der Bestandsdokumentation (as-built), werden damit neue Anforderungen gestellt. Hatte die Vermessung in der Vergangenheit die Aufgabe, das Aufmaß von Bestandgebäuden oder Neubauten hauptsächlich in Form von Soll-Ist-Vergleichen, bemaßten 2D-Plänen oder als einfache digitale CAD-Planwerke (z. B. für CAFM) zu liefern, werden nun zunehmend dreidimensionale digitale Bauwerksmodelle
2 Bauaufnahme, Gebäudeerfassung und BIM
51
mit volumenkörperorientierter Objektmodellierung inklusive deren Semantik und Beziehungen sowie ggf. beschreibender Eigenschaften gefordert. Einige aktuelle Aufmaß-Softwareprodukte unterstützen bereits in Ansätzen die Erzeugung von BIM-Modellen, z. B. durch die Möglichkeit der Bauteilbildung oder vermehrt durch erweiterte Funktionalitäten bei der Erzeugung von Bauwerksmodellen aus Punktwolken. Dennoch verbleibt für die Ableitung semantischer Bauwerksmodelle ein großes Optimierungs- und Automatisierungspotenzial bei der Vermessung bezogen auf den gesamten Workflow von der Datenaufnahme vor Ort, über die Daten(nach)prozessierung bis hin zur Datenbereitstellung [32]. Bei den Einzelpunktverfahren stellt die Vermessung aufgrund der Modelldiskretisierung vor Ort einen maßgeblichen Zeitfaktor dar. Effizientere softwaregestützte Aufmaßtechniken können hierbei helfen, den erforderlichen Messungsaufwand zu minieren und bereits vor Ort alle benötigten Informationen (z. B. Bauteilbildung mit Geometrie, Semantik und ggf. Sachdaten) zu erfassen. Bei den Massendatenverfahren liegt der Hauptaufwand in der Datennachbearbeitung, so dass die Herausforderung darin besteht, den teilweise sehr hohen manuellen Datenbearbeitungsaufwand durch intelligente Softwareprozesse (z. B. verbesserte geometrische Strukturanalyse, Ableitung der Semantik) zu minimieren. Auch die angesprochenen multisensoralen Erfassungssysteme in Kombination mit neuen Auswerteverfahren (z. B. SfM/Dense Image Matching), können hier zu neuen Ansätzen hinsichtlich einer effizienten Bauwerksvermessung führen. Die überbestimmte und komplementäre Datenerfassung ermöglicht dabei nicht nur eine verbesserte Geometriebestimmung und gegenseitige Stützung, sondern könnte auch neue Möglichkeiten zur teilautomatisierten Modellbildung und Ableitung weiterer Informationen (z. B. die Semantik) für höherwertige digitale Bauwerksmodelle erschaffen.
Literatur 1. Bay, H., Tuytelaars, T., Van Gool, L.: SURF: speeded up robust features. In: Proceedings of the 9th European Conference on Computer Vision. Springer, Berlin/New York (2006) 2. Becker, S.: Generation and application of rules for quality dependent facade reconstruction. ISPRS J. Photogramm. Remote Sens. 64, 640–653 (2009) 3. BMVI: Stufenplan Digitales Planen und Bauen. https://www.bmvi.de/SharedDocs/DE/ Publikationen/DG/stufenplan-digitales-bauen.pdf (2016). Zugegriffen im März 2016 4. Benning, W., Effkemann, C., Schwermann, R.: Erfassung von Straßenräumen durch Kombination von Laserscanning und Photogrammetrie. In: Wunderlich, T. (Hrsg.) Ingenieurvermessung 10. Beiträge zum 16. Internationalen Ingeniervermessungskurs, München. Wichmann-Verlag, Heidelberg (2010) 5. Besl, P.J., McKay, N.D.: A method for registration of 3-D shapes. IEEE Trans. Pattern Anal. Mach. Intell. 14(2), 239–256 (1992) 6. Bill, R., Bernard, L., Blankenbach, J.: Geoinformationssysteme. In: Kummer et al. (Hrsg.) Das deutsche Vermessungs- und Geoinformationswesen 2015. Wichmann-Verlag, Berlin (2014) 7. Blankenbach, J., Schwermann, R.: Photogrammetrische Deformationsvermessung von Haubenschildrohren für den Rohrvortrieb. In: Wieser, A. (Hrsg.) Ingenieurvermessung 14. Beiträge zum 17. Internationalen Ingeniervermessungskurs, Zürich. Wichmann-Verlag, Berlin (2014) 8. BMVI: Reformkommission Bau von Großprojekten des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) (2015). http://www.bmvi.de/DE/VerkehrUndMobilitaet/ Verkehrspolitik/Grossprojekte/grossprojekte_node.html (2016). Zugegriffen im März 2016
52
J. Blankenbach
9. BMVI: Stufenplan Digitales Planen und Bauen - Einführung moderner, IT-gestützter Prozesse und Technologie bei Planung, Bau und Betrieb von Bauwerken (2015). https://www.bmvi.de/ SharedDocs/DE/Publikationen/DG/stufenplan-digitales-bauen.pdf?__blob=publicationFile (2016). Zugegriffen im März 2016 10. Brandenburger, W., Drauschke, M., Nguatem, W., Mayer, H.: Detektion von Fensterverdachungen und Gesims in Fassadenbildern und Punktwolken. DGPF Tagungsband 22, 33. Wissenschaftlich-Technische Jahrestagung der DGPF, Freiburg (2013) 11. Brechtken, R., Borchert, R., Przybilla, H.-J., Roderweiß, R.M.: Auswertung von Bilddaten aus UAV-Flügen – Von der klassischen Aerotriangulation zum Dense Image Matching. Terrestrisches Laserscanning 2012 (TLS 2012), Schriftenreihe des DVW, Bd. 69. Wißner Verlag, Augsburg (2012) 12. BuildingSMART: (2015) BuidlingsSMART international. http://www.buildingsmart.org/ (2016). Zugegriffen im März 2016 13. Clemen, C., Ehrich, R.: Geodesy goes BIM. Allgemeine Vermessungs-Nachrichten (AVN) 121(6), 231–237 (2014) 14. Cramer, M., Haala, N., Rothermel, M., Leinss, B., Fritsch, D.: UAV-gestützte Datenerfassung für Anwendungen der Landesvermessung – das Hessigheim-Projekt. 33. WissenschaftlichTechnische Jahrestagung der DGPF, Freiburg, Bd. 22 (2013) 15. Donath, D.: Bauaufnahme und Planung im Bestand. Grundlagen – Verfahren – Darstellung – Beispiele, 1. Aufl., Vieweg und Teubner, Wiesbaden (2009) 16. Egger, M., Hausknecht, K., Liebich, T., Przybylo, J.: BIM-Leitfaden für Deutschland – Informationen und Ratgeber. Forschungsendbericht im Forschungsprogramm ZukunftBAU des BMVBS. Selbstverlag, Bonn. (2013) 17. Haala, N., Cramer, M.: Möglichkeiten und Grenzen der UAV-gestützten photogrammetrischen 3D-Datenerfassung. In: Multi-Sensor-Systeme – Bewegte Zukunftsfelder, Schriftenreihe des DVW, Bd. 75. Wißner Verlag, Augsburg (2014) 18. Haala, N., Becker, S., Kada, M.: Cell decomposition for the generation of building models at multiple scales. In: IAPRS, Symposium Photogrammetric Computer Vision, Bonn, Bd. XXXVI, Part III, 19–24 (2006) 19. Haala, N., Peter, M., Kremer, J., Hunter, G.: Mobile LiDAR mapping for 3D point cloud collection in urban areas – a performance test. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. 37, 1119–1124 (2008) 20. Haala, N., Cramer, M., Weimer, F., Trittler, M.: Performance Test on UAV-based data collection. In: Proceedings of the International Conference on Unmanned Aerial Vehicle in Geomatics (UAV-g), IAPRS, Zuerich, Bd. XXXVIII-1/C22, 7–12 (2011) 21. Hirschmüller, H.: Stereo processing by semiglobal matching and mutual information. IEEE Trans. Pattern Anal. Mach. Intell. 30, 328–341 (2008) 22. HOAI: Honorarordnung für Architekten und Ingenieure (HOAI) (2013). http://www.hoai.de/ online/HOAI_2013/HOAI_2013.php (2016). Zugegriffen im März 2016 23. Lowe, D.G.: Distinctive image features from scale-invariant keypoints. Int. J. Comput. Vis. 60, 91–110 (2004) 24. Luhmann, T.: Nahbereichsphotogrammetrie – Grundlagen, Methoden und Anwendungen, 3. Aufl., Wichmann Verlag, Berlin (2010) 25. Mayer, H., Bartelsen, J., Hirschmüller, H., Kuhn, A.: Dense 3D reconstruction from wide baseline image sets. Outdoor and large-scale real-world scene analysis. In: 15th International Workshop on Theoretical Foundations of Computer Vision, Dagstuhl Castle. Lecture Notes in Computer Science, Bd. 7474, S. 285–304 (2012) 26. Möser, M., Hoffmeister, H., Müller, G., Staiger, R., Schlemmer, H., Wanninger, L.: Handbuch Ingenieurgeodäsie – Grundlagen, 4. Aufl., Wichmann Verlag, Berlin (2012) 27. Naumann, M., Geist, M., Bill, R., Niemeyer, F., Grenzdörffer, G.: Accuracy Comparison of Digital Surface Models Created by Unmanned Aerial Systems Imagery and Terrestrial Lasers Scanner. ISPRS XL-1/W2 (2013)
2 Bauaufnahme, Gebäudeerfassung und BIM
53
28. NBIM: BIM-Definition des National Building Information Model Standard Project Committee (NBIM) (2015). https://www.nationalbimstandard.org/faqs#faq1 (2016). Zugegriffen im März 2016 29. OGC: CityGML-Spezifikation des Open Geospatial Consortiums (OGC) (2015). http://www. opengeospatial.org/standards/citygml (2016). Zugegriffen im März 2016 30. Prince, S.J.D.: Computer Vision – Models, Learning and Inference. Cambridge University Press, New York (2012) 31. Puente, I., González-Jorge, H., Martínez-Sánchez, J., Arias, P.: Review of mobile mapping and surveying technologies. Measurement 46(7), 2127–2145 (2013) 32. Real Ehrlich, C., Blankenbach, J.: 3D-Innenraummodellierung – Von der Datenerfassung bis zur Visualisierung auf Basis eines geometrisch-topologischen Datenmodells. Publikationen der DGPF, Bd. 20 (2011) 33. Remondino, F., Kersten, T.: Low-cost und open-source Lösungen für die automatisierte Generierung von 3D-Punktwolken – ein kritscher Überblick. Terrestrisches Laserscanning 2012 (TLS 2012), Schriftenreihe des DVW, Bd. 69. Wißner Verlag, Augsburg (2012) 34. Riegel, K.: Vergleich von Softwarelösungen für die optimierte Erstellung von BIM-Modellen auf Grundlage von 3D-Laserscanpunktwolken. Allgemeine Vermessungs-Nachrichten (AVN), 122(8–9) (2015) 35. Rothermel, M., Wenzel, K., Fritsch, D., Haala, N.: SURE: Photogrammetric surface reconstruction from imagery. In: Proceedings LC3D Workshop, Berlin (2012) 36. Schwermann, R., Effkemann, C.: Kombiniertes monoplotting in laserscanner- und Bilddaten mit PHIDIAS. In: Luhmann (Hrsg.) Photogrammetrie und Laserscanning – Anwendung für As-Built-Dokumentation und Facility Management. Wichmann Verlag, Heidelberg (2002) 37. Süße, H., Rodner, E.: Bildverarbeitung und Objekterkennung – Computer Vision in Industrie und Medizin. Springer, Wiesbaden (2014) 38. Szeliski, R.: Computer Vision – Algorithms and Applications. Springer, London (2011) 39. Wangerin, G.: Bauaufnahme: Grundlagen, Methoden, Darstellung, 2. Aufl. Vieweg, Wiesbaden (1992) 40. Wiedemann, A.: Handbuch Bauwerksvermessung – Geodäsie – Photogrammetrie – Laserscanning, 1. Aufl. Birkhäuser Verlag, Basel (2004) 41. Witte, B., Sparla, P.: Vermessungskunde und Grundlagen der Statistik für das Bauwesen, 7. Aufl., Wichmann Verlag, Berlin (2011)
3
Indoor-Positionierung Jörg Blankenbach, Harald Sternberg und Sebastian Tilch
Inhaltsverzeichnis 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Begriffsbestimmung und Abgrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Taxonomie und Systemauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Infrastrukturgestützte Positionierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Ultraschall-basierte Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Ultra-Wideband (UWB)-basierte Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Magnetfeldbasierte Positionierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Bildbasierte Positionierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Grundlagen der bildbasierten Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Einteilung bildbasierter Positionierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Autonome und hybride Positionierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Trägheitsnavigation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Inertialsensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Sensorfusion (Kalman-Filter/Partikelfilter) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56 57 57 57 58 59 61 66 69 70 70 70 78 78 78 79 81
J. Blankenbach () Geodätisches Institut und Lehrstuhl Bauinformatik & Geoinformationssysteme, RWTH Aachen University, Aachen, Deutschland E-Mail:
[email protected] H. Sternberg Ingenieurgeodäsie und geodätische Messtechnik, HafenCity Universität Hamburg, Hamburg, Deutschland E-Mail:
[email protected] S. Tilch Unterentfelden, Schweiz E-Mail:
[email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 W. Schwarz (Hrsg.), Ingenieurgeodäsie, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47188-3_24
55
56
J. Blankenbach et al.
5.5 Beispielanwendung: Smartphonepositionierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Weitere Arbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82 86 87 87
Zusammenfassung
Die automatische Positionsbestimmung innerhalb von Bauwerken (IndoorPositionierung) hat sich innerhalb der letzten Dekade zu einem eigenständigen Forschungs- und Anwendungsgebiet entwickelt. Neben Massenmarktanwendungen (z. B. standortbezogene Dienste) kommt der Innenraumpositionierung auch in Industrie- und Ingenieuranwendungen (z. B. Ingenieurnavigation) eine zunehmend wichtigere Bedeutung zu. Im vorliegenden Kapitel wird ein Überblick über den aktuellen Stand der Technik gegeben und ein besonderer Schwerpunkt auf Anwendungen und Systeme gelegt, die in den letzten Jahren in der Geodäsie entwickelt wurden. Schlüsselwörter
Indoor-Positionierung • Innenraumlokalisierung • Lokale Positionierungssysteme • Bildbasierte Positionsbestimmung • Infrastrukturgestützte Positionierung • Autonome Systeme • Hybride Systeme
1
Einleitung
Das Thema „Indoor-Positionierung“ hat sich in den letzten Jahren zu einem eigenständigen Forschungs- und Arbeitsthema entwickelt, in dem verschiedene Fachdisziplinen (insbes. Elektrotechnik, Informatik, Geodäsie) tätig sind. Obwohl bereits vereinzeltet Forschungsarbeiten zur Thematik aus früheren Jahren, u. a. [71], existieren, wurde das Thema erst in der letzten Dekade intensiv und in der Breite verfolgt. Der Grund für den gestiegenen Bedarf an Systemen zur automatischen Positionsbestimmung von Personen oder Objekten im Allgemeinen liegt in den rasanten Weiterentwicklungen sowohl der Sensorik als auch der (mobilen) Informationstechnik (IT). Durch die große Verbreitung der Positionierungssensorik, u. a. in massenmarktverfügbaren mobilen Endgeräten (z. B. Smartphones), nutzen bereits heute zahlreiche Anwendungen die Möglichkeit zur automatischen Positionsbestimmung, u. a. für -
Fußgängernavigation und Besucherführung, Personenortung, z. B. von Sicherheits- und Rettungskräften, Warenverfolgung/Tracking, Führung von Maschinen und Werkzeugen, Wartungs-, Inspektions- und Dokumentationsaufgaben, Lokalisierungsaufgaben (autonom) fahrender Vehikel (z. B. fahrerlose Transportsysteme, mobile Roboter, Mobile-Mapping-Systeme).
3 Indoor-Positionierung
57
Viele der genannten Anwendungen benötigen jedoch eine ubiquitäre Positionierung und damit die Möglichkeit zur Lokalisierung sowohl im Außen- wie im Innenbereich (outdoor/indoor). Während im Außenbereich GNSS zum Standard geworden ist, scheiden globale, satellitenbasierte Systeme innerhalb von Bauwerken aufgrund der unzureichenden Nutzbarkeit der Satellitensignale in der Regel aus. Der Grund dafür liegt in der Abschattung bzw. Dämpfung der Signale durch die Bauwerksstruktur sowie an Signalausbreitungseffekten (Mehrwegefehler, Signalbeugung, Laufzeitverzögerung beim Durchgang durch Baumaterialien etc.) im Innenbereich. Für die Positionierung innerhalb von Bauwerken oder überbauten Arealen wurden daher in den letzten Jahren alternative Technologien für den Aufbau von (lokalen) Indoor-Positionierungssystemen untersucht.
2
Begriffsbestimmung und Abgrenzung
Der Übergang von Systemen zur automatischen Positionsbestimmung im Innenbereich zu Systemen aus der geodätischen Messtechnik ist zuweilen fließend. Trotzdem erscheint eine Abgrenzung von Indoor-Positionierungssystemen aufgrund der Vielzahl von verfügbaren Technologien sinnvoll.
2.1
Definition
Ein Indoor-Positionierungssystem ist ein System, bestehend aus Hardware, Software und Daten, das die automatische Positions- und/oder Orientierungsbestimmung von Personen oder Objekten innerhalb von Gebäuden oder überbauten Arealen in Echtzeit ermöglicht.
Im Englischsprachigen besteht durch obige Definition eine Assoziation zu Real-Time Locating Systems (RTLS), die zwar nicht notwendigerweise nur auf den Indoor-Bereich beschränkt sind, aber üblicherweise auf der Basis eines lokalen Positionierungssystems – in der Regel mit Funksystemen – realisiert werden [26]. In Abhängigkeit vom Genauigkeitspotenzial wird die Positionsangabe bei IndoorPositionierungssystemen entweder in Form von mathematischen Koordinaten oder semantisch angeben. Im erstgenannten Fall ist die Angabe oft auf ein lokales kartesisches Koordinatensystem (z. B. Bauwerkskoordinatensystem) bezogen. Semantische Positionsangaben finden sich hingegen bei Systemen mit geringerer Genauigkeit und geben die Position beschreibend beispielsweise in Form der Raumnummer/Etage für die Fußgängernavigation an.
2.2
Taxonomie und Systemauswahl
Die Klassifizierung von Indoor-Positionierungssystemen kann nach verschiedenen Kriterien, wie Genauigkeit, Reichweite, Basistechnologie, Positionsangabe, Schätzprinzip, Kosten etc., erfolgen [20, 23, 32, 36, 39].
58
J. Blankenbach et al.
Im vorliegenden Kapitel werden die Ansätze nach der benötigten Hardware/ Infrastruktur und verwendeten Basistechnologie gegliedert. Die Auswahl der Systeme orientiert sich dabei an lokalen Innenraumpositionierungssystemen, die in der Geodäsie entwickelt wurden. Globale Systeme, wie High Sensitivity GNSS (HSGNSS), die (unter bestimmten Voraussetzungen und mit Genauigkeitseinschränkungen gegenüber dem Außenbereich) auch innerhalb von Bauwerken einsetzbar sind, werden dabei nicht betrachtet; dazu sei u. a. auf [53, 55, 70] verwiesen.
3
Infrastrukturgestützte Positionierungssysteme1
Zahlreiche Indoor-Positionierungssysteme benötigen eine Hardwareinfrastruktur bestehend aus fest installierten (stationären) Sende- bzw. Empfangsstationen (Referenzstation) sowie mobilen Empfangs- bzw. Sendeeinheiten (Mobilstation). Meist auf der Basis drahtloser Datenübertragungstechnologien werden akustische oder elektromagnetische Signale zwischen den Referenzstationen und der Mobilstation ausgetauscht und ausgewertet, um die unbekannte Position der Mobilstation zu bestimmen. Die Positionsschätzung kann dabei entweder durch Anwendung approximativer/grobkörniger (coarse-grained) oder exakter/feinkörniger2 (finegrained) Schätzverfahren erfolgen. Im erstgenannten Fall werden beispielsweise topologische Informationen zur Lokalisierung nach dem Annäherungsprinzip (z. B. Cell of Origin, CoO), Signalpegel zur gewichteten Schwerpunktbildung (Weighted Centroid Localization, WCL) oder gespeicherte Signalstärkemuster durch Szenenanalyse (z. B. RSS-Fingerprinting) für die Positionsschätzung genutzt (Abb. 1). Für die Anwendung der exakten Verfahren werden hingegen geometrische Größen (Strecken, Streckendifferenzen oder Winkel) aus den zwischen Referenzund Mobilstation ausgetauschten Signalen durch Laufzeitmessung (Time of Arrival, ToA; Time of Flight, ToF), Laufzeitdifferenzmessung (Time Difference of Arrival, TDoA) oder Einfallswinkelmessung (Angle of Arrival, AoA) abgeleitet (Abb. 1). Mit Hilfe bekannter (geodätischer) Punktbestimmungsverfahren (Bogenschnitt, Hyperbel-/ Hyperboloidschnitt, Vorwärtsschnitt) lassen sich daraus die Positionen der Mobilstation in 2D oder 3D schätzen. Im Folgenden werden ausgewählte Technologien vorgestellt, auf deren Grundlage infrastrukturgestützte Indoor-Positionierungssysteme für Ingenieuranwendungen entwickelt wurden oder werden.
1
Dank gilt Herrn Dr. A. Norrdine für die Unterstützung bei der Erstellung dieses Abschnitts. Bezieht sich auf die (absolute) Genauigkeit der Positionslösung im Referenzsystem, die bei dieser Kategorie von Verfahren in der Regel höher ist. 2
3 Indoor-Positionierung
59
Abb. 1 Verfahren zur Positionsschätzung auf der Basis von infrastrukturgestützten Positionierungssystemen (in Anlehnung an [2])
3.1
Ultraschall-basierte Systeme
Schallwellen entstehen durch die Ausbreitung von Druckänderungen bzw. Druckschwankungen in elastischen Medien wie Gasen, Flüssigkeiten oder festen Stoffen. Unterschieden werden in Abhängigkeit von der Wellenlänge (bzw. Frequenz) verschiedene Arten von Schallwellen; Ultraschall bezeichnet dabei Schallwellen mit einer Frequenz oberhalb von 15 – 20 kHz. Ultraschallbasierte Positionierungssysteme stützen sich zumeist auf Distanzermittlungen zwischen den Referenzstationen und der Mobilstation nach dem ToAPrinzip, d. h. unter Berücksichtigung der Signalausbreitungsgeschwindigkeit lässt sich aus der Signallaufzeit die zurückgelegte Distanz ableiten. Die vergleichsweise geringe Ausbreitungsgeschwindigkeit der Schallwellen (in Luft 343 m/s bei 20 ı C Lufttemperatur) verringert dabei einerseits die Anforderungen an die erforderliche Synchronisation der Sende- und Empfangseinheiten und ermöglicht andererseits eine hohe Auflösung in der Laufzeitermittlung. Werden Distanzen zwischen der Mobilstation und mehreren Referenzstationen (n >D 3) ermittelt, erfolgt die Berechnung der 3D-Position der Mobilstation durch räumlichen Bogenschlag (Lateration). Eine Herausforderung für die ultraschallbasierte Lateration sind die hohe Temperaturabhängigkeit der Signalausbreitung, die Empfindlichkeit gegenüber akustischen Störquellen sowie die Richtcharakteristik der Sender. Im Gebäudeinnenraum
60
J. Blankenbach et al.
wirkt sich zusätzlich die Notwendigkeit der direkten Sichtverbindung (Line of Sight, LoS) zwischen Sender und Empfänger auf die Einsatzmöglichkeiten aus.
3.1.1 LPS – Local Positioning System In [71] wird bereits ein auf dem Laterationsprinzip basierendes lokales UltraschallPositionierungssystem (LPS) vorgestellt. Bei LPS sind im Messraum mehrere stationäre Ultraschallempfänger als Referenzstationen installiert und zur Synchronisation kabelgebunden mit einer Auswerteeinheit verbunden (Abb. 2). Ein Ultraschallsender agiert als Mobilstation. Mit Hilfe eines Messstabs mit zwei Sendeeinheiten können beliebige Messpunkte im Raum angetastet und dreidimensional bestimmt werden. Durch die Verwendung von zwei Sensoren an den beiden Sendern (Doppelsender) wird eine Rundumabstrahlung realisiert (Abb. 3).
Empfänger
Empfänger
Empfänger Z
Sender
Empfänger
Empfänger
Empfänger Y X
Abb. 2 Funktionsweise des LPS [52] Empfänger
Empfänger Empfänger
2
1
P Sender 1
Empfänger
Sender 2
Empfänger
Empfänger
Abb. 3 Doppelsender-Stab zur exzentrischen Punktbestimmung [52]
3 Indoor-Positionierung
61
Durch die räumliche und zeitliche Modellierung der atmosphärischen Einflüsse können 3D-Genauigkeiten (mittlere Punktabweichung zu Referenzpunkten eines Testfeldes) im Millimeterbereich (1–5 mm) erzielt werden. Die maximale Reichweite zwischen Sender und Empfänger wird mit 15 m angegeben, wodurch sich die Größe des abgedeckten Messvolumens in Abhängigkeit von der Anzahl der Referenzstationen ergibt [52, 71].
3.1.2 Weitere Systeme und Einsatzbereiche Mit Active Bat3 [61] und Cricket4 [47] existieren mittlerweile weitere UltraschallPositionierungssysteme nach dem Laterationsprinzip. Während bei Active Bat mobile Sender und fest installierte Empfänger verwendet werden, ist beim Cricket System der Empfänger mobil und die Sender sind fest installiert. Bei beiden Systemen wird neben dem Ultraschallsignal gleichzeitig ein Funksignal versendet, das aufgrund der deutlich höheren Ausbreitungsgeschwindigkeit (D Lichtgeschwindigkeit) quasi instantan im Empfänger detektiert wird und damit zur Synchronisation genutzt wird. Ultraschallbasierte Positionierungssysteme werden heute vor allem in Laborumgebungen im akademischen Bereich, in der Robotik und als TrackingTechnologie für Mixed-Reality-Umgebungen eingesetzt.
3.2
Ultra-Wideband (UWB)-basierte Systeme
Im Gegensatz zu Schallwellen wird die Signalausbreitung bei elektromagnetischen (E-)Wellen nicht in dem Maße durch atmosphärische Einflüsse beeinträchtigt. Eine alternative Technologie zum Aufbau von lokalen (fine-grained) Positionierungssystemen auf der Basis von E-Wellen stellt Ultra-Wideband (UWB) dar. UWB ist eine extrem breitbandige Funktechnologie mit einer Bandbreite von min. 500 MHz oder min. 20 % der Mittenfrequenz [16], die ursprünglich vor allem für die Nahbereichsfunkkommunikation (Wireless USB) mit hohen Datenraten diskutiert wurde. Aufgrund der großen Bandbreite und der damit verbundenen Gefahr der Störung von anderen existierenden Funksystemen wurde UWB behördlich reguliert. Die maximale Sendeleistung von -41 dBm/MHz liegt im Frequenzbereich von 3,1–10,6 GHz in Nordamerika [16] bzw. 6,0 GHz–8,5 GHz in Europa [11]. Für die Signalerzeugung zur Nachrichtenübermittlung werden bei UWB häufig sehr kurze digitale Impulse (Impulse Radio) anstelle von modulierten Signalen verwendet (Abb. 4). Auf diese Weise lassen sich Distanzen, Distanzunterschiede und/oder Winkel nach den ToA/ToF, TDoA oder AoA-Prinzip für die Positionsbestimmung ableiten.
3 4
http://www.cl.cam.ac.uk/research/dtg/attarchive/bat/ [Zugegriffen im März 2016]. http://cricket.csail.mit.edu/ [Zugegriffen im März 2016].
62
J. Blankenbach et al.
Abb. 4 UWB-Signal (modifiziert nach [4], [43])
Aufgrund der großen Bandbreite weist UWB eine Reihe von Vorteilen gegenüber herkömmlichen (schmalbandigen) Funksystemen nach [43] auf: • Erzeugung sehr kurzer Impulse im ps-Bereich und damit eine hohe räumliche Auflösung. • Robustheit gegenüber Mehrwegeeffekten, da die kurzen Impulse beim Impulse Radio trotz auftretender Mehrwegeausbreitung voneinander getrennt werden können. • Durch die hohe Frequenzdiversität tritt a) praktisch kein Signalschwund (Fading) auf und sind b) die Signale in der Lage verschiedene (Bau)Materialien zu durchdringen. • UWB-Systeme verwenden zumeist keine Trägerwelle und sind daher in ihrem Aufbau einfacher und preiswerter als Systeme, die mit modulierten Signalen arbeiten. Aufgrund der Begrenzung der Sendeleistung ist UWB für andere Funksysteme dabei kaum wahrnehmbar.
3.2.1 ILPS – Indoor Local Positioning System Das UWB ILPS (UWB Indor Local Positioning System) stellt einen Forschungsprototyp eines präzisen lokalen Positionierungssystems [4, 43] dar und wurde ursprünglich für die Unterstützung einer kamerabasierten Baufortschrittsdokumentation entwickelt [45]. Hauptbestandteil des Systems sind kombinierte UWB-Sende-
3 Indoor-Positionierung
63
und -Empfangsstationen (Transceiver) (Abb. 5), die als Referenzstationen (RS) und Mobilstation (MS) in einem Bauwerkskoordinatensystem fungieren (Abb. 6). Positionsschätzung Zur Positionsbestimmung werden die Raumstrecken zwischen der Mobilstation und den Referenzstationen durch ToF-Messung von UWB-Impulsen ermittelt. Die Bestimmung der ToF erfolgt dabei auf der Basis der Hin- und Rückmessung der Signallaufzeit zwischen Mobilstation und den Referenzstationen
Abb. 5 Systemarchitektur des UWB-ILPS (modifiziert nach [4])
Abb. 6 UWB-Transceiver [4]
64
J. Blankenbach et al.
(two-way-ranging) unter Berücksichtigung interner Korrekturen (z. B. Akquisitionszeit, innere elektrische Verzögerung) [4]. Die Referenzstationen agieren somit als eine Art aktiver Reflektor, wodurch keine Synchronisation zwischen den Transceivern erforderlich ist. Mit Hilfe der bekannten Koordinaten der Referenzstationen kann die unbekannte 3D-Position der Mobilstation (bei n > 3 RSi ) nach dem Laterationsprinzip durch einen überbestimmten räumlichen Bogenschnitt berechnet werden. Durch die Verwendung des Least Median of Squares (LMS) als robustes Schätzverfahren kann zunächst eine gute Lösung auch beim Vorliegen von Distanzen, die aufgrund von Laufzeitverzögerungen der Signale beim Durchgang durch Baumaterialien verfälscht sind, berechnet werden. Die Laufzeitverzögerungen werden somit als grobe Messabweichungen behandelt. Durch Verwendung des Medians als Zielfunktion können theoretisch bis zu 50% der Messungen verfälscht sein. Durch anschließende Re-Gewichtung der Beobachtungen erfolgt auf Grundlage dieser Lösung eine kleinste Quadrate-Schätzung (Reweigthed Least Squares, RLS) zur Berechnung einer optimalen Lösung [3, 4].
Eigenschaften und Entwicklungsstand Die Messungen mit dem Prototyp in realitätsnahen Umgebungen ergaben je nach Messbedingungen (geometrische Konstellation, LoS/NLoS-Messungen etc.) 3DGenauigkeiten (mittlere Punktabweichung zu Referenzpunkten eines Testfeldes) im Bereich von 2–5 cm [3, 4]. Durch die Reglementierung der Sendeleistung liegt die Reichweite der verwendeten Transceiver nach eigenen Messexperimenten bei ca. 50 m bei freier Sicht (LoS) und bei 10–30 m bei der Messung mit Sichthindernissen bzw. durch Baumaterialien (None Line of Sight, NLoS). Bei NLoS-Messungen ist die tatsächlich erzielbare Reichweite abhängig von dem zu durchdringenden Baumaterial. Mit aktueller UWB-Hardware und erhöhter Sendeleistung lassen sich LoS-Distanzen von bis zu 300 m zwischen zwei Transceivern bestimmen [14]. In Folgearbeiten wurde das System durch Kopplung mit einem zweiachsigen Neigungssensor zur Bestimmung aller 6 DoF (Degree of Freedom) einer Webcam weiterentwickelt (Abb. 7). Durch Echtzeitdatenübertragung ist es so unter anderem möglich, das Kamerabild lagerichtig mit virtuellen Gebäudemodellen, z. B. für Anwendungen im Bereich Mixed Reality, zu überlagern [4]. In einer weiteren Studie wurde die Richtungsbestimmung (Heading) der UWBILPS-Mobilstation unter Verwendung von nur einer UWB-Antenne in Zusammenarbeit mit der ETH Zürich untersucht. Dazu wurde das NORDIS-System, das zur Orientierungsbestimmung einer GNSS-Antenne entwickelt wurde [17], verwendet. Mit Hilfe eines gleichmäßig um die Antenne rotierenden Verschattungsschildes (Abb. 8) kann bei bekannter Position der Mobilstation deren Ausrichtung aus den periodisch schwankenden Empfangssignalstärken bestimmt werden. Die ermittelten Abweichungen zu den aus Koordinaten berechneten Referenzwerten lagen im Rahmen der durchgeführten Messversuchen im Bereich von 1–2ı [44].
3 Indoor-Positionierung
65
Abb. 7 UWB-ILPS zur Positions- und Orientierungsbestimmung einer Webcam (links) modifiziert nach [44]
Abb. 8 Versuchsaufbau mit der NORDIS-Hardware zur Richtungsbestimmung der UWB-ILPSMobilstation modifiziert nach [44]
3.2.2 Weitere Systeme Obwohl die UWB-Technologie nach wie vor nicht den Massenmarkt erreicht hat, existieren mittlerweile einige kommerzielle Positionierungssysteme. Exemplarisch sei das RTLS der Firma Ubisense5 genannt, das auf einer kombinierten TDoA/
5
http://ubisense.net/en/products/rtls-platform [Zugegriffen im März 2016].
66
J. Blankenbach et al.
AoA-Messung von UWB-Impulsen beruht und unter anderem in der industriellen Fertigung zur Echtzeitlokalisierung von Personen oder Betriebsmitteln eingesetzt wird. Dazu werden UWB-Empfänger, die intern mit einem Antennenarray ausgestattet sind, fest im Raum positioniert, um die Signale eines mobilen UWB-Senders (Tags) zu empfangen. Aufgrund der bekannten Position und Ausrichtung der Empfangsantennen sowie der kabelgebundenen Synchronisation können sowohl der Eintreffwinkel als auch die Laufzeitdifferenzen der empfangenen Signale ermittelt und für die Positionsermittlung verwendet werden.
3.3
Magnetfeldbasierte Positionierungssysteme
Eine zentrale Herausforderung bei der Verwendung von Schall-, Licht- oder Funkwellen als Basistechnologie für infrastrukturgestützte Indoor-Positionierungssysteme stellt die Signalausbreitung im Bauwerk dar. Probleme ergeben sich durch eine zu geringe Reichweite der zugrundeliegenden Basistechnologie, die fehlende direkte Sichtverbindung zwischen Sender- und Empfängereinheiten sowie die Bauwerksstruktur (z. B. Wände, Decken). Neben Abschattungen kommt es deshalb häufig zu Signalausbreitungseffekten, wie Dämpfung, Laufzeitverzögerungen und Multipath. Das Magnetfeld ist eine vektorielle physikalische Größe im Raum, dessen Existenz sich durch die Krafteinwirkung auf ferromagnetische Stoffe, Magnete oder elektrisch geladene Teilchen manifestiert [43]. Magnetfelder sind in der Lage, Baumaterialien ungedämpft und ohne die genannten Signalausbreitungseffekte zu durchdringen, so dass die aus den Signalen gewonnenen Messgrößen nicht negativ beeinflusst werden.
3.3.1 MILPS – Magnetic Indoor Local Positioning System Das magnetische Positionierungssystem MILPS (Magnetic Indoor Local Positioning System) basiert auf künstlich erzeugten Magnetfeldern als Signalträger [7]. Die MILPS-Systemarchitektur sieht dazu die Verwendung von räumlich verteilten, elektrischen Spulen als Magnetfeldquelle vor, so dass das gesamte Bauwerk bzw. alle relevanten Bereiche abgedeckt werden können. Die Spulen dienen somit als Referenzstationen in einem lokalen Bauwerkskoordinatensystem. Mit Hilfe eines 3-achsigen Magnetfeldsensors als Mobilstation werden die erzeugten Spulenmagnetfelder im unbekannten Punkt beobachtet (in Analogie zu Abb. 5). Aus den Magnetfeldbeobachtungen können anschließend geometrische Größen – vor allem Distanzen – zwischen der Mobil- und den Referenzstationen abgeleitet und für die Schätzung der unbekannten Position herangezogen werden. Abb. 9 zeigt das MILPS-Experimentalsystem, das für empirische Untersuchungen im Labormaßstab entwickelt wurde. Das System besteht aus drei Spulen mit einem Radius von 0,25 m und 140 Windungen aus Kupferdraht. Als Mobilstation können beliebige 3-achsige Magnetfeldsensoren verwendet werden.
3 Indoor-Positionierung
67
Messprinzip und Signalverarbeitung Für die Signalmodulation wird die Stromrichtung in den Spulen mit Hilfe einer Relaiseinheit periodisch umgepolt, wodurch ein Rechtecksignal entsteht (Abb. 10). Durch Differenzbildung der Abtastwerte aus aufeinanderfolgenden Umschaltungen ergibt sich die doppelte Feldstärke im unbekannten Punkt. Die Differenzbildung wirkt dabei als Hochpassfilter, so dass langperiodische Störfelder (insbesondere das Erdmagnetfeld) gefiltert werden. Ferner erlaubt die Signalmodulation die Filterung
Abb. 9 Experimentalsystem mit 3-achsigem Magnetfeldsensor, einer Spule (Spulenradius D 0,25 m; Windungszahl D 140) inkl. Relais, Labornetzteil und Messrechner [7]
Soll - Distanz: 12 m
Magnetfeld [mG]
445.2
445
444.8
444.6 0
10
20
30
40
50
60
70
Zeit [s] Abb. 10 Moduliertes Spulensignal bei I D 12 A und 12 m Distanz zwischen Spule und Sensor [7]
68
J. Blankenbach et al.
von hochfrequenten Störfeldern mit Hilfe von FIR-Tiefpassfiltern [40]. Zur Minimierung des Einflusses von instationären Störfeldern im Gebäude können zusätzlich adaptive Filter unter Verwendung eines Referenzsensors eingesetzt werden [5]. Distanz- und Positionsschätzung Die Raumstrecke zwischen dem Zentrum einer Spule und dem Sensor im unbekannten Punkt P kann näherungsweise wie folgt ausgedrückt werden: r rD
3
1 0 NIF .1 C 3si n2 . // 2 4 B
(Gl. umgestellt nach [34])
(1)
Dabei ist B die gemessene Gesamtinduktion (Feldstärke), der Elevationswinkel bezogen auf die Spulenebene und r der euklidische Abstand von P zum Spulenzentrum. Mit F D r02 wird die Querschnittfläche der Spule berechnet, 0 stellt die magnetische Permeabilität da. I beschreibt den Kreisstrom und N die Spulenwindungszahl. Auf Basis dieses Zusammenhangs kann die 3D-Positionsschätzung der Mobilstation entweder mit Hilfe eines angenommenen mittleren Elevationswinkels [6, 46] oder nach einem iterativen Ansatz erfolgen. Für letztgenannten Fall können ausgehend von der Annahme i D 0 zunächst Näherungsdistanzen r0i abgeleitet werden, die zwar kürzer als die wahren Raumstrecken, jedoch, aufgrund der Gestalt des Spulenmagnetfeldes [4], länger als die zugehörigen Horizontaldistanzen sind. Die direkte Lösung des räumlichen Bogenschlags unter Verwendung von drei Spulenmessungen Bi liefert daher eine Startlösung6 für die 3D-Positionsschätzung. Basierend auf der Startlösung werden die Elevationswinkel i mit den bekannten Spulenpositionen rechnerisch bestimmt und neue Distanzen ri als Beobachtungen für den nächsten Iterationsschritt berechnet. Dieses Vorgehen wird solange wiederholt, bis sich die Positionslösung nicht mehr signifikante ändert [7]. Eigenschaften und Entwicklungsstand MILPS stellt ein derzeit laufendes Forschungsprojekt dar. Die Messversuche, die mit dem Experimentalsystem durchgeführt wurden, bestätigten die unverfälschte Signaldurchdringung von Baumaterialien, so dass die Spulensignale bis zu einer Distanz von ca. 16 m (mit I D 12 A und unter Verwendung des magnetoresistiven Magnetfeldsensors HMR2300 der Firma Honeywell als Mobilstation) zwischen Spule und Sensor auch bei fehlender direkter Sichtverbindung (NLoS) detektiert werden können [5]. Messungen in einem Testfeld und Vergleich mit Referenzpunkten ergaben mittlere 3D-Positionsabweichungen von deutlich unter 1 m, bei Distanzen bis 8 m sogar unter 0,5 m. Durch Kalibrierung sowie adaptive Filterung lässt sich die Genauigkeit
6 Aus den beiden Lösungen des direkten Bogenschlags wird eine Lösung durch eine Annahme zur möglichen Position von vornherein ausgeschlossen.
3 Indoor-Positionierung
69
weiter steigern, was für den zweidimensionalen Fall mit Positionsabweichungen 10 cm bereits gezeigt werden konnte. Auch die in heutigen Smartphones eingebetteten Magnetfeldsensoren lassen sich als Mobilstation verwenden, wobei aufgrund der geringeren Auflösung der low-cost Sensoren die Reichweite des Systems reduziert ist [49]. Die Weiterentwicklungen von MILPS fokussieren sich vor allem auf Kalibrieruntersuchungen zur Verbesserung der 3D-Positionierungsgenauigkeit, Verfeinerungen des Positionierungsalgorithmus‘ sowie Untersuchungen zur kinematischen Anwendung durch Fusion mit Inertialsensorik [22, 49]. Weiterhin ist geplant, einen Prototyp bestehend aus vier Spulen mit vergrößerter Reichweite aufzubauen. Ausgehend vom Experimentalsystem wurde dazu bereits eine Spule mit einem Spulenwindungsdurchmesser von 1 m angefertigt, welche die Verwendung von höheren Stromstärken erlaubt. Messungen mit 3- bis 4-facher Stromstärke gegenüber dem obigen Experimentalsystem ermöglichten eine deutliche Erhöhung der Reichweite auf über 40 m bei None Line of Sight-Bedingungen. Dadurch wird es möglich, ein Gebäude mit einer geringen Anzahl von Spulen vollständig abzudecken.
3.3.2 Weitere Systeme Die Verwendung von künstlich erzeugten Magnetfeldern für Ortungszwecke unter Verwendung von Gleich- oder Wechselströmen und unterschiedlichen Magnetfeldquellen wurde in der Vergangenheit bereits vereinzelt untersucht [8, 33, 48]. Im Gegensatz zum vorliegenden Ansatz wurden diese Systeme jedoch für alternative Anwendungen – z. B. als Trackingtechnologie für die Bewegungsverfolgung im Sport- oder Medizin-Bereich sowie Mixed-Reality-Anwendungen in speziellen Umgebungen – entwickelt bzw. für räumlich begrenzte Bereiche (z. B. 4 m 4 m) für die 2D-Positionierung [46] realisiert. Kommerziell für die genannten Anwendungen verfügbar sind u. a. Systeme der Firmen Ascension7 und Polhemus.8
4
Bildbasierte Positionierungssysteme
Je nach Ausprägung können bildbasierte Positionierungssysteme infrastrukturgestützten oder auch autonomen Systemen zugeordnet werden. Aufgrund des gänzlich anderen Messprinzips durch Verwendung von Kameras und der großen Zahl an unterschiedlichen Systemausprägungen werden bildbasierte Systeme jedoch im Folgenden separat betrachtet. Das Ziel bildbasierter Systeme für die Positionierung ist der Verzicht auf besondere Infrastrukturen oder komplizierte Konstruktionen, um automatische, flexible und günstige Lösungen zur kontinuierlichen Positionsbestimmung und Navigation zu ermöglichen.
7 8
http://www.ascension-tech.com/ [Zugegriffen im März 2016]. http://polhemus.com/ [Zugegriffen im März 2016].
70
4.1
J. Blankenbach et al.
Stand der Technik
Wird eine Person oder ein Objekt mit einer mobilen Kamera ausgestattet, so lässt sich deren oder dessen Position mit Meter- bis Millimeter-Genauigkeiten in Echtzeit bestimmen. Obwohl viele der derzeitigen bildbasierten Systeme noch in der Entwicklung sind, könnten sie in Zukunft zu einer dominierenden Technik im Bereich der Positionierung heranreifen [39]. Der Erfolg bildbasierter Systeme liegt in der fortschreitenden Verbesserung und Miniaturisierung ihrer Bauteile, insbesondere der Bildsensoren, dem Anstieg der Datenraten sowie der Entwicklung leistungsfähiger Algorithmen aus der Bildverarbeitung.
4.2
Grundlagen der bildbasierten Positionsbestimmung
Unabhängig von ihrer Konzeption müssen alle bildbasierten Systeme die gleiche Aufgabe bewerkstelligen. Basierend auf der Messung von Bildkoordinaten soll die Position eines Objekts oder die Position und Orientierung einer Kamera im zweioder dreidimensionalen Raum bestimmt werden. Zur Lösung dieser Aufgabe stehen im Wesentlichen der räumliche Rückwärtsschnitt, der räumliche Vorwärtsschnitt und die Koplanaritätsbedingung zur Verfügung. Sind Positionsgenauigkeiten im Millimeter-Bereich oder darunter angestrebt, dann ist zusätzlich eine Kalibrierung aller Systemkomponenten notwendig. Im Folgenden soll aber auf die Erläuterung von Berechnungsverfahren oder Kamerakalibrierungen verzichtet werden, da sie bereits in anderen Standardwerken, wie etwa [35], ausführlich beschrieben wurden.
4.3
Einteilung bildbasierter Positionierungssysteme
In der Vergangenheit wurden verschiedene Versuche unternommen, bildbasierte Methoden zu kategorisieren. Die Schwierigkeit besteht darin, ein Merkmal zu finden, das eine eindeutige Unterscheidung der einzelnen Ansätze erlaubt. Beispielsweise wird in einer Arbeit zur bildbasierten Roboternavigation von [12] unterschieden, ob für die Navigation eine Karte, ein Gebäudemodell oder auch keine Information herangezogen werden soll. Dieses Kapitel folgt dem Ansatz von [38], welcher in den folgenden Arbeiten von [39] und [59] verfeinert wurde. Darin werden Art und Weise, wie Referenzinformationen eingeführt werden, als entscheidendes Charakteristikum angesehen. Referenzinformation bedeutet in diesem Kontext jede Art von Information, die notwendig ist, um eine Beziehung zwischen den relativen Positionsänderungen eines sich bewegenden Objekts bezüglich eines übergeordneten Koordinatensystems herzustellen. Laut [38] lassen sich die Systeme zur bildbasierten Positionierung in sechs verschiedene Klassen (Abb. 11) unterteilen.
3 Indoor-Positionierung
71
4.3.1 Gebäudemodelle als Referenz Die Verwendung von Gebäudemodellen und -plänen, die auch die Geometrie und Semantik der Einrichtung einschließen, stellt eine Möglichkeit zur Einführung der Referenzinformation dar. Das beinhaltet zum Beispiel Fenster, Türen, Tische, Stühle oder jedes andere Objekt sowie dessen Positionsinformation. Die grundlegende Idee besteht in der Extraktion von Objekten aus Bildinformationen, die anschließend ihren korrespondierenden Objekten aus den Gebäudemodellen zugeordnet werden. Dadurch kann die Verwendung zusätzlicher Infrastruktur, wie etwa durch Sender oder Referenzpunkte, entfallen. Diese Ansätze funktionieren aber nur unter der Voraussetzung, dass die Gebäudemodelle die aktuellen Gegebenheiten repräsentieren. In [31] wird die Referenzinformation mit Hilfe eines digitalen Gebäudemodells im CityGML-Format eingeführt, welches nicht nur den Raum, sondern auch seine Ausstattung beschreibt (Abb. 12). Mit Hilfe einer Range Imaging Kamera lässt sich ein Bereich des Raumes in Form eines Rangebildes erfassen, das mit dem
Referenzinformation Gebäudemodelle
Bildsequenzen
Kameraframeworks
Kodierte Zielmarken
Projizierte Muster
Keine Referenz
Abb. 11 Einteilung bildbasierter Systeme zur Innenraumpositionierung [59]
Abb. 12 CityGML-Modell eines Raumes als Referenz für die Positions- und Orientierungsbestimmung einer Range Imaging Kamera [31]
72
J. Blankenbach et al.
Gebäudemodell verglichen werden kann. Die Positionsbestimmung der Range Imaging Kamera erfolgt dabei in drei Schritten. Zuerst werden aus dem Rangebild Objekte wie Tische, Stühle, Fenster oder Türen extrahiert. Durch Vergleich der extrahierten Objekte mit ihren im Gebäudemodell enthaltenen Korrespondenzen lässt sich auf die grobe Position und Orientierung der Range Imaging Kamera schließen. Im letzten Schritt wird durch räumlichen Rückwärtsschnitt eine genaue Kameraposition berechnet. Die empirischen Untersuchungen zur Machbarkeit wurden an vereinfachten Testobjekten durchgeführt. Im Praxisfall ist die Genauigkeit von verschiedenen Faktoren (z. B. Qualität des Rangebildes, Detailierung des Gebäudemodells) und damit vom Einzelfall abhängig. Die Referenzinformation lässt sich nicht nur in Form eines CityGML-Modells, sondern auch in Form eines 3D-Laserscans, wie von [9] gezeigt, einführen. Bei der Erstellung des Gebäudemodells werden vorgängig alle Räume mit Hilfe eines Laserscans erfasst und aus den Intensitätsbildern charakteristische Features durch Anwendung eines Corner-Detektors bestimmt. Die Verknüpfung der Features und der 3D-Laserscans liefert letztendlich einen Satz koordinatenmäßig bekannter Features, die sich für die Positionsbestimmung einer Kamera heranziehen lassen. Werden diese Features in einem Bild erkannt, kann die Berechnung der Kameraposition mittels räumlichen Rückwärtsschnitts erfolgen. Dem Ansatz der Merkmalsextraktion aus Kamerabildern folgen auch [24] und [69]. Im Falle von [24] basiert die Positionsbestimmung einer Mobiltelefonkamera auf der Zuordnung extrahierter Merkmale zu ihren Korrespondenzen in den Gebäudeplänen. Durch die Verwendung der WLAN-Ortung kann diese Zuordnung erleichtert werden, da bereits eine grobe Position der Einschränkung des Suchraums dienlich ist. Ist die genaue Kameraposition nach der Zuordnung der Features bestimmt, kann sie dem Benutzer mit einem Gebäudeplan auf dem Display des Mobiltelefons ausgegeben werden. Für eine genauere Positions- und Orientierungsbestimmung verwendet [69] die aus Kamerabildern extrahierten Türecken, deren absolute Koordinaten in einer Referenzdatenbank gespeichert sind. Die Positionsbestimmung erfolgt mit Hilfe des 4-Punkt-Algorithmus von [29]. Im Gegensatz zu [24] wird die Positionsbestimmung nicht durch WLAN-Ortung, sondern durch den Einsatz kodierter Marken vereinfacht. Diese Marken dienen der Türidentifikation und verweisen auf die Koordinaten der in der Referenzdatenbank abgelegten Türecken. Die mittlere Punktabweichung der Positionsbestimmung aus dem Vergleich zu tachymetrisch eingemessenen Referenzpunkten wird mit 35 cm angegeben.
4.3.2 Bildsequenzen als Referenz Referenzinformationen lassen sich auch, wie in Abb. 13 gezeigt, auf einfache Weise in Form von Bildsequenzen einführen, die in einem vorherigen Trainingsdurchlauf entlang eines vorher definierten Pfades aufgenommen und mit ihm verknüpft wurden. Ist eine Bildsequenz für einen Pfad vorhanden, dann wird für alle nachfolgenden Durchläufe die Kameraposition und Orientierung durch Aufnahmevergleich mit der gespeicherten Bildsequenz bestimmt. Allerdings kann
3 Indoor-Positionierung
73
Abb. 13 Referenzinformation in Form von Bildsequenzen [59]
eine eventuelle Bewegungsunschärfe den Vergleich von Kameraaufnahme und Bildsequenz erschweren. Ein solcher Ansatz wurde von [25] für ihren mobilen Roboter implementiert, der für die selbstständige Navigation in Innenräumen auf eine vorher aufgenommene Bildsequenz zurückgreift. Zusätzlich wurde jedes Bild der Sequenz mit einer Richtungsinformation, wie etwa „Vorwärts“, „Links“ oder „Rechts“ versehen. Mit dieser Information kann der Roboter entlang des Pfades autonom navigieren. Zu diesem Zweck nimmt der Roboter seine Umgebung mit seiner Frontkamera auf und vergleicht die aktuelle Aufnahme via Template Matching mit den Bildern der gespeicherten Bildsequenz. Dabei dient der normalisierte Korrelationskoeffizient als Ähnlichkeitsmaß des Bildvergleichs. Überschreitet der Korrelationskoeffizient einen bestimmten vorher festgelegten Schwellwert, wird die Richtungsinformation des Sequenzbildes verwendet, um die nächste Aktion des Roboters einzuleiten. Allerdings funktioniert dieser Ansatz nur in Richtung des Pfades. Um diese Beschränkung zu überwinden, schlugen bereits [37] vor, Bildsequenzen mit omnidirektionalen Kameras zu erfassen.
4.3.3 Multi-Kamerasysteme als Referenz Die Realisierung eines räumlichen Koordinatensystems kann auch durch zwei oder mehr fest installierte Kameras gegeben sein, deren Positionen und Ausrichtungen zueinander bekannt sind. Damit bilden die Kameras den Referenzrahmen des Systems. Verfolgen die Kameras ein bewegliches Objekt, dann lässt sich dessen Position und Orientierung im Bezug zum etablierten Koordinatensystem durch Methoden der Photogrammetrie bestimmen. Diese Technik wird zum Beispiel in der industriellen Fertigung für die Steuerung von Robotern verwendet. Aber auch im Rahmen von Motion Capture Verfahren werden Multi-Kamerasysteme eingesetzt, um Objektbewegungen zu erfassen. Die Genauigkeit der Positionsbestimmung liegt im Bereich 1 mm. Um diese Genauigkeit erreichen zu können, sind im Voraus die Installation des Multi-Kamerasystems und dessen Kalibrierung notwendig.
74
J. Blankenbach et al.
Das Positionierungssystem von [10] basiert beispielsweise auf einem Mehrkamerasystem, das die Positionsbestimmung des Kopfes eines industriellen Roboters ermöglicht. Zu diesem Zweck wird auf dem Kopf eine Kugel mit gleichmäßig verteilten LEDs angebracht, welche vom Kamerasystem kontinuierlich beobachtet wird. Das System besteht aus vier Kameras, die an den Ecken eines quadratischen Rahmens (4 m 4 m) angebracht und im Abstand von 2 m zum Roboter aufgestellt werden. Ein Vergleich der photogrammetrisch bestimmten Kugelpositionen mit Lasertrackermessungen liefert Koordinatenabweichungen im Sub-Millimeterbereich. Allerdings müssen dazu die Geometrie der Kameras zueinander und die Geometrie der LED-Kugel zuvor bekannt sein. Ähnliche kommerzielle bildbasierte Positionierungssysteme basieren auf der Anwendung zweier Kameras und eines mobilen, mit aktiven Targets bestückten Messsensors für Scanning- oder Probing-Aufgaben. Während des Betriebs sind beide Kameras auf jeweils einem Stativ installiert und beobachten den mobilen Scanner oder Taster, um dessen Position und Orientierung zu bestimmen. Eine mögliche Anwendung stellte das Unternehmen AICON 3D9 vor, die ihren Streifenlichtprojektor mit ihrer 3D-Arena kombinierten. Auf einem industriellen Roboter kann dieses System eingesetzt werden, um Inspektionsaufgaben von Oberflächen wahrnehmen zu können. Ähnliche Systeme anderer Hersteller wären zum Beispiel HandyPROBE oder MetraSCAN.10
4.3.4 Referenz durch Verwendung kodierter Zielmarken Eine Vielzahl von Positionierungssystemen stellt die Verbindung zu einem übergeordneten Koordinatensystem durch Verwendung künstlicher Zielmarken auf Wänden, Decken oder Einrichtungsgegenständen her. Die Vorteile künstlicher Zielmarken liegen darin, dass ihre Koordinaten im übergeordneten System bekannt sind und dass sie im Gegensatz zu natürlichen Zielen in Bildern leichter zu erkennen sind. Das liegt vor allem an der Beschaffenheit der Zielmarken, die entweder reflektierende Eigenschaften oder einen hohen Kontrast zur Umgebung aufweisen. Das Wissen über das Aussehen dieser Ziele trägt zur Robustheit der Zielerkennung bei. Zusätzlich ist jede einzelne Zielmarke einzigartig und kodiert ihre Identifikationsnummer (ID) zum Beispiel in Form eines Barcodes, der Anordnung konzentrischer Kreissektoren oder farbiger Punkte (Abb. 14). Im Allgemeinen erfordert der Aufbau eines solchen Systems das Aufstellen bzw. Anbringen von Zielmarken sowie deren Koordinatenbestimmung im übergeordneten System. Ein Großteil der derzeitig kommerziell verfügbaren bildbasierten Positionierungssysteme kann dieser Kategorie zugeordnet werden. Das Prinzip georefenzierter Zielmarken lässt sich zum Beispiel auf die Positionsbestimmung von Gabelstaplern und Paletten in Lagerhäusern anwenden. Beim
9 http://aicon3d.de/presse/pressemitteilungen-detail/article/neu-3d-arena-optische-trackingtechnolo gie-fuer-design-arbeitsplaetze-1.html [Zugegriffen im März 2016]. 10 http://www.creaform3d.com/en/metrology-solutions/coordinate-measuring-machines-handyprobe [Zugegriffen im März 2016].
3 Indoor-Positionierung
75
Abb. 14 Illustration kodierter Zielmarken, die ihre Identifikationsnummer durch die Verwendung von Barcodes, konzentrischen Kreissektoren oder dem Arrangement farbiger Punkte kodieren
System SkyTrax Vehicle Tracking von TotalTrax11 werden QR-Codes an der Decke angebracht und von Kameras beobachtet. Befindet sich die Kamera auf einem Gabelstapler oder einer Palette, so lässt sich dessen oder deren Position und Geschwindigkeit im Lagerhaus ermitteln. Zudem ermöglicht ein spezielles CodeDesign die Bestimmung der Fahrtrichtung. Werden die Zielmarken nicht nur an der Decke, sondern darüber hinaus im gesamten Raum verteilt, so erhält man ein System, das unabhängig von der Kameraorientierung eine Positionsbestimmung der Kamera erlaubt. Für stationäre Anwendungen, zum Beispiel in vorkalibrierten Räumen, werden die Zielmarken an den Wänden und der Decke installiert und eingemessen. Für mobile Anwendungen könnten tragbare Zielmarkenpaneele zum Einsatz kommen. Aus den Kameraaufnahmen der Zielmarken lassen sich mittels räumlichen Rückwärtsschnitts, Position und Orientierung der Kamera bestimmen. Basierend auf diesem Prinzip wird zum Beispiel das System von AICON 3D12 für die hochgenaue Automobilvermessung eingesetzt.
4.3.5 Referenzinformation aus projizierten Mustern Anstelle der Installation künstlicher Zielmarken kann die Einführung der Referenzinformation auch durch die Projektion von Punkten oder Punktmustern erfolgen. Durch Aufnahme der Punktmuster mit einer mobilen Kamera lässt sich deren Position und Orientierung bezüglich des Projektors bestimmen. Dabei sollte bedacht werden, dass sich im Gegensatz zu künstlichen Zielmarken das Aussehen der Punktmuster je nach Projektionsfläche und Abstand zu dieser verändern kann. Basiert die Projektion auf einer Zentralprojektion, so muss eine zusätzliche Lösung zur Einführung des Maßstabs gefunden werden. Andernfalls ist nur die Bestimmung
11
http://www.totaltraxinc.com/smart-forklift-solutions/the-sky-trax-system/ [Zugegriffen im März 2016]. 12 http://aicon3d.de/produkte/moveinspect-technology/procam/auf-einen-blick.html [Zugegriffen im März 2016].
76
J. Blankenbach et al.
der relativen Orientierung der Kamera bezüglich des Projektors möglich. Aus diesen Gründen ist eine genaue Kenntnis der zugrundeliegenden Projektionsgeometrie notwendig, um Kameraposition und Orientierung aus den Aufnahmen der Punktmuster ableiten zu können. Der Anreiz zur Entwicklung dieser Systeme besteht in der Reduzierung des Installationsaufwandes durch Verzicht auf künstliche Zielmarken. Zudem kann ein portables Positionierungssystem geschaffen werden, das einfach aufgebaut und schnell messbereit ist. Realisiert wurde der zuvor erwähnte Ansatz beispielsweise beim CLIPS-System (Camera and Laser based Indoor Positioning System) von [60]. Abb. 15 zeigt, wie die Referenzinformation durch Projektion eines Laserpunktmusters von roten und grünen Punkten auf eine beliebige Oberfläche abgebildet und von einer mobilen Kamera aufgenommen wird. Aufgrund der radialen Anordnung der roten Laser kann die Projektionsgeometrie durch eine Zentralprojektion beschrieben werden, die aufgrund einer vorgängig, einmalig durchgeführten Kalibrierung der Laserstrahlausrichtungen beschreibbar ist. Die Abbildung des Laserpunktmusters in die Bildebene der Kamera folgt ebenfalls einer Zentralprojektion. Mit Hilfe der Epipolargeometrie (Abb. 16) lässt sich zwischen beiden Bündeln ein mathematischer Bezug herstellen, der sowohl deren Position und Orientierung als auch die Bildmessungen der Laserpunkte in einem Gleichungssystem miteinander verknüpft. Verschiebt man nun den Ursprung des Bezugskoordinatensystems in das Projektorzentrum und hält die Hauptprojektionsrichtung als Z-Achse fest, dann verbleiben lediglich Kameraposition und Kameraorientierung als zu bestimmende Größe. Aus den Bildmessungen der Laserpunkte lassen sich Position und Orientierung der
Abb. 15 Funktionsprinzip des CLIPS-Systems – Durch Aufnahme des projizierten Punktmusters kann die Position und Orientierung der Kamera bezüglich des Projektors bestimmt werden [59]
3 Indoor-Positionierung
77
Abb. 16 Epipolargeometrie beim CLIPS-System – Laserstrahl dP , Bildvektor dC und Basisvektor bC liegen in einer Ebene [59]
Kamera bestimmen. Infolge der radialen Anordnung der roten Laserpointer können keine metrischen Informationen eingeführt werden. Aus diesem Grund muss der Maßstab separat ermittelt werden. Zu diesem Zweck wurde der Projektor durch exzentrisch angeordnete, grüne Laserpointer mit bekanntem Offset von 25 cm zum Projektorzentrum erweitert (Abb. 16). Für die Genauigkeitsuntersuchung wurden die projizierten Punkte mit Hilfe eines Theodolitmesssystems eingemessen und mit den photogrammetrisch bestimmten Koordinaten verglichen. Dabei ergaben sich Koordinatenabweichungen im Millimeterbereich.
4.3.6 Systeme ohne Referenzinformation Bildbasierte Systeme, die keinerlei Referenzinformationen verwenden, um Positionen in einem übergeordneten Koordinatensystem abzuleiten, beschränken sich meist auf die Erkennung von Positions- und Orientierungsveränderungen der Kamera oder von beobachteten Objekten. [58] zeigt, wie sich ein einfaches bildbasiertes Positionierungssystem realisieren ließe. Zum Beispiel könnte ein CMOS-Sensor an der Decke angebracht und zum Fußboden hin ausgerichtet werden. Die Idee basiert auf der Berechnung von Differenzbildern, wobei das erste Bild nur den Raum und alle folgenden Bilder den Raum inklusive der bewegten Objekte zeigen. Nun wird für jedes weitere Bild durch Subtraktion vom ersten Bild das Differenzbild berechnet. Evaluiert werden Bildbereiche, deren Grauwerte erkennbar vom Nullwert abweichen. Die angegebene, aus Simulationen abgeleitete Positionierungsgenauigkeit liegt im SubMeter-Bereich. Der Ansatz von [42] zeigt, wie die Trajektorie einer omnidirektionalen Kamera aus einer Folge von Bildern erhalten werden kann. Der Fokus liegt hierbei in der Bestimmung der relativen Kamerabewegung, da der absolute Bezug zu einem Referenzsystem fehlt. Die aktuelle Kameraposition und Orientierung ergibt sich durch Akkumulation der vorhergehenden Positions- und Orientierungsänderungen. Wie bei jedem System, das nach dem Prinzip der Koppelnavigation (Abschn. 5.2) funk-
78
J. Blankenbach et al.
tioniert, akkumulieren sich mit der Zeit auch die Ungenauigkeiten der Positionsund Orientierungsbestimmung auf. Nach [42] kann die Standardabweichungen des Yaw-Winkels bei einer Beobachtungsperiode von 40 Sekunden bis zu ca. 0,2 gon betragen.
5
Autonome und hybride Positionierungssysteme
Eine weitere Möglichkeit der Positionsschätzung in Innenräumen kann mit Hilfe von Inertialsensoren umgesetzt werden [1, 63]. Inertialsensoren sind bei geodätischen Anwendungen heute primär bei Mobile-Mapping-Systemen zu finden. Sie stützen die Orientierung und helfen, GNSS-Verlust bei der Trajektorienbestimmung zu überbrücken. Aufgrund der hohen Genauigkeitsanforderungen werden dazu sehr kostspielige Sensoren wie faseroptische Gyroskope eingesetzt.
5.1
Stand der Technik
Die günstige Variante solcher Sensoren sind MEMS-Sensoren, wie sie beispielsweise auch in mobilen Endgeräten (z. B. Smartphones) verbaut sind. Micro-ElectroMechanical-Systems (MEMS) zeichnen sich durch eine extrem günstige Fertigung und die Mikro-Bauweise aus. Auf Kosten der Miniaturisierung solcher Systeme sinkt die Auflösung und Genauigkeit im Vergleich zu teuren Realisierungen. Aufgrund der Mikro-Bauweise sind die Sensoren, wie die im Folgenden beschriebenen und verwendeten Beschleunigungsmesser (Accelerometer), Drehratensensoren (Gyroskope), Luftdrucksensoren (Barometer) und Magnetfeldsensoren (Magnetometer/Kompass), für den Einbau in Smartphones geeignet und sind dort für die unterschiedlichsten Anwendungen vorgesehen (z. B. Displayorientierung). Diese Sensoren können aber auch in der Fußgängernavigation zum Einsatz kommen. Tab. 1 zeigt am Beispiel des Samsung Galaxy Nexus die für die autonome/hybride inertialgestützte Navigation nutzbaren Sensoren. Typisch für diese Sensoren ist ein skalierbarer Arbeitsbereich, der zu Lasten der Auflösung geht (siehe Beschleunigungsmesser in Tab. 1).
5.2
Trägheitsnavigation
Inertiale Navigationssysteme (INS) sind seit Anfang des 20. Jahrhunderts verfügbar. Sie beruhen auf dem Prinzip der Trägheitsnavigation und werden u. a. dazu genutzt, Land-, Luft- und Seefahrzeuge zu führen. Hauptsensoren sind die o.g. linearen Accelerometer und Gyroskope. Aus den in drei Achsen gemessenen Beschleunigungen kann durch einfache Integration über die Zeit der Geschwindigkeitsvektor und durch nochmalige Integration der Ortsvektor berechnet werden. Aus der Drehrate werden durch einfache Integration über die Zeit Winkeländerungen und durch Aufaddieren die Winkel berechnet. Die inertialen Navigationssysteme zeichnen sich durch eine
3 Indoor-Positionierung
79
Tab. 1 MEMS-Sensoren des Samsung Galaxy Nexus [41, 65] DreiachsGyroskop
Name Hersteller Arbeitsbereich MPU3050 InvenSense ˙250ı =sek ˙500ı =sek ˙1000ı =sek ˙2000ı =sek
DreiachsBMA250 Accelerometer
Bosch
˙2 g ˙16 g
Barometer
BMP180
Bosch
300–1100 hPa 950–1050 hPa
DreiachsKompass
YAS530
Yamaha
˙800T (micro Tesla)
Auflösung 0,004ı /sek 0,03ı /sek
3,91 mg 31,25 mg
0,15T (X,Y), 0,3T (Z)
Einflussgrößen Rauschen: ˙0; 1ı =s Random Walk: ˙0; 01ı /s/ p Hz Rauschen: ˙80 mg Random Walk: p ˙0,8 mg/ H z Relativ: ˙0,12 hPa(˙ 1 m) Absolut: ˙1 hPa Keine Angabe
hohe Aktualisierungsrate von 50–1.000 Hz aus. Die Inertialsensoren sind je nach Bauart unterschiedlich stark von der Temperatur abhängig. Zudem unterliegen die Sensorachsen einem farbigen Rauschen, welches durch ein Alignement in Ruhelage reduziert werden muss [19]. Das INS ermöglicht jedoch nur eine relative Positionierung. Für die Initialisierung benötigt das INS eine Anfangsposition und eine Ausgangsorientierung. Diese werden üblicherweise im Außenbereich durch GNSS und einen Magnetkompass ermittelt. In Gebäuden kann dies beispielsweise über eine bekannte Position und eine bekannte Ausrichtung erfolgen, z. B. bei Smartphoneanwendungen durch die optische Erfassung von QR-Codes. Ein Luftdrucksensor (Barometer) kann zusätzlich verwendet werden, um die Höhenmessung zu stabilisieren [67]. Modellierungsfehler, das Messrauschen der Sensoren und die Genauigkeit der Anfangsposition beeinflussen die INS-Genauigkeiten negativ: Wenn das System nicht durch externe, unabhängige Positions- und/oder Geschwindigkeitsverbesserungen (Coordinate Update, CUPT bzw. Zero Velocity Update, ZUPT) gestützt wird, unterliegt die Navigationslösung einer starken Drift [57]. Zur Stützung können auch die oben erwähnten infrastrukturgestützen Positionierungssysteme (z. B. UWB, Ultraschall, optisch, etc., vgl. Abschn. 3) genutzt werden.
5.3
Inertialsensoren
Ein Accelerometer registriert die Beschleunigungen des Sensors in Achsrichtung. Dabei wird auch ein Anteil der Erdbeschleunigung mit g 9,813 m/s2 detektiert, selbst wenn keine Bewegung des Sensors stattfindet. Dies kann für die Bestimmung der Ausrichtung der Hardware zum Horizont genutzt werden, ist aber für die Auswertung in der Bewegung zu kompensieren [66]. Die grundlegenden Kenn-
80
J. Blankenbach et al.
größen der Inertialsensoren sind auch bei MEMS-Sensoren anzuwenden. Um die weitgehend fehlerfreie Beschleunigungen zu erhalten, sind Nicht-Orthogonalität, Maßstäbe und Offsets nach dem funktionalen Zusammenhang in (2) zu korrigieren. Temperaturabhängige Einflüsse werden durch sensoreigene Temperaturmessungen kompensiert. Der funktionale Zusammenhang in Gl. (2) beinhaltet eine Rotationsmatrix, welche auf der Hauptdiagonalen die jeweiligen Achsenmaßstäbe m sowie auf den Nebendiagonalen die Korrekturdrehungen r zur Herstellung der Orthogonalität enthält, und den Offset b, der subtrahiert werden muss. 0
1 0 axref mx @ ay A D @ ryx ref rzx azref
rxy my rzy
1 00 1 0 11 ax bx rxz A @ @ A @ ryz ay by AA mz az bz
(2)
Das sensorinhärente Rauschen führt, auch nach der Kalibrierung des Sensors, durch die doppelte Integration zu einer Drift bei der Position. Dieser Effekt ist bei MEMSSensoren aufgrund des vergleichsweisen großen Rauschens sehr ausgeprägt [1]. Der Einfluss des Rauschens lässt sich abschätzen zu [54]: dposition Œm D 0; 5 bŒm=s 2 .t Œs/2
(3)
Bei einem Nullpunktsabweichung des Beschleunigungsmessers von 80 mg (b = 0,745 m/s2 / ergibt sich nach 10 Sekunden bereits ein Positionsabweichung von 40 m. Eine Nullpunktsabweichung des Kreisels d ! führt ebenfalls zu einer abweichenden Position, abgeschätzt durch: dposition Œm D g=6 d !Œrad =s .t Œs/3
(4)
mit g = 9,81 m/s2 . Eine Kreiseldrift von 0,1ı /s (= 0,0017 rad/s) führt zu nach 10 Sekunden zu einem Positionsabweichung von 2,85 m. Ein Gyroskop registriert die Rotationsgeschwindigkeit um die entsprechende Achse des Sensors. Grundsätzlich kann die Drehrate mit mechanischen, optischen oder Vibrationsmethoden bestimmt werden [1, 64]. Bei MEMS-Sensoren wird nur die letztgenannte Methode verwendet, die sich für eine miniaturisierte Bauweise besonders eignet. Damit verbunden sind allerdings geringere Genauigkeiten bei der Bestimmung der Rotation gegenüber den beiden anderen Methoden, nach denen hochwertige Kreisel arbeiten [64]. Die meisten Magnetometer in MEMS-Bauweise verwenden den Hall-Effekt zur Bestimmung des äußeren Magnetfeldes. Sie weisen als Nachteil eine geringe Sensibilität und hohe Temperaturempfindlichkeit auf. Die Vorteile bei diesen Sensoren sind eine geringe Größe, wenig Energieverbrauch und geringe Kosten. Lokale
3 Indoor-Positionierung
81
Magnetfelder, die durch den Ferromagnetismus metallischer Gegenstände oder durch die elektromagnetischen Störfelder von elektrischen Geräten erzeugt werden, verursachen eine fehlerhafte, in ihrer Größe nicht abschätzbare Nordbestimmung [1, 66]. Beim MEMS-Barometer wird üblicherweise eine Membran verwendet, welche den aktuell umgebenden Luftdruck von einem Hohlraum mit Referenzluftdruck trennt. Durch die Verformung dieser Membran und die damit verbundene Veränderung des Materialwiderstandes kann ein Luftdruck der Umgebung abgeleitet werden. Die größten Fehlereinflüsse sind fertigungsspezifische Größen und die Temperatur. So können, durch die kompakte Bauweise in Smartphones und die einhergehende Erwärmung, Luftdruckmessungen verfälscht werden.
5.4
Sensorfusion (Kalman-Filter/Partikelfilter)
Die Daten der inertialen Sensoren müssen miteinander kombiniert werden, um eine Positionslösung zu berechnen. Für die Fußgänger-Koppelnavigation (Pedestrian Dead Reckoning, PDR) kann dies in einem zweiteiligen unabhängigen Algorithmus erfolgen: die Geschwindigkeitsschätzung und die Orientierungsbestimmung. Eine Möglichkeit zur Geschwindigkeitsschätzung basiert auf der Schrittdetektion mit Hilfe von Beschleunigungsmessungen [50]. Die Beschleunigungswerte stellen das charakteristische Profil des menschlichen Laufens dar, insbesondere das Auftreten des Fußes ist deutlich erkennbar. Die Beziehung zwischen Geschwindigkeit und Benutzereigenschaften wie Beinlänge, Gewicht und Geschlecht kann modelliert werden, um für den Benutzer die aktuelle Geschwindigkeit abzuschätzen. Die zweite Komponente sind die Orientierungsmessungen, die direkt aus den Magnetfeldund Gyroskopdaten bestimmt werden. Schließlich wird die relative Position aus der (geschätzten) Geschwindigkeit in der (geschätzten) Bewegungsrichtung durch polares Anhängen berechnet. Da die Positionsschätzung aus Gyroskop- und Beschleunigungsmesserdaten nur kurzzeitig ausreichend genaue und relative Positionsinformationen im Bereich weniger Meter liefert, benötigt die Positionsschätzung eine Stützung. Stochastisch unterschiedliche Informationen aus unterschiedlichen zeitlich verfügbaren Quellen können mit Filtertechniken intelligent vereinigt werden [1, 13, 63]. Bei der Datenvereinigung kann sowohl ein Kalman-Filter als auch ein Partikelfilter verwendet werden. Die aufgestellten Filteralgorithmen sind infrastrukturunabhängig auf einem Smartphone umsetzbar und bilden die Grundlage für die Berücksichtigung auch anderer Informationen zur externen Stützung. Ein Kalman-Filter [28] ist ein Algorithmus, der den Zustand eines linearen Systems schätzt. Dazu verarbeitet das Filter Messungen, die linear abhängig vom Systemzustand sein sollen. Um eine Zustandsschätzung zu erhalten, erfordert das Kalman-Filter ein Modell für die Bewegung und ein Modell für die Beobachtungen, weiterhin ein Modell für die Berücksichtigung der Unsicherheiten (Prozessrauschen, Modellunsicherheiten und Messrauschen in den Eingabedaten). Wenn das beobachtete System ein nicht-lineares System ist, können ein erweitertes
82
J. Blankenbach et al.
Kalman-Filter (Extended Kalman-Filter, EKF) oder andere Methoden, die die Beschränkungen eines linearen Modells überwinden, verwendet werden [62]. Monte-Carlo-Methoden sind Werkzeuge zur Bearbeitung von linearen und nichtlinearen funktionalen Zusammenhängen. Den sequentiellen Monte-Carlo (SMC)Methoden wird unter anderem das Partikelfilter zugeordnet [18, 63]. Das Partikelfilter wird vor allem in der Robotik zur Steuerung von autonomen Fahrzeugen eingesetzt. Dabei werden Sensordaten mit unterschiedlicher stochastischer Information verarbeitet. Bei einem Partikelfilter wird die Wahrscheinlichkeitsdichte des Zustandes bzw. der Position in Partikeln repräsentiert. Am Beispiel einer Positionsschätzung wird die Unsicherheit der zukünftigen Position durch eine gestreute Anzahl vieler Positionen (den Partikeln) im Bereich der möglichen Schätzung dargestellt. Im Estimationsschritt werden Beobachtungen im Partikelfilter verarbeitet. Die Berücksichtigung der Beobachtungen als Stützinformation erfolgt über die Gewichtung jedes einzelnen Partikels. Hierfür wird die Wahrscheinlichkeitsdichtefunktion (WDF) angepasst. Das gewichtete Mittel der gestreuten Partikel stellt anschließend die wahrscheinlichste Position dar.
5.5
Beispielanwendung: Smartphonepositionierung
Für die Personennavigation im Gebäude kommen im folgenden Beispiel die MEMS-Sensoren des Testgerätes Google Nexus 4 zum Einsatz (Tab. 1). Abb. 17 zeigt eine Möglichkeit der Schritterkennung aus den Beschleunigungsdaten. Die drei Achsen des Sensors sind über einen Zeitraum von zehn Sekunden abgebildet. Nach ca. zwei Sekunden lässt sich die Schrittbewegung erkennen.
Abb. 17 Beschleunigungen aus Testgerät Google Nexus 4 während einer horizontalen Haltung vor dem Körper (RGB = XYZ, X entspricht der Bewegungsrichtung, Z der Höhe)
3 Indoor-Positionierung
83
Die relative Position kann durch die Kombination von Schritterkennung, Schrittlänge und Bewegungsrichtung aus dem Gyroskop als PDR berechnet werden. Dies stellt für das Partikelfilter auch das Bewegungsmodell dar. Für die Positionsgenauigkeit in der Fußgängernavigation wird eine Abweichung 5 m zur wahren Position angestrebt [67]. Als Stützmöglichkeit bieten sich digitale Karteninformationen (z. B. CADPläne) an, da das Kartenmaterial meist auch zur Navigation verwendet wird. Eine Stützung wird erreicht, da sich Fußgänger nicht durch Wände bewegen können. Somit kann zwischen der letzten wahrscheinlichen Position und der zukünftigen Schätzung (Partikel) keine Wand liegen. In Abb. 18 wird das Prinzip der Stützung verdeutlicht. Die letzte wahrscheinlichste Position wird durch den blauen Kreis dargestellt. Die zukünftige Schätzung (Prädiktion) wird nun durch das PDR für jedes Partikel berechnet. Hierzu werden für jedes Partikel die Schrittlänge und die Richtung mit einem normalverteilten Rauschen belegt, um die zukünftigen Partikelpositionen abhängig von der letzten Position durch polares Anhängen zu erzeugen. Die Unsicherheit der Positionsschätzung wird dadurch in Bewegungsrichtung stärker abgebildet. Es entsteht so ein Fächer von Partikeln in Bewegungsrichtung. Anschließend müssen die Gewichte für jedes Partikel neu angepasst werden (Update). Die roten Partikel in Abb. 18 liegen aus der Sicht der letzten Position hinter einer Wand. Daher erhalten diese Partikel das Gewicht 0 und haben damit keinen Einfluss mehr auf das gewichtete Mittel [67]. Die verbleibenden Partikel behalten vorerst
Abb. 18 Prinzip der Kartenstützung im Partikelfilter
84
J. Blankenbach et al.
das zuvor bestimmte Gewicht. Im Vergleich zu den meisten infrastrukturgestützten Verfahren ist eine inertialgestützte Positionsschätzung abhängig von der vorherigen Schätzung. Unsicherheiten in der Positionsschätzung werden somit zum Teil an Folgepositionen übertragen. Abb. 19 zeigt eine Trajektorie im vierten Obergeschoss der HafenCity Universität. Die Trajektorie ist insgesamt 420 m lang und wurde innerhalb von 7 min abgelaufen. Die rote Linie repräsentiert die Positionsschätzung aus dem Partikelfilter. Es werden an definierten Positionen die Koordinaten von Referenzpunkten mit den Positionen aus dem Filter verglichen. Die Abweichungen waren in allen Punkten < 5,0 m. Die Trajektorie endet wieder am Startpunkt und die Differenz zwischen Start und Zielpunkt beträgt 4,9 m. Die braune Trajektorie resultiert aus dem PDR der Smartphonedaten ohne Berücksichtigung von Stützungsinformationen. Deutlich zu erkennen ist, dass die Richtungsinformation den größten Einfluss auf die Positionsschätzung besitzt. Um die rote Trajektorie liegen unterschiedlich stark sichtbare blaue Bereiche, die die einzelnen Partikel darstellen. Das Beispiel zeigt, dass eine Positionsschätzung in einem Stockwerk möglich ist. In einem Gebäude mit mehreren Stockwerken muss zusätzlich der Übergang zwischen den Stockwerken erkannt werden. Eine Navigation im Gebäude sollte daher in der Regel auch die Höhenkomponente abdecken. Die primäre Aufgabe dabei ist die Stockwerkserkennung, um für die Visualisierung und besonders
Abb. 19 2D-Trajektorie im OG4 des HCU-Gebäudes (rot = Partikel Filter, braun = Dead Reckoning)
3 Indoor-Positionierung
85
für die Stützungsgrundlage die passenden Karten/Routing-Daten herausfiltern zu können. Um die Höhe zu berücksichtigen, wird das Barometer aus dem Smartphone verwendet. Dazu wird der relative Luftdruck mit einer barometrischen Höhenformel in einen relativen Höhenunterschied berechnet [67]. Die Startposition der Positionsschätzung benötigt dazu auch die Stockwerksinformation. In Abb. 20 sind die berechneten Höhenunterschiede in blau abgebildet. Die grünen horizontalen Linien repräsentieren den Stockwerksübergang, welcher den Grenzwert der Stockwerkserkennung repräsentiert. Die vertikalen Linien zeigen den Zeitpunkt für die Stockwerkserkennung an. Für den Stockwerkswechsel wurden auf dem Hinweg Treppen und auf dem Rückweg der Fahrstuhl genutzt. Die Trajektorie hat eine Länge von 610 m und ist über einen Zeitraum von 10 min abgelaufen worden. In Abb. 20 ist zu erkennen, dass eine Stockwerksunterscheidung über einen Zeitraum von 10 min mit dem Barometer möglich ist. Bei längerem Einsatz müssen weitere Einflüsse wie die Änderung der Wetterlage berücksichtigt werden. Die Höheninformation kann durch das Kartenmaterial gestützt werden, wenn eine Höhenänderung beispielsweise nur im Bereich von Treppenhäusern oder Fahrstühlen ermöglicht wird. In anderen Bereichen werden Höhenänderungen dann als grobe Messabweichungen betrachtet und können korrigiert werden. Weitere Einzelheiten zur Datenfilterung und zu den Ergebnissen der Navigation im HCU Gebäude sind in [68] zu finden.
Höhen aus relativem Luftdruck 25
Stockwerkshöhe [m]
20
15
10
5
0
−5 0
100
200
400
300
500
600
700
Zeit [s]
Abb. 20 Höhen aus MEMS-Barometerdaten abgeleitet für 2,5D-Trajektorie (blau). Grüne horizontale Linien repräsentieren den Grenzwert für den Stockwerksübergang. Vertikale Linien zeigen den Zeitpunkt des Stockwerkwechsels an
86
5.6
J. Blankenbach et al.
Weitere Arbeiten
Neben der zuvor vorgestellten Anwendung existieren weitere Arbeiten zur Implementierung hybrider Indoor-Positionierungssysteme für die Fußgängernavigation aus der Geodäsie. In [49] wird, ähnlich zur obigen Anwendung, ein smartphonebasiertes System vorgestellt (Abb. 21). Die Echtzeitpositionierung des Nutzers erfolgt mittels eines auf dem Endgerät implementierten Partikelfilters. Zur Stützung der MEMS-Sensorik wird neben einem digitalen Gebäudemodell das magnetische Positionierungssystem MILPS (Abschn. 3.3.1) verwendet, dessen Signale vom eingebauten Magnetfeldsensor detektiert werden können. Auch [21] implementieren ein Partikelfilter zur Fusion einer Smartphone-PDR-Lösung mit WLANSignalstärkemessungen und einem Gebäudeplan. Eglseer et al. [15] kombinieren ein PDR-Modul mit einem Magnetometer sowie einem GNSS-Empfänger für die Indoor/Outdoor-Personenpositionierung. Retscher and Fu [51] stellen Untersuchungen zur Fusion eines MEMS-INS mit aktiven RFID-Sensoren vor. Radio Frequency Identification (RFID) sind Funksensoren, die im 2,4-GHz-Band kommunizieren. [27] entwickelt und untersucht ein prototypisches Multisensorsystem auf Basis von GNSS, RFID und Inertialsensorik unter Verwendung verschiedener Filter für die Indoor/Outdoor-Ortung von Arbeitern auf einer Baustelle. In [30] ist ein modular aufgebautes Sensorsystem beschrieben, in dem neben Inertial- und Magnetfeldsensoren ein GNSS-Empfänger, ein RFID-Reader sowie ein schmalbandiges Funksystem zur funkbasierten Distanzmessung kombiniert werden. Neben der Fußgängernavigation werden hybride Positionierungssysteme ebenso zur kinematischen Positionierung von Vehikeln im Innenbereich thematisiert. Hellmers et al. [22] integrieren ein 10DoF-MEMS-INS mit MILPS (Abschn. 3.3.1)
Abb. 21 Smartphone PDR mit MILPS-Stützung
3 Indoor-Positionierung
87
für das Tracking einer rollenden Plattform unter Verwendung eines iterativen EKF. Hochgenaue Indoor-Mappingplattformen werden zur Erfassung von komplexen Industrieanlagen genutzt, aber auch um schnell präzise Kartengrundlagen für die einfachere Personennavigation in Gebäuden zu gewinnen [56].
6
Fazit
Das allgemeine Interesse an Lösungen bzw. Systemen für die Indoor-Positionierung ist in den letzten Jahren stark gestiegen und auch für Ingenieuraufgaben gewinnt das Thema zunehmend an Bedeutung. Dennoch existiert derzeit kein allumfassendes Indoor-Positionierungssystem. Vielmehr sind eine ganze Reihe von Technologien verfügbar, die für spezielle Anwendungen, nicht aber – im Sinne von GNSS für den Außenbereich – für jede Innenraumpositionierungsaufgabe gleichermaßen einsetzbar sind. Der Übergang zwischen reinen Positionierungssystemen und Lösungen für die Messtechnik ist dabei mitunter fließend und die Abgrenzung zwischen Systemen, die ausschließlich für den Innenraum konzipiert wurden, sowie allgemeinen lokalen Positionierungssystemen nicht immer möglich. Die hier getroffene Auswahl von Technologien und Ansätzen versteht sich als repräsentativer Querschnitt von Systemen, die im Bereich der Ingenieurgeodäsie in den letzten Jahren entwickelt wurden. Bedingt durch die Vielzahl von Ansätzen ist die getroffene Auswahl exemplarisch zu verstehen und erhebt keinen Anspruch auf Vollständigkeit. Die laufenden weltweiten Forschungsanstrengungen im Bereich der Indoor-Positionierung versprechen weitere innovative Ansätze für die Zukunft.
Literatur 1. Aggarwal, P., Syed, Z., Noureldin, A., El-Sheimy, N.: MEMS-Based integrated navigation (GNSS Technology and Applications). Artech House Inc, Boston (2010) 2. Blankenbach, J.: Handbuch der mobilen Geoinformation – Architektur und Umsetzung standortbezogener Anwendungen und Dienste unter Berücksichtigung von Interoperabilität. Wichmann, Heidelberg (2007). ISBN:978-3-87907-455-6 3. Blankenbach, J., Willert, V.: Robuster Räumlicher Bogenschnitt – Ein Ansatz zur robusten Positionsberechnung in Indoor-Szenarien. Allgemeine Vermessungs-Nachrichten (AVN) 116(8/9), 320–327 (2009) 4. Blankenbach, J.: Präzise Positions- und Orientierungsbestimmung innerhalb von Gebäuden mit UWB. In: Wunderlich, T. (Hrsg.) Beiträge zum 16. Internationalen Ingenieurvermessungskurs München. Wichmann Verlag, Heidelberg (2010) 5. Blankenbach, J., Norrdine, A., Hellmers, H.: Adaptive signal processing for a magnetic indoor positioning system. In: Proceedings of the 2011 International Conference on Indoor Positioning and Indoor Navigation (IPIN), Guamãres (2011) 6. Blankenbach, J., Norrdine, A., Hellmers, H.: A robust and precise 3D indoor positioning system for harsh environments. In: Proceedings of the 2012 International Conference on Indoor Positioning and Indoor Navigation (IPIN), Sydney (2012)
88
J. Blankenbach et al.
7. Blankenbach, J., Norrdine, A., Hellmers, H.: Magnetic Indoor Local Positioning System – Ein robustes 3D-Positionierungssystem für Innenraumumgebungen. In: Wieser (Hrsg.) Beiträge zum 17. Internationalen Ingenieurvermessungskurs Zürich, Wichmann Verlag, Heidelberg (2014) 8. Blood, E.B.: Device for quantitatively measuring the relative position and orientation of two bodies in the presence of metals utilizing direct current magnetic fields. Patent Nr. 4849692 (1989) 9. Böhm, J.: Orientation of image sequences in a point-based environment model. In: 3DIM 2007 Proceedings of the Sixth International Conference on 3-D Digital Imaging and Modeling, Montreal (2007) 10. Boochs, F., Schütze, R., Simon, C., Marzani, F., Wirth, H., Meier, J.: Increasing the accuracy of untaught robot positions by means of a multi-camera system. In: Proceedings of 2010 International Conference on Indoor Positioning and Indoor Navigation (IPIN), Zurich (2010) 11. Bundesnetzagentur. Allgemeinzuteilung von Frequenzen für die Nutzung durch UltraweitbandAnwendungen geringer Leistung (UWB) (2008). http://www.bundesnetzagentur.de/ SharedDocs/Downloads/DE/Sachgebiete/Telekommunikation/Unternehmen_Institutionen/Frequenzen/Allgemeinzuteilungen/2010_09_UWB_pdf.pdf (2016). Zugegriffen im März 2016 12. DeSouza, G.N., Kak, A.C.: Vision for mobile robot navigation: a survey. IEEE Trans. Pattern Anal. Mach. Intell. 24(2), 237–267 (2002) 13. Doucet, A., Freitas, N.d., Gordon, N.: Sequential Monte Carlo Methods in Practice. Springer, New York (2010) 14. Driessen, C., Norrdine, A., Sieprath, A., Raupach, M., Blankenbach, J.: Geolokalisierung von korrosionsgefährdeten Bereichen chloridbelasteter Stahlbeton-bauteile mit Hilfe von UltraWideband. Tagunsgbeiträge des 7. Fortbildungsseminars „Interdisziplinäre Messaufgaben im Bauwesen“. 25.–26.03.15, Darmstadt (2015) 15. Eglseer, A., Reiterer, A., Eichhorn, A.: Fußgängerortung im Out- und Indoorbereich mit einem autonomen Ortungssystem. Allgemeine Vermessungs-Nachrichten (AVN) 117(7), 243–249 (2010) 16. FCC: First report and order for commercial use of UWB. Federal Communications Commission (FCC) (2002). http://www.fcc.gov/Bureaus/Engineering_Technology/Orders/2002/ fcc02048.pdf (2016). Zugegriffen im März 2016 17. Grimm, D.: GNSS antenna orientation based on modification of received signal strengths. Dissertation thesis. ETH Zürich, No. 20806 (2012) 18. Gordon, N.J., Salmond, D.J., Smith, A.F.M.: Novel approach to nonlinear/non-Gaussian Bayesian state estimation. IEE Proc. F 140(2), 107–113 (1993) 19. Groves, P.: Principles of GNSS, Inertial, and Multisensor Integrated Navigation Systems. Artech House, Boston (2008) 20. Händler, V.: Konzeption eines bildbasierten Sensorsystems zur 3D-Indoorpositionierung sowie Analyse möglicher Anwendungen. Dissertation am Geodätischen Institut der TU Darmstadt. Schriftenreihe der Fachrichtung Geodäsie Fachbereich Bauingenieurwesen und Geodäsie Technische Universität Darmstadt, 36, Darmstadt (2012) 21. Hafner, P., Moder, Th., Bernoulli, Th., Fösleitner, Ch.: LOBSTER – Entwicklung von Positionierungstools zur Unterstützung von Ersthelfern. Allgemeine Vermessungs-Nachrichten (AVN) 121(11–12), 378–398 (2014) 22. Hellmers, H., Norrdine, A., Blankenbach, J., Eichhorn, A.: Indoor localisation for wheeled platforms based on IMU and artificially generated magnetic field. In: Proceedings of Ubiquitous Positioning Indoor Navigation and Location Based Service (UPINLBS 2014), Corpus Christ (2014) 23. Hightower, J., Boriello, G.: A survey and taxonomy of location systems for ubiquitous computing. IEEE Comput. 34(8), 57–66 (2001) 24. Hile, H., Borriello, G.: Positioning and orientation in indoor environments using camera phones. IEEE Comput. Graph. Appl. 28(4), 32–39 (2008) 25. Ido, J., Shimizu, Y., Matsumoto, Y., Ogasawara, T.: Indoor navigation for a humanoid robot using a view sequence. Int. J. Robot. Res. 28(2), 315–325 (2009)
3 Indoor-Positionierung
89
26. ISO: ISO/IEC-Norm 24730-1:2014 information technology – real-time locating systems (RTLS) (2014). http://www.iso.org/iso/home/store/catalogue_ics/catalogue_detail_ics. htm?csnumber=59801 (2016). Zugegriffen im März 2016 27. Johannes, L.: Multisensorsystem und Filterungsansätze zur robusten Ortung von Personen im Innen und Außenbereich. Dissertation, Geodätische Schriftenreihe der TU Braunschweig, Heft 28 (2012) 28. Kalman, R.E.: A new approach to linear filtering and prediction problems. Trans. ASME J. Basic Eng. 82(2), 35–45 (1960) 29. Killian, K.: Über das Rückwärtseinschneiden im Raum. Österreichische Zeitschrift für Vermessungswesen 4, 97–104 (1955) 30. Klingbeil, L., Romanovas, M.: Bayesische Schätzverfahren zur Lokalisierung von Personen innerhalb von Gebäuden. Zeitschrift für Geodäsie, Geoinformation und Landmanagement (zfv) 137(6), 365–376 (2012) 31. Kohoutek, T.: Location estimation in indoor environments using time-of-flight range camera. Doktorarbeit, ETH Zürich (2012) 32. Kolodziej, K.W., Hjelm, J.: Local Positioning Systems – LBS Applications and Services. Taylor & Francis, Boca Raton (2006) 33. Kuipers, G.: Object tracking and orientation determination means, system and process. U.S. Patent Nr. 3868565 (1975) 34. Lehner, G.: Elektromagnetische Feldtheorie für Ingenieure und Physiker, 5. Aufl. Springer, Berlin/Heidelberg/New York (2006) 35. Luhmann, T.: Nahbereichsphotogrammetrie – Grundlagen, Methoden und Anwendungen, 3. Aufl. Wichmann Verlag, Berlin (2010) 36. Mannings, R.: Ubiquitous Positioning. Artech House, London (2008) 37. Matsumoto, Y., Masayuki, I., Hirochika, I.: View-based navigation using an omniview sequence in a corridor environment. Mach. Vis. Appl. 14(2), 121–128 (2003) 38. Mautz, R., Tilch, S.: Survey of optical indoor positioning systems. In: Proceedings of 2011 International Conference on Indoor Positioning and Indoor Navigation (IPIN), Guimarães (2011) 39. Mautz, R.: Indoor positioning technologies. Habilitation Thesis, ETH Zurich (2012) 40. Meyer, M.: Signalverarbeitung: Analoge und digitale Signale, Systeme und Filter, 5. Aufl. Vieweg & Teubner Verlag, Wiesbaden (2009) 41. Molen, B.: Behind the glass: a detailed tour inside the Samsung Galaxy Nexus (2012). http://www.engadget.com/2011/10/20/behind-the-glass-a-detailed-tour-inside-the-samsunggalaxy-nexu/ (2016). Zugegriffen im März 2016 42. Muffert, M., Siegemund, J., Förstner, W.: The estimation of spatial positions by using an omnidirectional camera system. In: Proceedings of the 2nd International Conference on Machine Control & Guidance, Bonn (2010) 43. Norrdine, A.: Präzise Positionierung und Orientierung innerhalb von Gebäuden. Dissertation am Fachbereich Bauingenieurwesen und Geodäsie der TU Darmstadt. Schriftenreihe Fachrichtung Geodäsie der TU Darmstadt, Nr. 29. Darmstadt (2008) 44. Norrdine, A., Grimm, D., Blankenbach, J., Wieser A.: An UWB based indoor compass for accurate heading estimation in buildings. In: Proceedings of 2013 International Conference on Indoor Positioning and Indoor Navigation (IPIN), Montbeliard (2013) 45. Pflug, C.: Ein Bildinformationssystem zur Unterstützung der Bauprozesssteuerung. Dissertation am Fachbereich Bauingenieurwesen und Geodäsie der TU Darmstadt, Schriftenreihe des Instituts für Baubetrieb der TU Darmstadt, Band 50 (2008) 46. Prigge, E.A.: A positioning system with no line-of-sight restrictions for cluttered environments. PhD thesis, Stanford University (2004) 47. Priyantha, N.B., Chakraborty, A., Balakrishnan, H.: The cricket location-support system. In: Proceedings of the 6th Annual ACM International Conference on Mobile Computing and Networking, Boston (2000) 48. Raab, F.H., Blood, E.B., Steiner, T.O., Jones, H.R.: Magnetic position and orientation tracking system. IEEE Trans. Aerospace Electron. Syst. AES-15(5), 709–718 (1979)
90
J. Blankenbach et al.
49. Real Ehrlich, C., Blankenbach, J.: Innenraumpositionierung für Fußgänger unter Verwendung eines Smartphones. In: Kolbe, T.H., Bill, R., Donaubauer, A. (Hrsg.) Geoinformationssysteme 2014 – Beiträge zur 1. Münchner GI-Runde. Wichmann Verlag, Heidelberg (2014) 50. Renaudin, V., Demeule, V., Ortiz, M.: Adaptative pedestrian displacement estimation with a smartphone. In: Proceedings of 2013 International Conference on Indoor Positioning and Indoor Navigation, Montbeliard (2013) 51. Retscher, G., Fu, Q.: Continuous indoor navigation with RFID and INS. In: Proceedings of Position Location and Navigation Symposium (PLANS), 2010 IEEE/ION, Indian Wells (2010) 52. Schlemmer, H.: Grundlagen der Sensorik – Eine Instrumentenkunde für Vermessungsingenieure. Wichmann Verlag, Heidelberg (1996) 53. Schön, S., Bielenberg, O.: On the capability of high sensitivity GPS for precise indoor positioning. In: Proceedings of 5th Workshop on Positioning, Navigation and Communication, Hannover, (2008) 54. Schwarz, W.: Kinematische Sensoren – Klassifizierung und Leistungsfähigkeit. In: Mönicke, H. (Hrsg.): Kinematische Meßmethoden in der Ingenieur- und Industrievermessung (Schriftenreihe des DVW 22). Wittwer Verlag, Stuttgart, S. 54–97 (1996) 55. Schwieger, V.: High-sensitivity GPS – the low cost future of GNSS? In: International Federation of Surveyors 14/15, Article of the Month (2007). https://www.fig.net/resources/ monthly_articles/2007/schwieger_august_2007.asp (2016). Zugegriffen im März 2016 56. Sternberg, H., Keller, F., Willemsen, T.: Precise indoor mapping as basis for coarse indoor navigation. J. Appl. Geodesy 7(4), 231–246 (2013) 57. Sternberg. H.: Zur Bestimmung der Trajektorie von Landfahrzeugen mit einem hybriden Meßsystem. (Dissertation) Schriftenreihe des Studiengangs Vermessungswesen der Universität der Bundeswehr München, 67, S. 156. Neubiberg (2000) 58. Tappero, F.: Low-cost optical-based indoor tracking device for detection and mitigation of NLOS effects. Proc. Chem. [e-journal] 1(1), 497–500 (2009). Available through: ScienceDirect 59. Tilch, S.: CLIPS – development of a novel camera and laser-based indoor positioning system. Doktorarbeit, ETH Zürich (2013) 60. Tilch, S., Mautz, R.: CLIPS – a camera and laser-based indoor positioning system. J. Locat. Based Ser. [e-journal] Spec. Issue Available through: Taylor & Francis Online (2012) 61. Ward, A., Jones, A., Hopper, A.: A new location technique for the active office. IEEE Pers. Commun. 4(5), 42–47 (1997) 62. Welch, G., Bishop, G.: An introduction to the Kalman filter. Technical report. University of North Carolina, Chapel Hill (1995) 63. Wendel, J.: Integrierte Navigationssysteme, 2. Aufl. Oldenbourg Verlag, München (2011) 64. Wild-Pfeiffer, F., Schäfer, B.: MEMS-Sensoren, auch für die Geodäsie. Zeitschrift für Geodäsie, Geoinformation und Landmanagement (zfv) 136(1), 30–39 (2011) 65. Willemsen, T., Keller, F., Sternberg, H.: Calibration of smartphones for the use in indoor navigation. In: 2012 International Conference on Indoor Positioning and Indoor Navigation (IPIN) (2012). 978-1-4673-1954-6/12/$31.00 ©2012 IEEE 66. Willemsen, T., Keller, F., Sternberg, H.: Fusionierung von im Smartphone verbauten Sensoren – Ein Ansatz mit Kalman Filter. In: Oldenburger 3D-Tage 2014, Oldenburg (2014) 67. Willemsen, T., Keller, F., Sternberg, H.: Concept for building a smartphone based indoor localization system. In: FUSION2014, Salamanca (2014) 68. Willemsen, T., Keller, F., Sternberg, H.: Kartengestützte MEMS-basierte Indoor-positionierung mittels Partikel Filter. Oldenburger 3D-Tage 2015. In: Luhmann, T., Müller, C. (Hrsg.) Photogrammetrie-Laserscanning Optische 3D-Messtechnik, Wichmann, VDE Verlag, Berlin/Offenbach (2015) 69. Willert, V.: Konzeption eines bildbasierten Sensorsystems zur 3D-Indoor-positionierung sowie Analyse möglicher Anwendungen. Dissertation am Fachbereich Bauingenieurwesen und Geodäsie – Fachrichtung Geodäsie der TU Darmstadt. Schriftenreihe der Fachrichtung Geodäsie, Nr. 36, Darmstadt (2012)
3 Indoor-Positionierung
91
70. Zhang, J., Li, B., Dempster, A., Rizos, C.: Evaluation of high sensitivity GPS receivers. In: Proceedings of the 2010 International Symposium on GPS/GNSS, Taipei (2010) 71. Ziegler, C.: Entwicklung und Erprobung eines Positionierungssystems für den lokalen Anwendungsbereich. Dissertation am Geodätischen Institut der TU Darmstadt. Deutsche Geodätische Kommission, Reihe C, Nr. 446. München (1996)
4
Mobile Multisensorsysteme Heiner Kuhlmann und Lasse Klingbeil
Inhaltsverzeichnis 1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Systeme und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Trajektorienbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Relative Messverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Absolute Messverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Filterung und Sensorfusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Systemkalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Räumliche Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Synchronisierung der Sensordaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Der „Mapping on Demand”-Oktokopter – Ein fliegendes Multisensorsystem . . . . . . . . . 4.1 Sensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Synchronisierte Auslese und Verarbeitung der Sensordaten . . . . . . . . . . . . . . . . . . . 4.3 Algorithmen zur Trajektorienbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
94 94 97 99 100 102 107 110 119 120 121 122 123 124 125 126 127 127
Zusammenfassung
Mobile Multisensorsysteme ermöglichen es, die Umgebung und Objekte darin sehr effizient, das heißt mit geringem Zeitaufwand dreidimensional zu erfassen. Sie enthalten üblicherweise eine Vielzahl von Sensoren, die sowohl zur Berechnung der Trajektorie der bewegten Sensorplattform als auch zur Vermessung der Umgebung eingesetzt werden. Die Aufgaben beim Betrieb von Multisensorsys-
H. Kuhlmann () • L. Klingbeil Institut für Geodäsie und Geoinformation, Rheinische Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland E-Mail:
[email protected];
[email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 W. Schwarz (Hrsg.), Ingenieurgeodäsie, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47188-3_20
93
94
H. Kuhlmann und L. Klingbeil
temen, über die dieses Kapitel einen Überblick gibt, sind die Synchronisierung sowie die räumliche Zuordnung aller Sensordaten und die Berechnung der Position und Orientierung der Plattform in einem übergeordneten Koordinatensystem zu jedem Zeitpunkt. Schlüsselwörter
Laserscanner • Inertialnavigation • Kalman-Filter • Direkte/indirekte Georeferenzierung • Punktwolke • Mobile-Mapping • Multisensorsystem
1
Einleitung
1.1
Problemstellung
Die Grundidee bei der Anwendung mobiler Multisensorsysteme ist die Vermessung der Umgebung mit Hilfe von Sensoren, die sich auf einer bewegten Plattform befinden (Abb. 1). „Vermessung der Umgebung“ bedeutet dabei zunächst sehr allgemein die Generierung räumlich aufgelöster Informationen über die Umgebung oder Objekte darin. Die Art der Information wird dabei von der Art des Sensors bestimmt, der auf der mobilen Sensorplattform befestigt ist. Mit einem Laserscanner lassen sich z. B. Winkel und Abstände zu Objekten der Umgebung messen, um daraus z. B. dreidimensionale Modelle zu generieren (siehe Kap. 6, „Flächenhafte Abtastung mit Laserscanning“). Mit Kameras und entsprechenden photogrammetrischen Methoden ist das ebenfalls möglich, wobei hier zusätzlich noch radiometrische Informationen über den Zustand der Objekte erfasst werden können (z. B. Farbe oder Reflektivität des Sonnenlichts bei verschiedenen Wellenlängen). Andere Sensoren ermöglichen die räumlich aufgelöste Erfassung des Schwerefeldes, der Temperatur oder des Luftdrucks.
Abb. 1 Ein bewegtes Multisensorsystem nimmt während der Bewegung Daten über die Umgebung oder Objekte darin auf
4 Mobile Multisensorsysteme
95
In allen Fällen ist es notwendig, dass zu den Zeitpunkten der Messung Position und Orientierung des jeweiligen Sensors bekannt sind. Nur so können die Messungen, die im Koordinatensystem des Sensors aufgenommen werden, in das übergeordnete globale Koordinatensystem überführt werden, in dem die Informationen letztendlich gesammelt und dargestellt werden sollen (Abschn. 2.1). Die bewegte Plattform muss also zusätzlich zu den Sensoren zur Beobachtung des Objektraumes weitere Sensoren zur Bestimmung der Trajektorie der Plattform enthalten, wobei die Trajektorie hier die Position und die Orientierung umfasst. Der Name „Multisensorsystem“ trägt vermutlich nicht zufällig dieser Notwendigkeit Rechnung.1 Der englische Begriff „Mobile-Mapping“, der sich auch im deutschsprachigen Raum durchgesetzt hat, beschreibt den Einsatz eines mobilen Multisensorsystems im oben dargestellten Sinn, allerdings beschränkt er sich dabei bisher auf die geometrische Erfassung mit Kameras oder Laserscannern. Da die „Kartierung“ (Mapping) aber prinzipiell auch die ortsbezogene Erfassung nicht-geometrischer Parameter sein kann, werden die Begriffe „Mobiles Multisensorsystem“ und „Mobile-MappingSystem“ hier äquivalent verwendet. Ein idealisiertes Beispiel für ein mobiles Multisensorsystem ist in Abb. 2 dargestellt. Die bewegte Plattform enthält einen Laserscanner, der im Profilmodus
Abb. 2 Idealisiertes mobiles Multisensorsystem bestehend aus einem Profillaserscanner und einem Sensor zur Trajektorienbestimmung
1 Wie später erläutert wird, lässt sich die Bestimmung der Trajektorie unter gewissen Umständen auch mit Hilfe der Objektraumsensoren bestimmen, so dass prinzipiell ein Multisensorsystem mit nur einem Sensor, z. B. einem Laserscanner oder einer Kamera, denkbar ist.
96
H. Kuhlmann und L. Klingbeil
betrieben wird und in schneller Abfolge Distanzmessungen durchführt, die durch die Bewegung der Plattform die Umgebung spiralförmig abscannen. Weiterhin enthält die Plattform einen Sensor zur Trajektorienbestimmung. Dieser liefert zu jedem Zeitpunkt ts , an dem der Laserscanner eine Distanzmessung durchführt, die Position und Orientierung der Plattform im übergeordneten Koordinatensystem der g Umgebung T b .ts /. Bestimmt der Laserscanner also über Distanz- und Winkelmessung einen Punkt ps in seinem lokalen Koordinatensystem, kann dieser mit Hilfe der Trajektorieninformation in das globale Koordinatensystem der Umgebung transformiert werden, wenn zusätzlich die Transformation T bs zwischen dem Sensorkoordinatensystem und dem Plattformkoordinatensystem bekannt ist: g
pg D T b .ts /T bs ps
(1)
Obwohl dieses idealisierte Beispiel scheinbar aktuellen kommerziell erhältlichen mobilen Multisensorsystemen entspricht, ist eben genau dieser eine Sensor, der die Position und Orientierung der Plattform zu beliebigen Zeitpunkten bestimmt, die größte Herausforderung. Um eine möglichst hohe Genauigkeit und Zuverlässigkeit bei unterschiedlichen Plattformeigenschaften und Umgebungsbedingungen zu ermöglichen, werden dazu die Daten vieler verschiedener Sensoren mit entsprechenden Algorithmen zusammengeführt. Die Problemstellung beim Einsatz von mobilen Multisensorsystemen besteht also aus den folgenden Elementen:
- Feststellung des räumlichen Bezugs der Sensoren zueinander (Rotation und Translation) - Bestimmung einer gemeinsamen Zeitbasis aller Sensoren - Bestimmung der Plattformtrajektorie
Zunächst wird ein Überblick über die Entwicklung von mobilen Multisensorsystemen und deren Anwendungen gegeben. Danach werden verschiedene Sensoren und Verfahren zur Trajektorienbestimmung vorgestellt. Anschließend werden Aspekte der Realisierung von Multisensorsystemen, wie der Systemaufbau, die Datensynchronisation und die Feststellung der räumlichen Orientierung der Sensoren zueinander, diskutiert. Am Schluss werden diese Themenbereiche am Beispiel eines fliegenden Multisensorsystems illustriert. Dieses Kapitel soll lediglich einen Überblick über das sehr ergiebige und komplexe Thema geben. Es werden verschiedene Konzepte und deren Zusammenhang vorgestellt, wobei an den entsprechenden Stellen auf tiefergehende Literatur verwiesen wird.
4 Mobile Multisensorsysteme
1.2
97
Systeme und Anwendungen
Die wohl klassischsten Mobile-Mapping-Systeme sind luftgebundene Systeme aus dem Bereich der Luftbildvermessung und der Fernerkundung [1]. Üblicherweise werden hier die Daten von Sensoren zur Erfassung elektromagnetischer Strahlung (Kameras, Spektrometer) mit Hilfe der bekannten Positionen und Orientierung eben dieser Sensoren zu Karten zusammengefasst. Wird die Bewegung der Sensoren dabei mit Hilfe von extra dafür vorhandenen Sensoren (z. B. GNSS und Inertialsensoren, siehe Abschn. 2.4) erfasst, so spricht man von direkter Georeferenzierung. Bei der indirekten Georeferenzierung werden im Gegensatz dazu die aufgenommenen Bilder und darin erkennbare Passpunkte bekannter Position verwendet, um die Trajektorie des Sensorsystems bzw. der Kamera und somit den Raumbezug der erzeugten Karte zu bestimmen (Abschn. 2.3.3). Die Ergebnisse solcher Befliegungen sind z. B. digitale Geländemodelle, Orthophotos oder Vegetationskarten. Eine Verarbeitung der Daten des Multisensorsystems, das bedeutet auch die Bestimmung der Plattformtrajektorie, geschieht üblicherweise nachträglich im Postprocessing. Wie später in Abschn. 4 gezeigt wird, gibt es jedoch Anwendungen, in denen eine Echtzeitberechnung der Trajektorie notwendig ist. Seit Anfang der 90er-Jahre beschäftigen sich verschiedene Arbeitsgruppen mit der Entwicklung von fahrzeuggebunden mobilen Multisensorsystemen. Am Institut für Geodäsie der Universität der Bundeswehr wurde das Multisensorsystem KiSS (Kinematic Survey System) entwickelt, welches bei Geschwindigkeiten bis zu 70 km/h mit zwei analogen Kameras den gesamten Verkehrskorridor erfassen konnte [2]. Aufbauend auf diesem System wurde am selben Institut das System MoSES (Mobiles Straßen-Erfassungs-System) entwickelt [3], welches neben analogen Kameras auch Laserscanner enthielt und ebenfalls zur Überwachung des Straßenraumes eingesetzt wurde. Das GEOMOBIL des Institut Cartografie de Catalunya, welches aufbauend auf den Arbeiten von KiSS und MoSES entwickelt wurde, besteht ebenfalls aus einer Kombination von Kameras und Laserscannern [4]. Das VISAT-System wurde an der Universität Calgary entwickelt und erfasst die Umgebung mit 8 Kameras bis zu 35 m vom Fahrzeug entfernt bei Geschwindigkeiten bis 60 km/h und erreicht dabei eine Genauigkeit2 von etwa 30 cm [5]. Als Spezialsysteme für die Erfassung von Fahrbahnoberfläche und -achse sowie der Fahrbahnmarkierung wurden am Institute of Geomatics an der EPFL [6] und an der Ohio State University [7] mobile Multisensorsysteme mit Kameras als Objektraumsensoren entwickelt. Diese Forschungsarbeiten wurden in den darauf folgenden Jahren erfolgreich zu kommerziellen Anwendungen und Systemen weiterentwickelt. Ab dem Jahr 2010
2 In diesem Kapitel wird mit Genauigkeit generell die Abweichung der Messung oder Schätzung vom wahren Wert bezeichnet, ohne die Komplexität bei der Bestimmung und Beschreibung von Genauigkeiten zu berücksichtigen.
98
H. Kuhlmann und L. Klingbeil
gab es einen regelrechten Boom für Mobile-Mapping-Systeme, in dem zahlreiche neue Firmen entstanden oder bestehende Firmen solche Systeme in ihr Portfolio aufnahmen. Eine guter Überblick darüber ist in Puente et al. [8] gegeben. Die kommerziell erhältlichen Systeme enthalten meist eine sehr hochwertige Inertialsensoreinheit, ein oder zwei GNSS-Empfänger, einen oder mehrere Laserscanner sowie Kameras. Die Laserscanner sind dabei üblicherweise Profilscanner, die für hohe Scanraten optimiert sind, um die Profildichte bei hohen Geschwindigkeiten möglichst hoch zu halten. Einen Überblick über aktuelle Scanner in mobilen Anwendungen findet sich in Klingbeil et al. [9]. Die Bestimmung der Trajektorien geschieht üblicherweise im Nachhinein mit Hilfe der GNSS-Empfänger und der Inertialsensoren als direkte Georeferenzierung. In seltenen Fällen wird die Georeferenzierung der Daten durch Passpunkte verbessert. Zur Untersuchung der Wasserwege über und unter Wasser werden auch Schiffe als Multisensorsysteme eingesetzt [10]. Über Wasser kommen hier wie bei den oben genannten Fahrzeugen Profil-Laserscanner zum Einsatz, unter Wasser lässt sich die Fahrrinne mit Hilfe eines Fächerecholots dreidimensional erfassen. Zusätzlich zu der schon erwähnten Kombination aus GNSS-Empfängern und Inertialsensoren kommen hier zur Trajektorienbestimmung noch andere Sensoren, wie das Dopplerlog oder Windmesser zum Einsatz. Interessante neue Herausforderungen ergeben sich durch die Übertragung der Technologie auf andere Trägerplattformen, wie z. B. den Menschen selbst oder leichte unbemannten Flugobjekte (Unmanned Aerial Vehicles, UAVs). Diese Plattformen zeichnen sich dadurch aus, dass sie das Gewicht und die Größe der einsetzbaren Sensoren limitieren und die erprobten kommerziell erhältlichen, aber großen und schweren GNSS/IMU Systeme meist keine Option sind. Die in diesen Fällen eingesetzten leichteren und kleineren Inertialsensoreinheiten sind aber weniger genau und weisen bereits nach sehr kurzen Zeiten hohe Abweichungen auf (Abschn. 2.2.1). Das wiederum führt zu besonderen Herausforderungen bei der Berechnung der Trajektorien und verlangt unter Umständen die Einbindung weiterer Sensormodalitäten (Abschn. 2.4), insbesondere wenn z. B. in der Nähe oder innerhalb eines Gebäudes keine zufriedenstellenden GNSS-Beobachtungen zur Verfügung stehen. Weitere Herausforderungen ergeben sich bei Bedarf nach einer direkten Georeferenzierung der Daten in Echtzeit, d. h., wenn die Ergebnisse der Positionsund Orientierungsbestimmung zur autonomen Navigation der Plattform verwendet werden sollen und wenn die Ergebnisse des Mapping-Vorgangs bereits während der Fahrt oder des Fluges zur Verfügung stehen müssen. Beispiele dafür sind Absteckungsanwendungen, wie z. B. die Baumaschinensteuerung oder die koordinatengesteuerte Rübenaussaat [11]. In beiden Beispielen ist es notwendig, aus der Bewegung heraus, zum Zeitpunkt der Erreichung einer vorher definierten Position bzw. Orientierung, eine Aktion auszuführen. Andere Beispiele für die Echtzeitanwendungen sind die Unterstützung der Entscheidungsfindung in Katastrophenfällen durch Beobachtungen aus der Luft oder die sog. Exploration, eine Disziplin der mobilen Robotik, in der ein autonomes System aufbauend auf bisherigen Kartierungsergebnissen eine hinsichtlich verschiedener Zielparameter (z. B. Vollständigkeit und Genauigkeit) optimale Kartierung vornimmt [12].
4 Mobile Multisensorsysteme
2
99
Trajektorienbestimmung
Die Bestimmung der Plattformtrajektorie ist das zentrale Element eines MobileMapping-Systems. Dazu gibt es zahlreiche Sensoren, Messverfahren und Auswertemethoden, über die im Folgenden ein Überblick gegeben werden soll. Das Ziel der Trajektorienbestimmung ist die Bestimmung aller sechs Freiheitsgrade der Bewegung der Plattform, also die Position und Rotation bezogen auf ein übergeordnetes globales Koordinatensystem, und zwar zu jedem Zeitpunkt. Je nach Anwendung und Messverfahren kann die Auswertung der dafür erfassten Sensordaten entweder in Echtzeit oder im Postprocessing geschehen. Die Messverfahren lassen sich außerdem in relative und absolute Verfahren unterteilen. Bei relativen Verfahren werden nur Änderungen von Positionen, Strecken oder Rotationen erfasst, so dass der absolute Bezug nicht bekannt ist. Das hat die Nachteile, dass zum einen für eine absolute Bestimmung die absolute Position und Orientierung der Plattform zu irgendeinem Zeitpunkt in der Vergangenheit bekannt gewesen sein musste (Initialisierung) und zum anderen, dass die Unsicherheit dieser absoluten Bestimmung mit der Zeit wächst. Im Gegensatz dazu können mit absoluten Verfahren die absolute Position oder Rotation direkt bestimmt werden. Die Kombination verschiedener absoluter und relativer Verfahren mit Hilfe von Filteralgorithmen, wie z. B. dem Kalman-Filter (Abschn. 2.4.1) entspricht dem Stand, der heutzutage in den meisten mobilen Multisensorsystemen zum Einsatz kommt. Eine weitere Möglichkeit zur Unterteilung der Verfahren ist die in direkte und indirekte Verfahren. Diese Bezeichnung wird hier im Sinne der Begriffe „direkte“ und „indirekte“ Georeferenzierung verwendet. Die Berechnung der Trajektorie mit Hilfe von zu diesem Zweck am Sensorsystem befestigten Inertialsensoren und GNSS-Empfängern wird hier als direktes Verfahren bezeichnet. Im Gegensatz dazu wird bei indirekten Verfahren die Bestimmung der Trajektorie mit Hilfe der Objektraumsensoren (z. B. Kamera oder Laserscanner) durchgeführt. Das geschieht, wie zum Beispiel bei der Bündelausgleichung in der klassischen Luftbildphotogrammetrie, meist in einem zeitaufwendigen Postprocessing-Schritt und erfordert häufig eine vorherige Manipulation der Umgebung, wie z. B. die Ausbringung von Passpunkten. In letzter Zeit ist jedoch durch Fortschritte in der Verarbeitung von Bildern und Punktwolken sowie durch die immer stärker werdende verfügbare Rechenleistung, die Einbindung von Objektraumbeobachtungen in die Trajektorienbestimmung auch in Echtzeit möglich geworden. Diese im Bereich der mobilen Robotik schon weit verbreiteten Verfahren erhalten immer mehr Einzug in die Trajektorienbestimmung mobiler Multisensorsysteme, insbesondere wenn die Anwendungs- oder Umgebungsbedingungen die Verfügbarkeit von GNSS-Beobachtungen verringern. Tab. 1 zeigt eine mögliche Kategorisierung der verschiedenen Messverfahren zur Trajektorienbestimmung. Die relativen Verfahren beobachten im Vergleich zu absoluten Verfahren lediglich Bewegungsänderungen. Indirekte Verfahren basieren auf Objektraumbeobachtungen durch Kameras oder Laserscanner, wobei die hier aufgelisteten Verfahren teilweise auf ähnlichen oder identischen Methoden basieren, worauf später genauer eingegangen wird.
100
H. Kuhlmann und L. Klingbeil
Tab. 1 Mögliche Kategorisierung verschiedener Verfahren zur Trajektorienbestimmung Relative Verfahren
Absolute Verfahren
2.1
Direkte Verfahren
Indirekte Verfahren
Inertialnavigation Koppelortung Odometrie GNSS-Geschwindigkeiten GNSS Neigungssensorik Kompass
Scan-Matching (Laser) Visuelle Odometrie (Kamera)
Passpunkte/Landmarken (Laser, Kamera) Bündelausgleichung (Kamera) SLAM (Laser, Kamera) Map-Matching (Laser, Kamera, Trajektorie)
Koordinatensysteme
Das Ziel beim Einsatz mobiler Multisensorsysteme ist die Darstellung von in einem mit der Plattform bewegten Sensorkoordinatensystem aufgenommen Beobachtungen oder daraus abgeleiteter Größen in einem Zielkoordinatensystem (Abb. 3). Das Zielkoordinatensystem wird dabei abhängig von der Anwendung gewählt. Die Transformation zwischen dem Sensorkoordinatensystem und dem Zielkoordinatensystem geschieht im Allgemeinen über mehrere Einzeltransformationen, die teilweise einmalig (Kalibrierung) und teilweise ständig (Trajektorienbestimmung) bestimmt werden müssen. Inertialsensoren messen die Bewegungsänderungen des Sensorsystems relativ zum Inertialsystem, wohingegen das Zielkoordinatensystem meist ein erdfestes System ist. In diesem Fall (Abschn. 2.2.1) ist der Umgang mit einer Reihe von
Abb. 3 Verschiedene Koordinatensysteme, die bei der Trajektorienbestimmung für sich bewegende Systeme eine Rolle spielen
4 Mobile Multisensorsysteme
101
Koordinatensystemen notwendig, die im Folgenden vorgestellt werden. Im Falle lokaler Zielkoordinatensysteme (z. B. Baustellensysteme) und ohne die Verwendung von Inertialsensoren würde sich die Zahl der notwendigen Koordinatensysteme verringern. Sensorkoordinatensystem (s) Jeder Sensor hat sein eigenes Koordinatensystem, in dem seine Beobachtungen angegeben sind. Bei einem Profil-Laserscanner sind das z. B. Abstand und Winkel zum Objektpunkt in der Rotationsebene des Spiegels, bei einer Kamera das Kamerakoordinatensystem oder das Bildkoordinatensystem. Körperfestes System oder Plattformsystem (b) Die Achsen des körperfesten Systems liegen fest in der mobilen Plattform: Der Ursprung ist meist der Schwerpunkt oder ein physikalisch anmessbarer Punkt. Die x-Achse zeigt üblicherweise nach vorne, die y-Achse nach links und die z-Achse nach oben.3 Wichtig ist es, die Transformationen T bs zwischen den einzelnen Sensorkoordinatensystemen und dem körperfesten System (b) zu kennen. Letzteres wird durch Kalibrierverfahren erreicht (Abschn. 3.1). Navigationssystem (n) Das Navigationssystem hat denselben Ursprung wie das körperfeste System. Die x- und y-Achse liegen jedoch tangential am Rotationsellipsoid. Dabei zeigt die x-Achse nach Osten, die y-Achse nach Norden und die z-Achse entgegen der Schwerebeschleunigung nach oben (ENU-Konvention: „East-North-Up“).4 Die Orientierung des Multisensorsystems wird üblicherweise als Rotation Cbn zwischen dem Plattformsystem und dem Navigationssystem angegeben. Erdfestes System (e) Das erdfeste System ist häufig das Zielkoordinatensystem für Mobile-MappingAnwendungen. Hier gibt es verschiedene Definitionsmöglichkeiten. In diesem Beispiel hat es seinen Ursprung im Mittelpunkt des Rotationsellipsoids. Die Achsen sind fest im Bezug zur Erde. Dabei ist die z-Achse entlang der Rotationsachse, die x-Achse ist die Schnittgerade aus der Äquator- und der Nullmeridianebene und die y-Achse vervollständigt das Rechtssystem. Die x- und y-Achsen liegen in der Äquatorebene. Als Position peb des Multisensorsystems wird üblicherweise die Position des Ursprungs des Plattformsystems im erdfesten System angegeben. Welcher Koordinatentyp letztendlich für die Angabe der Position gewählt wird, ist abhängig von der Anwendung.
3
Das entspricht der üblichen Konvention für Landfahrzeuge. Bei fliegenden Systemen zeigt die y-Achse meist nach rechts (bezogen auf die Flugrichtung) und die z-Achse nach unten. 4 Das ist konsistent mit der Definition des körperfesten Systems. Bei Luftfahrzeugen zeigt x nach Norden, y nach Osten und z nach unten (NED: „North-East-Down“).
102
H. Kuhlmann und L. Klingbeil
Inertialsystem (i) Der Ursprung und die z-Achse des Inertialsystems sind die gleichen wie im erdfesten System. Die x- und y-Achse liegen in der Äquatorebene. Das erdfeste System rotiert bezüglich des Inertialsystems um seine z-Achse mit der Rotationsgeschwindigkeit !ie . Das Inertialsystem spielt beim Einsatz von Inertialsensoren eine Rolle.
2.2
Relative Messverfahren
2.2.1 Inertialnavigation Die Inertialnavigation ist ein umfangreiches Thema, über das hier ein kurzer Überblick gegeben wird. Detaillierte Informationen über die Sensoren und Algorithmen finden sich z. B. in Titterton & Weston [13] oder in Wendel [14]. Drehratensensoren (Gyroskope) und Beschleunigungssensoren (Akzelerometer) werden als Inertialsensoren bezeichnet. Jeweils drei von Ihnen – eine für jede Raumrichtung – bilden zusammengesetzt eine Inertialsensoreinheit (IMU: Inertial Measurement Unit). Ausgehend von bekannten Startwerten für die Orientierung, die Position und die Geschwindigkeit lässt sich prinzipiell über zweifache Integration der gemessenen Beschleunigungswerte und einfache Integration der gemessenen Drehraten die absolute Trajektorie eines Objektes rekursiv berechnen: e e pb ; veb ; C nb k D f peb ; veeb ; C nb k1; !bib ; abib
(2)
Der Algorithmus, der sich hinter der Funktion f verbirgt, wird StrapdownAlgorithmus genannt. Dieser ist in (Abb. 4) schematisch dargestellt und wird im Folgenden zusammen mit der Beschreibung der Sensoren und ihrer Eigenschaften beschrieben.
Abb. 4 Schematische Darstellung des Strapdown-Algorithmus
4 Mobile Multisensorsysteme
103
Drehratensensoren Drehratensensoren messen die Drehrate !bib des Plattformsystems relativ zum Inertialsystem, ausgedrückt im Plattformsystem (hier wird angenommen, dass die Transformation zwischen dem Sensorkoordinatensystem und dem Plattformkoordinatensystem durch Kalibrierung bekannt ist). Die gemessene Drehrate setzt sich allerdings aus mehreren Komponenten zusammen. Neben der Drehrate !bnb , die durch Integration zur eigentlich gesuchten Orientierung führt, enthält sie ebenfalls die Erdrehrate !bie , sowie die Drehrate !ben des Navigationssystems relativ zum erdfesten System (Transportrate). Im Strapdown-Algorithmus werden diese Komponenten berücksichtigt, wobei dafür die absolute Orientierung, die Position und die Geschwindigkeit bekannt sein müssen. Der Algorithmus muss also zwingend mit absoluten Startwerten initialisiert werden (Abb. 4). Es ist offensichtlich, dass die Unsicherheit bei dieser Orientierungbestimmung mit der Zeit wächst und dass systematische Messwertabweichungen sich über die Zeit aufaddieren (Drift). Um die Abweichung der Orientierungsbestimmung möglichst lange klein zu halten, muss man die Abweichungen des Sensors verstehen und minimieren. Hochpreisige Drehratensensoren, die auf optischen Verfahren basieren (Ringlaserkreisel, faseroptischer Kreisel), werden seit Jahrzehnten hauptsächlich in militärischen Anwendungen eingesetzt und ermöglichen eine Winkelgenauigkeit im Bereich von wenigen Grad über mehrere Stunden [13]. Aktuellere Gyroskope auf Basis der MEMS-Technologie (MEMS = Micro-Electro-Mechanical-Systems) befinden sich mittlerweile in jedem Smartphone, sind wenige Quadratmillimeter groß und kosten Cent-Beträge. Ihr Einsatz in Navigationsanwendungen ist allerdings wegen der hohen Messwertabweichungen problematisch. Als Beispiel sei hier die Biasstabilität erwähnt, die bei diesen kleinen und günstigen Sensoren klein ist, da das Bias, also der Ausgabewert des Sensors bei Ruhelage, sich mit der Zeit und mit der Temperatur ändert, so dass die Winkelabweichung nach einigen Sekunden bereits mehrere Grad betragen kann. Das Rauschen der Sensoren ist zudem so hoch, das z. B. die Erddrehrate gar nicht beobachtet werden kann [15]. Dennoch wird die Technologie ständig weiterentwickelt und die Sensoren werden immer besser, so dass hochwertige MEMS-Gyroskope bereits ähnliche Ergebnisse wie günstigere Ringlaser- oder faseroptische Kreisel liefern. Beschleunigungssensoren b Beschleunigungssensoren messen die Beschleunigung aib des Plattformsystems relativ zum Inertialsystem, ausgedrückt im Plattformsystem (auch hier wird angenommen, dass die Transformation zwischen dem Sensorkoordinatensystem und dem Plattformkoordinatensystem durch Kalibrierung bekannt ist). Zur Positionsbestimmung ist man eigentlich nur an der Beschleunigungskomponente interessiert, die sich aus der Geschwindigkeitsänderung der Plattform bezüglich des erdfesten Systems ergibt. Allerdings misst der Sensor zusätzlich eine Komponente durch die Corioliskraft, welche von der Erddrehrate, der Transportrate und der Geschwindigkeit abhängt, sowie eine Komponente durch die Gravitation und die Fliehkraft (Erdschwere). Diese Komponenten werden im Strapdown-Algorithmus berücksichtigt, allerdings wird dafür zusätzlich zu den eben genannten Abhängigkeiten noch
104
H. Kuhlmann und L. Klingbeil
die mit Hilfe der Drehratensensoren bestimmte absolute Orientierung der Plattform benötigt. Mit der Zeit größer werdende Abweichungen in der Orientierungsbestimmung koppeln also daher über eine fehlerhafte Kompensation der ungewollten Beschleunigungskomponenten in die Geschwindigkeits- bzw. Positionsbestimmung ein. Der bei Weitem größte Anteil kommt dabei durch die Erdschwere zustande. Eine Orientierungsabweichung von einem Grad führt z. B. zu einem Beschleunigungsbias von etwa 0,2 m=s2 , was wiederum aus der Ruhelage heraus nach einer Sekunde zu einer Positionsabweichung von 0,2 m führt, die mit der Zeit noch quadratisch ansteigt. Die Qualität der Drehratensensoren spielt daher für die Positionsbestimmung eine mindestens so wichtige Rolle wie die Qualität der Beschleunigungssensoren selbst. Abweichungen wirken sich jedoch in beiden Fällen durch die zweifache Integration besonders schnell aus. Während eine hochpreisige auf optischen Kreiseln basierende IMU in der Lage ist, die Position nach mehreren Minuten noch mit Abweichungen unterhalb eines Meters zu bestimmen, werden mit einer günstigen MEMS-basierten IMU bereits nach Sekunden Abweichungen von mehreren Metern erreicht. Dennoch ist letztere in kosten- und größenlimitierten Systemen häufig die einzige Option, weshalb dort die Auswertealgorithmen und die Einbindung anderer Sensoren zur Stützung der Berechnung eine große Rolle spielen.
2.2.2 Koppelortung Der ursprünglich aus der Schifffahrt kommende Begriff der Koppelortung (engl.: Dead Reckoning) bezeichnet die fortlaufende Bestimmung der eigenen Trajektorie aus Streckenstücken s und Richtungsänderungen ' unter der Annahme bekannter Anfangsbedingungen (polares Anhängen, Abb. 5):
'k D 'k1 C 'k xk D xk1 C si cos 'k yk D yk1 C si sin 'k
(3)
Die Streckenstücke können dabei z. B. durch die Zählung von Radumdrehungen mit Radencodern direkt gemessen oder über Geschwindigkeitsmessungen und Zeitinformationen bestimmt werden. Die Richtungsänderung kann z. B. mit Hilfe von senkrecht zur Trajektorienebene messenden Drehratensensoren oder mit Differentialodometern bestimmt werden. Häufig wird die Richtungsinformation auch direkt mit Hilfe eines absoluten Verfahrens (Abschn. 2.3.2) bestimmt. Die Unsicherheit der Position, die wie in Abb. 5 dargestellt mit der Zeit ungebunden anwächst, hätte in diesem Fall jedoch eine kleinere Komponente senkrecht zur Bewegungsrichtung. Die Koppelortung wird auch als Odometrie bezeichnet, da für die Messung der zurückgelegten Streckenstücke meist Odometer eingesetzt werden. Odometrie kann auch mit bildbasierten Verfahren durchgeführt werden.
4 Mobile Multisensorsysteme
105
Abb. 5 Prinzip der Koppelortung
2.2.3 Visuelle Odometrie Bei der visuellen Odometrie wird aus aufeinander folgenden Bildern die Orientierungs- und Positionsänderung der Kamera zwischen zwei Aufnahmezeitpunkten berechnet. Das geschieht, wie in Abb. 6 rechts dargestellt, üblicherweise über korrespondierende Punkte in den Bildern, die mit Hilfe verschiedener Merkmale zugeordnet werden (z. B. SIFT, siehe Lowe [16]). Eine ausführliche Beschreibung dieser Methode findet sich z. B. in Scaramuzza & Fraundorfer [17]). Erst in den letzten Jahren ist es durch Entwicklungen im Bereich der Bildverarbeitung und durch die immer höher werdende verfügbare Rechenleistung
Abb. 6 Links: Scan-Matching; Rechts: Visuelle Odometrie
106
H. Kuhlmann und L. Klingbeil
möglich geworden, die visuelle Odometrie in Echtzeit einzusetzen. Verbessert wird die Leistung der Verfahren noch durch die gleichzeitige Verwendung von zwei (Stereo) oder mehr (Multiview-Stereo) Kameras. Die Verfügbarkeit und die Qualität der Bewegungsbestimmung hängen von der Anzahl, der Verteilung und der Erkennbarkeit signifikanter Punkte im Bild ab. Diese wiederum hängen von der Geschwindigkeit der Plattform, der Beschaffung der Umgebung und den Beleuchtungsbedingungen ab. Eine durchgehende Schätzung der Trajektorie ist also nur bei ununterbrochen guten Bedingungen möglich, weshalb die Verwendung zusätzlicher Sensoren ratsam ist.
2.2.4 Scan-Matching Das sog. Scan-Matching ist ähnlich dem Verfahren der visuellen Odometrie, gearbeitet wird jedoch auf mit einem Laserscanner aufgenommenen Punktwolken. In die Berechnung der relativen Sensorbewegung gehen entweder die Scanpunkte direkt oder aus der Umgebung mehrerer Scanpunkte berechnete Merkmale ein. Ein häufig verwendeter Algorithmus, der die Scanpunkte direkt verwendet, ist der ICPAlgorithmus (ICP = Iterative Closest Points, Besl & McKay [18]. Scan-Matching ist somit ebenfalls ein relatives Verfahren, das im Bereich der mobilen Robotik häufig eine große Rolle spielt. Eine detaillierte Beschreibung dieser Methode findet sich in Lu & Milios [19].
2.2.5 SLAM Sowohl bei der visuellen Odometrie als auch beim Scan-Matching treten Drifteffekte auf, die die Abweichung der Trajektorie genau wie bei der Koppelortung und der Inertialnavigation ungebunden wachsen lassen. Hier gibt es allerdings Methoden, diese Drift zu verringern bzw. zu eliminieren. Wenn man sich die markanten Punkte im Bildraum, die im simplen Fall nur für die Bewegungsschätzung zwischen zwei Aufnahmezeitpunkten verwendet werden, als Punkte im Objektraum merkt, deren Positionsschätzung mit jeder Epoche verbessert und ständig neue Punkte hinzunimmt, so ist zu erwarten, dass sich die Drift signifikant verringert. Wenn man jetzt nach einiger Zeit einen vorher generierten Punkt des Objektraumes wiedersieht, lässt sich durch diesen Schleifenschluss die Drift sogar rückwirkend eliminieren. Mit diesem Verfahren wird also gleichzeitig zur Trajektorienbestimmung eine Karte des Objektraums gebildet, weshalb es auch als SLAM (Simultaneous Localization and Mapping) bekannt geworden ist, s. Stachniss [37]. Streng genommen ist SLAM ein absolutes Verfahren, da es innerhalb der simultan gebauten „übergeordneten“ Karte eine absolute Trajektorie liefert, allerdings in einem lokalen Koordinatensystem. Für den Übergang in das erdfeste System sind dann weitere Informationen notwendig, wie z. B. Passpunkte oder GNSS-Beobachtungen.
4 Mobile Multisensorsysteme
2.3
Absolute Messverfahren
2.3.1
GNSS
107
Positionsbestimmung GNSS-Empfänger (Global Navigation Satellite System, z. B. GPS) sind die in Mobile-Mapping-Systemen am häufigsten eingesetzten absoluten Sensoren zur Bestimmung der Position des bewegten Objektes. Dabei werden meist differentielle Auswerteverfahren auf Basis von Trägerphasenbeobachtungen eingesetzt, da hier unter Idealbedingungen Positionsgenauigkeiten im Zentimeterbereich und Datenraten bis zu 20 Hz oder sogar mehr möglich sind. Für Details zur Funktionsweise von GNSS und zu den Prinzipien unterschiedlicher Auswerteverfahren sei auf entsprechende Literatur (Hofmann-Wellenhof et al. 2008 [20]) verwiesen. Es soll jedoch auf zwei Aspekte eingegangen werden, die bei der Verwendung von GNSS auf bewegten Systemen eine Rolle spielen. Beide ergeben sich aus der Tatsache, dass bei bewegten Systemen, insbesondere bei bodengebundenen, die GNSSBedingungen eben nicht immer ideal sind und sich zudem ständig ändern. Zum einen führen Gebäude, Brücken und Vegetation häufig zu Abrissen einzelner oder aller Satellitensignale, nach denen die Mehrdeutigkeiten in den Trägerphasenbeobachtungen neu aufgelöst werden müssen. Diese Mehrdeutigkeiten sind die größte Herausforderung bei der zentimetergenauen GNSS-Auswertung. Sie aufzulösen ist im Wesentlichen ein Suchproblem, welches im statischen Fall über eine ausreichend lange Beobachtungsdauer (Sekunden bis Minuten) gelöst wird. Bei bewegten Systemen hat man diese Zeit üblicherweise nicht, da währenddessen ja keine oder nur eine ungenaue Positionsbestimmung möglich ist. Daher werden dazu besondere Filterverfahren unter Einbeziehung zusätzlicher Sensoren wie Inertialsensoren eingesetzt (Abschn. 2.4). Zum anderen führen Mehrwegeeffekte, bei denen zusätzlich oder alternativ zum direkten Signal vom Satelliten ein an Objekten (Häuser, Boden, Fahrzeuge) reflektiertes indirektes Signal den Empfänger erreicht, zu systematischen Abweichungen in der Positionsbestimmung. Diese Effekte ändern sich mit der Position der Satelliten, weshalb im statischen Fall das Problem wie oben durch eine ausreichend lange Beobachtungsdauer (Stunden) umgangen werden kann. Bei bewegten Systemen ist das nicht möglich, weil sich die Effekte auch mit der Bewegung des Empfängers ändern. Orientierungsbestimmung Wenn man zwei GNSS-Antennen auf der Plattform befestigt, spannen diese eine kurze lokale Basislinie auf. Die Auswertung dieser Basislinie liefert einen absoluten Vektor im erdfesten Koordinatensystem und damit zwei absolute Orientierungswinkel der Plattform. Mit drei Antennen lässt sich so die vollständige Orientierung bestimmen. Auf Schiffen und Flugzeugen werden diese auch als GNSS-Kompass bezeichneten Systeme häufig eingesetzt. Besondere Herausforderungen ergeben sich allerdings beim Einsatz von günstigen Empfängern auf Plattformen mit Platz-
108
H. Kuhlmann und L. Klingbeil
und Gewichtsbeschränkungen. Hier werden ebenfalls Kombinationen mit anderen Sensoren eingesetzt [21], um Signalunterbrechungen zu überbrücken und Mehrdeutigkeiten schnell zu lösen.
2.3.2 Neigungssensorik und Kompass Durch den Erdschwerevektor und den Erdmagnetfeldvektor sind (dort wo die Vektoren nicht parallel oder antiparallel sind) zwei Achsen des Navigationskoordinatensystems („North“ und „Up“) eindeutig bestimmt. Durch die Beobachtung dieser beiden Vektoren im Plattformkoordinatensystem lässt sich also prinzipiell die Orientierung C nb der Plattform (Rotation ins Navigationssystem) berechnen. In der Praxis gibt es allerdings bei der Beobachtung beider Vektoren Schwierigkeiten, die im Folgenden kurz erläutert werden. Erdschwere Wie schon in Abschn. 2.2.1 gezeigt, kann mit Beschleunigungssensoren der Vektor der Erdschwere gemessen werden, der allerdings im Falle einer bewegten Plattform von einer translatorischen bewegungsinduzierten Beschleunigung überlagert wird.5 Es gibt zwei Möglichkeiten, damit umzugehen. In einem Fall wird die translatorische Beschleunigung mit anderen Sensoren (z. B. GNSS) beobachtet und man kann die Erdschweremessung so korrigieren. Das geschieht z. B. bei GNSS/IMUbasierten Systemen, in denen durch die Fusion der unterschiedlichen Sensoren die Schwerebeschleunigung und die translatorische Beschleunigung getrennt werden können (Abschn. 2.4). Im anderen Fall, wenn man keine unabhängige Information über die translatorische Beschleunigung hat, kann diese unter der Annahme, dass sie immer nur kurzzeitig auftritt und sich im langfristigen Mittel zu Null addiert, mit Hilfe eines Tiefpassfilters unterdrückt werden. Das ist die üblicherweise in Neigungssensoren eingesetzte Methode, die jedoch gleichzeitig dazu führt, dass die Dynamik der Neigungsmessung so stark eingeschränkt wird, dass sie eigentlich nur für statische Anwendungen verwendet werden kann. Erdmagnetfeld Der Magnetfeldsensor misst den lokalen Vektor des Erdmagnetfeldes. Projiziert auf die Ebene senkrecht zur Gravitation zeigt dieser in die y-Richtung („North“) des Navigationskoordinatensystems. Leider wird das Erdmagnetfeld durch in der Nähe des Sensors befindliche ferromagnetische Materialien überlagert oder gestört. Diese Störungen lassen sich, wenn sie von Materialien kommen, die sich innerhalb des Plattformsystems nicht bewegen, teilweise mit aufwendigen Verfahren [22] kompensieren. Störungen durch Materialien in der Umgebung (z. B. durch Gebäude oder Fahrzeuge) können aber immer noch zu Problemen führen. Die Größe der Abweichung hängt von dem Abstand und der Menge des störenden Materials ab und ist nicht oder nur schwer kalkulierbar. So zeigt z. B. die magnetfeldbasierte
5
Realistische Beschleunigungs- und Abbremsvorgänge eines Fahrzeuges im Bereich von -3g bis 3g führen beispielsweise zu Abweichungen bis zu 15˚, wenn die translatorische Komponente ignoriert wird.
4 Mobile Multisensorsysteme
109
Bestimmung der Nordrichtung innerhalb eines Gebäudes schon durch die verbauten Materialien einige Grad Abweichung. Diese kann aber beispielsweise in der Nähe eines Fahrstuhls leicht auf bis zu 45˚ oder mehr anwachsen. Erdrotation Der Vollständigkeit halber sei an dieser Stelle noch erwähnt, dass die Beobachtung des Erdrotationsvektors durch Drehratensensoren bei bekannter Position im erdfesten System ebenfalls die Bestimmung der Nord-Richtung ermöglicht [13]. Die Präzision der Drehratensensoren muss dazu allerdings höher als die Rotationsrate der Erde sein, was im Falle von MEMS-basierten Sensoren nicht gegeben ist. Weiterhin ist dieses Verfahren nur im statischen Fall möglich, weshalb es für mobile Multisensorsysteme lediglich zur Initialisierung eingesetzt werden kann.
2.3.3 Bündelausgleichung und SLAM Bei der Bündelausgleichung werden in einem prinzipiell beliebig großen Satz von sich überlappenden Fotos die Kamerapositionen und -orientierungen aller Bilder sowie die Koordinaten von in den Bildern abgebildeten und wiedergefundenen Objektpunkten in einem gemeinsamen, zunächst lokalen Koordinatensystem bestimmt [1]. Das Verfahren der Bündelausgleichung kann somit als eine Art „absoluter Sensor“ für ein bewegtes Kamerasystem gesehen werden. Wie schon in Abschn. 2.2.5 erwähnt, lässt sich dieses lokale Koordinatensystem dann durch die Verwendung von Passpunkten in ein Zielkoordinatensystem überführen. Ein Nachteil der Bündelausgleichung ist, dass die daraus berechnete Trajektorie durch den erheblichen Rechenaufwand erst nach einer nachträglichen Auswertung zur Verfügung steht (einige Stunden Rechenzeit, abhängig vom der Leistungsfähigkeit des Computers, der Anzahl der Bilder und der gewünschten Auflösung). Die Bündelausgleichung ist eng verwandt mit dem vollständigen SLAMProblem, bei dem die gesamte Trajektorie und die Karte, also die Positionen aller Objektpunkte, in einem globalen Ausgleich geschätzt werden, was auch nur dann möglich ist, wenn zu Beginn der Berechnung bereits alle Beobachtungen vorliegen. Wie in Abschn. 2.2.5 bereits beschrieben, gibt es aber auch Verfahren, bei denen man ausgehend von der Idee des Scan-Matching oder der Visuellen Odometrie die aktuelle Position und Orientierung schätzt und dabei ständig neue Objektpunkte hinzunimmt bzw. die Position der alten verbessert (OnlineSLAM). Bei der inkrementellen bzw. gleitenden Bündelausgleichung [23] wird zusätzlich zu regelmäßigen Zeitpunkten das letzte Trajektorienstück mit einer Bündelausgleichung neu geschätzt, um so die Genauigkeit der Objektpunkte und der aktuellen Positions- und Orientierungsschätzung zu verbessern. Die Bündelausgleichung wird somit echtzeitfähig. 2.3.4 Map-Matching Ganz allgemein bezeichnet Map-Matching das Einpassen von Beobachtungen in eine bekannte Karte. Entspricht z. B. die bekannte Karte der Beobachtung des Laserscanners in einer Epoche und wird der Scan der nächsten Epoche in diese Karte durch Scan-Matching (z. B. mittels ICP) eingepasst, so ist das eine Art
110
H. Kuhlmann und L. Klingbeil
von Map-Matching. Gleiches gilt bei SLAM-Verfahren durch das Einpassen von Beobachtungen in die globale Karte. Map-Matching ist auch auf Basis der Trajektorie möglich, wenn eine Karte mit den möglichen Trajektorien (z. B. eine Straßenkarte) existiert. Diese Methode wurde schon in den 80er-Jahren in Fahrzeugnavigationssystemen zur Ergänzung der damals künstlich verschlechterten GPSBeobachtungen eingesetzt. Dabei werden aus Sensordaten Koordinaten-, Winkeloder Krümmungsprofile der Trajektorie berechnet und diese mittels Kreuzkorrelation mit den aus einer Straßenkarte extrahierten Profilen verglichen [24]. Dadurch kann die wahrscheinlichste aktuelle Position innerhalb der Karte ermittelt werden. Im weitesten Sinne sind alle Verfahren zur absoluten Trajektorienbestimmung Map-Matching-Verfahren: Durch die Beobachtung von Objekten, deren Positionen in einem bestimmten Koordinatensystem bekannt sind („Map“), versucht man die eigene Position (und Orientierung) in das Koordinatensystem der Objekte einzupassen („Matching“). Bei der klassischen geodätischen Punktbestimmung sind diese Objekte vermarkte Punkte bekannter Koordinaten, die z. B. mit Hilfe von Einmessungsskizzen gefunden werden können und dann durch Anmessung über Strecken und Richtungen zur eigenen Positionsbestimmung verwendet werden. Ein anderes Beispiel ist eine GNSS-Auswertung. Die Satelliten bilden hier die Punkte bekannter Koordinaten, nur ändern sich diese mit der Zeit; die Schätzung der eigenen Position im GNSS-Koordinatensystem wird so optimiert, dass die Beobachtungen (z. B. Pseudostrecken) bestmöglich zur aktuellen „Karte“ der Satelliten passen. Während in den hier genannten Beispielen die Kartenelemente punktförmig sind („Landmarken“), können diese bei der Verwendung flächenhafter Messverfahren ( Kap. 6, „Flächenhafte Abtastung mit Laserscanning“) auch aus Oberflächen bestehen.
2.4
Filterung und Sensorfusion
Würden wir die Position und Orientierung eines statischen Objektes möglichst genau und zuverlässig bestimmen wollen, würden wir eine Vielzahl verschiedener unabhängiger Messungen mehrfach durchführen und so eine hohe Überbestimmung erreichen. Im Falle der eben beschriebenen absoluten Verfahren und im Falle eines sich bewegenden Objektes ist diese Überbestimmung nicht ohne weiteres erreichbar. So würden zum Beispiel die drei Freiheitsgrade der Position in einer einzelnen Epoche nur durch die Messungen des GNSS-Empfängers beobachtet werden können. Unter Umständen sind diese, abgesehen von zufälligen Beobachtungsabweichungen, zusätzlich noch durch systematische Abweichungen oder grobe Fehler überlagert.6 Es gibt drei Möglichkeiten mit dieser fehlenden Redundanz umzugehen:
6 Letztere treten zum Beispiel bei GNSS-Beobachtungen auf, wenn lediglich das indirekte, an einem Objekt reflektierte Satellitensignal die Antenne erreicht.
4 Mobile Multisensorsysteme
111
– Die Einbeziehung von Modellwissen über das System. Sich bewegende Plattformen können aufgrund ihrer Massenträgheit nicht beliebig schnelle Positions- und Orientierungsänderungen vornehmen. Es lässt sich also für die Trajektorie in einem bestimmten Zeitabschnitt eine Glattheitsannahme treffen. Allgemeiner formuliert bedeutet das: Wenn wir wissen, welchen Zustand (inklusive der Unsicherheit darüber) ein System zum letzten Zeitpunkt hatte, und wir eine Ahnung davon haben, was seitdem passiert sein könnte (z. B. über ein Systemmodell oder relative Messverfahren), so können wir diese Informationen als Vorbedingung in die Schätzung des aktuellen Zustandes einfließen lassen und so eine verbesserte Genauigkeit und Zuverlässigkeit erreichen. – Einbindung zusätzlicher Sensoren. Die Fusion möglichst vieler verschiedener Messverfahren, ob relativ oder absolut, direkt oder indirekt, in die Schätzung unter statistisch korrekter Berücksichtigung der individuellen Unsicherheiten dieser Verfahren erhöht ebenfalls die Genauigkeit und Zuverlässigkeit. – Einbindung von Modellwissen über die Umgebung. Einige der indirekten Verfahren benötigen Informationen über die Umgebung, z. B. in Form einer Karte. Diese kann, wie in Fall von SLAM, während des Schätzvorgangs erzeugt werden, oder wie im Fall von Passpunkten vorher bekannt sein. Das Modellwissen kann im Falle indirekter Verfahren die Anzahl unabhängiger Messungen erhöhen oder diese erst ermöglichen. Gleichzeitig kann es als die Bewegung einschränkende Nebenbedingung in die Trajektorienschätzung eingehen und diese so verbessern. Rekursive Bayes-Schätzverfahren, z. B. in Form von Kalman-Filtern oder dessen Varianten, bieten das methodische Gerüst, um alle drei genannten Möglichkeiten gleichzeitig umzusetzen. Im Folgenden wird zunächst das Kalman-Filter, welches das bekannteste dieser Verfahren darstellt, kurz erläutert. Dann wird anhand von Beispielen dargestellt, wie sich Modellwissen über das System und Informationen weiterer Sensoren in das Kalman-Filter einbinden lassen. Eine verallgemeinerte Darstellung der rekursiven Bayes-Schätzung führt schließlich zum Partikel-Filter und zur Erzeugung und Einbindung von Modellwissen über die Umgebung (z. B. SLAM).
2.4.1 Das Kalman-Filter Beim diskreten Kalman-Filter wird davon ausgegangen, dass sich der zu schätzende Zustand x k eines Systems zu einem Zeitpunkt tk (also in diesem Fall z. B. die Position und Orientierung der Plattform) durch einen linearen Zusammenhang aus dem vorherigen Zustand x k1 , eventuell bekannten Einflussgrößen („Stellgrößen“) uk (mit Kovarianz ˙ uu / und einem normalverteilten stochastischen Anteil („Störgröße“) wk N .0; ˙ ww / ergibt:
x k D T x k1 C Buk C C wk :
(4)
112
H. Kuhlmann und L. Klingbeil
Weiterhin wird davon ausgegangen, dass der Zustand xk durch eine linear mit ihm zusammenhängende Beobachtung lk (also z. B. dem Ergebnis einer GPS-Auswertung) und eine ebenfalls normalverteilten Beobachtungsabweichung k D N .0; † ll / ermittelt wird: l k D Ax k C "k :
(5)
Die bekannten Kalman-Filter-Gleichungen ergeben sich dann zu Vorhersageschritt
˙ xNxN;k
xN k D T x k1 C Buk D T ˙ xx;k1 T T C B˙ uu B T C C ˙ ww C T
(6)
Korrekturschritt d k D l k A xN k ˙ dd;k D A˙ xNxN;k A T C ˙ ll K k D ˙ xNxN;k A T ˙ 1 dd;k x k D xN k C K k d k ˙ xx;k D ˙ xNxN;k T T K k ˙ dd;k K Tk
(7)
Diesen sich immer wiederholenden Vorgang bestehend aus Vorhersage und Korrektur haben alle rekursiven Bayes-Schätzverfahren gemeinsam. Im Vorhersageschritt wird die zum letzten Zeitpunkt beste Schätzung x k1 inklusive ihrer Unsicherheit ˙ xx;k1 mit Hilfe eines Systemmodells T und dessen Unsicherheit C ˙ ww C T sowie einer bekannten Einflussgröße uk und dessen Unsicherheit ˙ uu zu einer Vorhersage xN k zum aktuellen Zeitpunkt fortgeschrieben. Im Korrekturschritt wird dann auf Basis dieser Vorhersage eine Messung A xN k prädiziert, deren Unterschied d k (Innovation) zur tatsächlich beobachteten Messung l k zur Korrektur des vorhergesagten Zustandes verwendet wird. Wie viel Einfluss die Innovation auf die Korrektur hat, wird dabei durch die Unsicherheit der Vorhersage ˙ xx;k N und die Unsicherheit der Messung ˙ ll bestimmt. Das Kalman-Filter ist unter der Annahme, dass die Modelle linear und die Abweichungen normalverteilt sind, ein optimaler Schätzer im Sinne der kleinsten Quadrate. In den meisten Fällen sind diese Annahmen jedoch nicht gegeben. So sind die Modelle im Allgemeinen nicht linear: x k D f .x k1 ; uk ; wk / l k D h.x k ; k /
(8)
Da Normalverteilungen unter nicht linearen Transformationen nicht mehr normal verteilt sind, gibt es zwei Strategien, die Kalman-Filter-Gleichungen, wie sie oben dargestellt wurden, immer noch anwendbar zu machen. Eine Möglichkeit ist es, die Modelle zu linearisieren, was zum sog. Erweiterten (engl. Extended) KalmanFilter (EKF) führt. Für die Aufstellung der System- und Beobachtungsgleichungen,
4 Mobile Multisensorsysteme
113
insbesondere zur Transformation der Kovarianzen, werden die Gleichung f und h nach Taylor bis zu Termen erster Ordnung entwickelt: Tk D
ˇ ˇ ˇ ˇ @f ˇˇ @f ˇˇ @f ˇˇ @h ˇˇ ; B D ; C D ; A D k k k @x k ˇxk1 @uk ˇuk @wk ˇwk @x k ˇxk
(9)
Während die Prädiktion des Zustandes und der Messung direkt mit den nicht linearen Funktionen erfolgen kann, werden die restlichen Gleichungen mit Hilfe der Jacobi-Matrizen transformiert. Diese Variante ist durch die Linearisierung nur noch eine Approximation und daher keine optimale Lösung mehr. Sie ist die am häufigsten eingesetzte nichtlineare Kalman-Filter-Variante. Jedoch kann es bei hohen Nichtlinearitäten der Modelle und bei großen Unsicherheiten der Zustände und Beobachtungen aufgrund der Linearisierung zu Ungenauigkeiten kommen. In diesen Fällen kann ein Unscented Kalman-Filter (UKF) bessere Ergebnisse liefern. Dabei wird die aktuelle Zustandsschätzung inklusive ihrer Kovarianz durch eine Menge von 2n C 1 sog. Sigma-Punkten Xi repräsentiert:
x k ; ˙ xx;k ) fX i g ; i D 1 : : : 2n;
(10)
wobei n die Dimension des Zustandsvektors ist. Diese Sigma-Punkte werden nach einer bestimmten Vorschrift so aus dem Mittelwert und der Kovarianz des Zustandsvektors berechnet, dass die ersten Momente ihrer statistischen Verteilung unter nicht-linearen Transformationen möglichst erhalten bleiben. Nach der Transformation der Punkte durch die im Allgemeinen nicht linearen Funktionen f und h an den entsprechenden Stellen der rekursiven Schätzung werden aus deren Verteilung wieder Mittelwert und die Kovarianz zurückgerechnet. Die Gleichungen für Vorhersage und Korrektur sind dann sehr ähnlich zu den bereits gezeigten Gleichungen für das lineare Kalman-Filter. Auf eine detaillierte Beschreibung des Algorithmus sowie des Verfahrens zur Berechnung der Sigmapunkte und der Rekonstruktion von Mittelwert und Kovarianz wird an dieser Stelle verzichtet. Dazu sei z. B. auf Julier et al. [25] verwiesen.
2.4.2 Modellierung des Systemverhaltens Die Modellierung des zeitlichen Verhaltens des Systems spielt bei der KalmanFilterung eine zentrale Rolle. Je besser sie ist, desto besser erfüllt das Filter seinen Zweck, den geschätzten Zustand trotz mangelnder Redundanz durch die Beobachtung möglichst genau und zuverlässig zu schätzen. Wie das Systemverhalten modelliert wird, hängt von dem Modellwissen über das System und eventuellen bekannten oder unbekannten Einflussgrößen auf den Systemzustand ab. Dies soll am Beispiel der Bewegung einer Plattform in zwei Dimensionen diskutiert werden. Die Aufgabe der Trajektorienschätzung besteht also in der Bestimmung einer Koordinate px ; py k und eines Orientierungswinkels 'k für alle Zeitpunkte tk . Wir beginnen damit, dass wir nur wenig über die Plattform wissen. Wir zeigen beispielhaft,
114
H. Kuhlmann und L. Klingbeil
welche Möglichkeiten zur Modellierung des Systems bestehen. Sukzessive werden dann weiteres Modellwissen sowie Beobachtungen zusätzlicher Sensoren in die Vorhersage des Systemverhaltens eingebunden. Glattheitsannahme durch Plattformträgheit Nehmen wir zunächst an, es stände ein Sensor für die Position und einer für die Orientierung zur Verfügung, was zu einem sehr einfachen Messmodell führt. Nehmen wir weiter an, wir hätten keine Informationen über die Art der Plattform, womit in diesem Fall die physikalische Kopplung zwischen Position und Orientierung gemeint ist. Wir hätten also keine andere Wahl, als Position und Orientierung getrennt voneinander zu modellieren.7 Abhängig von der zu erwartenden Trägheit des Systems müssen wir uns jetzt entscheiden, ob wir im Modell eine konstante Position, eine konstante Geschwindigkeit oder eine konstante Beschleunigung der Plattform annehmen. Gleiches gilt für die Dynamik des Winkels. Die Unsicherheit des Modells wird durch die Störgröße modelliert. Entscheiden wir uns für eine konstante erste Ableitung sowohl in der Position als auch in der Rotation (so würde man vielleicht den modellieren), so setzt sich der Zustandsvektor Flug einer Frisbee-Scheibe x k D px ; py ; vx ; vy ; '; ! k aus der Position, der Geschwindigkeit, dem Winkel und der Winkelgeschwindigkeit zusammen und das Modell sieht wie folgt aus: p k D p k1 C vk1 t vk D vk1 C wv;k t2 'k D 'k1 C !k1 t !k D !k1 C w’;k t2
(11)
Die Störgrößen Œwv ; w' Tk N .0; ˙ ww / repräsentieren hier die Unsicherheit des Modells, also dessen Abweichung von der Realität durch ein normalverteiltes Beschleunigungsrauschen in Position und Winkel. Man kann auch sagen, die Geschwindigkeiten (translatorisch und rotatorisch) werden als Random-WalkProzesse modelliert. Da dieses sehr einfache Modell üblicherweise nicht der realen Bewegung entspricht, kann es passieren, dass abhängig von den Werten des Störgrößenrauschens und des Messrauschens echte Bewegungen vom Filter als Messabweichung interpretiert und weggefiltert werden oder Messabweichung als echte Bewegung in die Schätzung eingehen. Eine bessere Modellierung der Bewegung oder weitere Sensoren sind hier also erstrebenswert. Modellierung einer spurgeführten Plattform Nehmen wir jetzt an, wir hätten mehr Informationen über die Kinematik der Plattform. Sie bewegt sich immer in Richtung ihrer Ausrichtung, wie das in etwa bei einem spurgeführten Fahrzeug gegeben ist. Nimmt man wieder eine konstante Geschwindigkeit sowie eine konstante Winkelgeschwindigkeit an, so kann man den
7
In diesem Fall könnte man sie auch getrennt voneinander in zwei unabhängigen Filtern schätzen.
4 Mobile Multisensorsysteme
115
Zustandsvektor x k D px ; py ; v; '; ! im Gegensatz zum Beispiel vorher um eine Dimension reduzieren und das Modell sieht wie folgt aus: px;k D px;k1 C sin .'k1 / vk1 t py;k D py;k1 C cos .'k1 / vk1 t vk D vk1 C wv;k t2 'k D 'k1 C !k1 t !k D !k1 C w';k t2
(12)
Die Störgröße ist jetzt nur noch zweidimensional. In diesem Beispiel könnte man sogar ohne die direkte Beobachtung der Orientierung auskommen. Durch die Kopplung von Position und Orientierung wird diese indirekt geschätzt. Dennoch werden in der Modellierung der Drehrate und der Länge des Geschwindigkeitsvektors Annahmen gemacht, die für die wenigsten Plattformen immer gültig sind. Auch hier ist eine Unterscheidung zwischen Modellfehlern und Messabweichungen nicht immer möglich, insbesondere wenn diese im gleichen Frequenzbereich liegen. Die Möglichkeit durch Verbesserung der Vorhersage auf Basis von Stellgrößen oder relativen Messgrößen kann hier helfen. Einbindung von Stellgrößen und relativen Beobachtungen Nehmen wir jetzt an, wir hätten eine Plattform wie im Beispiel vorher, also mit einer Kopplung zwischen Position und Orientierung. Zusätzlich haben wir jedoch jetzt den Lenkradwinkel und die Stellung des Gaspedals zur Verfügung. Diese könnten als bekannte Einflussgrößen (Stellgrößen) in die Modellierung eingebunden werden. Modellannahmen, wie z. B. die einer konstanten Geschwindigkeit, wären nun nicht mehr nötig. Allerdings würde das Modell nun wesentlich komplexer. Um den Einfluss dieser Stellgrößen auf die interessanten Größen, wie Geschwindigkeit und Winkeländerung des Fahrzeugs bestimmen zu können, müssten eine Reihe anderer Größen wie die Lenkübersetzung, das Beschleunigungsverhalten des Fahrzeugs usw. bekannt sein. In diesem Fall gibt es dann eine Vielzahl anderer Modellunsicherheiten, die modelliert werden müssen. Es existieren jedoch Sensoren, wie z. B. das Odometer und der Drehratensensor, die uns direkt die Auswirkung einer (unbekannten) Stellgröße als Beobachtung liefern (z. B. die Geschwindigkeit in Fahrtrichtung durch Betätigung des Gaspedals oder eine Winkeländerung um die Hochachse durch Drehung des Lenkrads). Diese lassen sich dann trotzdem als Stellgrößen in ein Kalman-Filter einbinden. Das Beispiel von eben würde dann wie folgt aussehen: px;k D px;k1 C sin .'k1 / vodo;k t py;k D py;k1 C cos .'k1 / vodo;k t 'k D 'k1 C !gyro;k t
(13)
Dabei sind vodo und !odo die eben genannten relativen Messungen über die Bewegung; die Beobachtungsabweichungen dieser relativen Messungen gehen als Störgrößenrauschen ˙ uu in die Vorhersage mit ein.
116
H. Kuhlmann und L. Klingbeil
An dieser Stelle ist zu bemerken, dass das hier beschriebene Modell genau dem Prinzip der relativen Positionsbestimmung durch Koppelortung (Abschn. 2.2.2) entspricht. Übertragen auf drei Dimensionen und mit einem Beschleunigungs- statt einem Geschwindigkeitssensor entspricht es der Inertialnavigation aus Abschn. 2.2.1. Damit haben wir ein sehr weit verbreitetes Konzept zur Trajektorienschätzung beschrieben, welches zum Beispiel als „GPS/IMU-Integration“ bekannt ist (siehe zum Beispiel [13] oder [14]). Dabei wird die zeitliche Entwicklung des Objektes nicht modelliert, sondern durch die Inertialsensoren beobachtet. Der absolute Bezug und die Eliminierung der durch die Integration entstehenden Drift geschehen durch die absoluten Beobachtungen eines GPS-Empfängers. Ein Beispiel für ein darauf basierendes Filter folgt in Abschn. 4. Modellparameter, Formfilter und adaptive Filterung Am Beispiel der GPS-gestützten Koppelortung lassen sich noch einige weitere Konzepte erläutern, die beim Einsatz von Kalman-Filtern zur Trajektorienbestimmung häufig eine Rolle spielen. So kann es zum Beispiel vorkommen, dass einzelne Parameter des Bewegungsmodells oder der Beobachtungsgleichung während der Filterung mit geschätzt werden müssen. Ein Odometer wie im Beispiel oben liefert somit eigentlich nicht die Geschwindigkeit in Fahrtrichtung, sondern meistens die Anzahl Nodo der Radumdrehungen seit dem letzten Zeitschritt. Diese muss dann noch mit Kenntnis des Raddurchmessers D in ein Wegstück s D DNodo umgerechnet werden. Der Raddurchmesser ist jedoch im Allgemeinen nur ungefähr bekannt, bzw. ändert sich durch Abrieb oder Luftdruckänderungen sogar langsam mit der Zeit. Eine Möglichkeit, dieses Problem zu lösen ist, den Raddurchmesser als Teil des Zustandsvektors mit zu schätzen. Man würde ihn z. B. als konstant modellieren. Ähnlich kann mit dem Bias des Drehratensensors umgegangen werden. Wie in Abschn. 2.2.1 beschrieben, ändert sich das Bias abhängig von der Zeit und der Temperatur, weshalb man es üblicherweise als Random-Walk-Prozess modelliert und ebenfalls mit schätzt. Mathematisch äquivalent, aber etwas anders motiviert ist die Verwendung des sog. Formfilters (siehe z. B. Li & Kuhlmann [26]). Das Formfilter ermöglicht den Umgang mit nicht weißem, also zeitlich korreliertem Beobachtungsrauschen, wie es z. B. durch Mehrwegeeffekte bei GPS-Beobachtungen auftritt. Dabei wird das Beobachtungsrauschen in zwei Anteile unterteilt, nämlich einen nicht weißen informativen Anteil E und einen weißen Anteil. Der informative Anteil wird dann als zusätzlicher Parameter mit einem den stochastischen Eigenschaften entsprechenden Modell im Zustandsvektor geschätzt. Mit dem Offset der Drehratensensoren und dem Raddurchmesser als unbekanntem Modellparameter und dem nicht weißen GPS-Rauschen sieht das Systemmodell aus unserem Beispiel dann wie folgt aus:
px;k D px;k1 C sin .'k1 / Dk1 Nodo;k py;k D py;k1 C cos .'k1 / Dk1 Nodo;k 'k D 'k1 C .¨gyro;k bgyro;k1 /t
4 Mobile Multisensorsysteme
Dk D Dk1
.konstanter Raddurchmesser/
bgyro;k D bgyro;k1 C wgyro;k1
Ek D e
T t
korr
117
.Gyroskop-Bias, Random-Walk-Prozess/
Ek1 C wE;k1 .farbiges GPS-Rauschen, Gauss-Markov-Prozess/
(14)
Der zeitlich korrelierte Anteil des GPS-Rauschens wird hier als Gauss-MarkovProzess modelliert, Tkorr ist dabei die Korrelationslänge der Autokorrelationsfunktion, die z. B. empirisch bestimmt werden kann. In der Beobachtungsgleichung muss der Anteil Ek noch von der GPS-Beobachtung abgezogen werden. Es sei an dieser Stelle noch erwähnt, dass dieses Beispiel einen eher demonstrativen als praktischen Charakter hat. Es soll beispielhaft gezeigt werden, auf welche Weise systematische oder stochastische nicht normalverteilte Messwertabweichungen modelliert werden können und wie Modellparameter ein Teil des zu schätzenden Zustandes werden können. Insbesondere die im statischen Fall erfolgreich eingesetzte Methode des Formfilters zur Berücksichtigung der Mehrwegeeffekte muss bei sich bewegenden Plattformen nicht notwendigerweise funktionieren. Das zeitliche Verhalten des informativen Anteils E der GPS-Beobachtung ist vermutlich sehr ähnlich zu dem zeitlichen Verhalten der Bewegung selbst. Das Filter könnte dann, ähnlich wie im ersten Beispiel, nicht zwischen einer wahren Bewegung und einer Messwertabweichung unterscheiden. Eine intuitive Herangehensweise, die häufig bei der Fehlersuche und der Optimierung solcher Filter hilft, ist die, sich zu fragen, welche Möglichkeiten das Filter hat, um die Innovation, also die Abweichung von Modell und Vorhersage, zu minimieren. Liegt also in diesem Beispiel die beobachtete Position einen halben Meter neben der durch das Modell vorhergesagten, so hat das Filter zwei Möglichkeiten, diese Abweichung zu erklären. Entweder hat sich der informative Anteil E der Messabweichung verändert oder die Plattform hat sich bewegt. Haben beide Möglichkeiten eine ähnliche Wahrscheinlichkeit, ist also ihr Zeitverhalten ähnlich modelliert, kann das Filter keine gute Schätzung vornehmen. Es gibt auch formelle Methoden, um diese sog. Beobachtbarkeit von Parametern zu bestimmen, auf die jedoch hier nicht weiter eingegangen werden soll. Details dazu finden sich z. B. in Heunecke et al. [27]. Ergänzend sei noch erwähnt, dass die gleichzeitige Schätzung von Modellparametern und Zustandsgrößen in der Literatur auch adaptive Filterung genannt wird (z. B. Heunecke [28]). Gemeint ist dabei allerdings allgemeiner die Verwendung nicht starrer Modelle, die sich auch mit anderen Methoden wie z. B. Interacting Multiple Model Filtern (z. B. Bloom [29]) realisieren lässt.
2.4.3 Rekursive Bayes-Schätzung und das Partikel-Filter Die Trajektorienbestimmung mit Hilfe des oben eingeführten Kalman-Filters und dessen Varianten lässt sich auch mit probabilistischen Methoden formulieren (eine detaillierte mathematische Beschreibung findet sich z. B. in Thrun et al. [30]). Der Zustand eines dynamischen Systems zu einem Zeitpunkt tk (also z. B. die Posi-
118
H. Kuhlmann und L. Klingbeil
tion und Orientierung der Plattform) unter Berücksichtigung aller Beobachtungen Lk D fl 0 ; : : : ; l k g und Stellgrößen U k D fu0 ; : : : ; uk g bis zu diesem Zeitpunkt wird dabei durch die bedingte Wahrscheinlichkeitsdichtefunktion p.x k jLk ; U k / repräsentiert. („Die Wahrscheinlich von x k bei gegeben Lk und U k “). Diese kann auf Basis des „Bayes Theorems“ p .x k jLk; U k / D
p .Lk ; U k jx k / p .x k / p .Lk ; U k /
(15)
und unter den Annahmen, dass die Messungen fl 0 ; : : : ; l k g statistisch unabhängig sind und dass der Zustand des Systems x k nur von seinem unmittelbaren zeitlichen Vorgänger x k1 abhängt (Markov-Prozess 1. Ordnung), durch ein rekursives Verfahren berechnet werden: Vorhersageschritt p .x k jLk1 ; U k / D s p .x k jx k1 ; uk / p .x k1 jLk1 ; U k1 / dx k1
(16)
Korrekturschritt p .x k jLk ; U k / D
p .l k jx k / p.x k jLk1 ; U k / p.l k jLk1 ; U k /
(17)
Im Vorhersageschritt wird mit Hilfe des Systemmodells p .x k jx k1 ; uk /, also dem Vorwissen über die zeitliche Entwicklung des Systems inklusive der aktuellen Stellgröße, aus der letzten Schätzung p .x k1 jLk1 ; U k1 / eine Vorhersage p .x k jLk1 ; U k / prädiziert. Danach wird im Korrekturschritt diese Vorhersage mit Hilfe der sog. Likelihood p .l k jx k /, also der Wahrscheinlichkeit der Beobachtung bei gegebenem Zustand, berechnet. Der Term p.x k jLk1 ; U k / ist ein Normalisierungsfaktor. Die hier aufgeführten Gleichungen stellen die Grundlagen der rekursiven BayesSchätzung dar, die Integrale sind jedoch im Allgemeinen nicht analytisch lösbar. Erst durch die vereinfachenden Annahmen, dass alle Wahrscheinlichkeitsverteilungen normal, also durch Mittelwert und Kovarianz parametrisierbar sind, und dass die zugrunde liegenden System- und Messmodelle linear sind, werden aus den beiden Gl. (16) und Gl. (17) die weiter oben eingeführten Gleichungen des Kalman-Filters. Die Aufhebung der Linearitätsanforderung führt dann zu approximativen Verfahren wie dem Unscented und dem Extended Kalman-Filter. Eine Möglichkeit, die rekursive Bayes-Schätzung ohne Anforderungen an die Verteilungen und Modelle zu realisieren, ist es, die Wahrscheinlichkeitsdichteverteilungen wie bei der Monte-Carlo-Simulation als stochastisch generierte Menge von Stichproben („Partikel“) zu repräsentieren und diese jede für sich entsprechend den System- und Messmodellen zu prädizieren und zu filtern. Dieses Verfahren führt zum sog. Partikel-Filter. Die Formulierung der System- und der Beobachtungsgleichungen erfolgt dabei äquivalent zu den vorher beschriebenen Verfahren, so
4 Mobile Multisensorsysteme
119
dass auch die Überlegungen zur Systemmodellierung (Abschn. 2.4.2) hier genauso gelten. Auf die Implementierung des Partikel-Filters, welcher auch in verschiedenen Varianten existiert, wird jedoch an dieser Stelle nicht weiter eingegangen. Dafür sei z. B. auf Thrun et al. [30]. verwiesen. Ein wesentlicher Vorteil des Partikel-Filters gegenüber den vorgestellten Kalman-Filter-Konzepten ist, dass es damit möglich ist, multimodale Wahrscheinlichkeiten zu modellieren, wohingegen die Kalman-Filter von einer unimodalen Verteilung ausgehen. Auf diese Weise können z. B. mehrere Hypothesen für die Zustände modelliert werden, wenn z. B. die Beobachtungen mehrdeutig sind. Das könnte dann der Fall sein, wenn eine Trajektorieneinpassung über ein MapMatching-Verfahren eingesetzt wird und zum aktuellen Profil der Trajektorie noch mehrere passende Kandidaten in der Karte gefunden werden. Genauso führt die Beobachtung nicht eindeutig zuordnungsbarer Landmarken, wie Türen oder Fenster, zu Mehrfachhypothesen für die geschätzte Position bzw. Orientierung, die sich jedoch im besten Fall im zeitlichen Verlauf auflösen. Der Preis des Partikel-Filters ist allerdings ein signifikant höherer Rechenaufwand. Ein bemerkenswerter Unterschied zu den vorher beschriebenen Filtern KF, UKF und EKF ist der, dass der Einfluss der Prozess- und Messunsicherheiten auf die Schätzung durch das Ziehen neuer Samples aus den entsprechenden Verteilungsfunktionen realisiert wird und nicht durch die deterministische Berechnung der Kovarianzen oder wie im Falle des UKF der Sigmapunkte. Das führt natürlicherweise dazu, dass jeder Durchlauf des Filters bei identischen Anfangsbedingungen, Beobachtungen und Stellgrößen zu unterschiedlichen Ergebnissen führt. Dieser Effekt ist größer, je kleiner die Anzahl der verwendeten Partikel ist. Ohne auf Details einzugehen, soll hier kurz erwähnt werden, wie sich das schon beschriebene SLAM-Problem als rekursive Bayes-Schätzung formulieren lässt. Da neben der Trajektorie auch die Karte m, die die Umgebung repräsentiert, bestimmt werden soll, wird diese in die zu schätzende Wahrscheinlichkeitsdichte aufgenommen, die wie folgt dann faktorisiert p .x k ; mjLk ; U k / D p .x k jLk ; U k / p .mjx k ; Lk /
(18)
und z. B. mit Hilfe eines Partikel-Filters bestimmt werden kann. Wie die Repräsentation der Karte m aussieht, hängt von der Anwendung ab. Bei bildbasierten Verfahren könnte m z. B. eine Liste aller bisher beobachteten Objektpunkte inklusive ihrer Koordinaten und Eigenschaften sein. Details dazu finden sich z. B. in Stachniss [37] und den darin enthaltenen Referenzen.
3
Systemkalibrierung
Unabhängig davon, ob die Trajektorie der Plattform in Echtzeit oder im Postprocessing berechnet wird, ob sie nur Sensoren wie GNSS und Inertialsensoren oder auch die Objektraumsensoren wie Laserscanner und Kameras verwendet, ist die räumliche und zeitliche Zuordnung aller Beobachtungen, die von den Sensoren des
120
H. Kuhlmann und L. Klingbeil
Systems durchgeführt werden, eine wichtige Voraussetzung für den Betrieb von Multisensorsystemen. Da fehlerhafte Zuordnungen sich als systematische Abweichungen im Endprodukt des Mobile-Mapping-Vorgangs (z. B. einer Punktwolke) äußern, wird die Herstellung dieser Zuordnung, insbesondere der räumlichen, meist Systemkalibrierung genannt. Die Kalibrierung der Einzelsensoren, also die Bestimmung sensorinterner systematischer Abweichungen, wie z. B. die Zielachsund Kippachsabweichung beim Laserscanner, wird üblicherweise mit gesonderten Verfahren, eventuell sogar schon vom Hersteller, bestimmt und soll hier nicht weiter betrachtet werden. Im Folgenden wird ein kurzer Überblick über Verfahren zur räumlichen Zuordnung aller Beobachtung gegeben (Abschn. 3.1), dann werden Möglichkeiten zur zeitlichen Zuordnung vorgestellt (Abschn. 3.2).
3.1
Räumliche Kalibrierung
Bei der räumlichen Kalibrierung wird, wie in Abb. 7 links dargestellt, die Transformation (Rotation und Translation) eines jeden einzelnen Sensors bezüglich eines gemeinsamen Plattformkoordinatensystems bestimmt. Dabei können auch Subgruppen von Sensoren getrennt kalibriert werden. So würde man z. B. zwei Kameras zu einem Stereokamerasystem und GNSS und Inertialsensoren zu einem GPS/IMU-System zusammenfassen. Die Relevanz der Kalibrierung ist leicht ersichtlich, wenn man sich klarmacht, dass z. B. eine kleine Rotation eines Laserscanners oder einer Kamera von 1˚ zu einer Positionsabweichung von fast 2 % der Objektentfernung führt. Die etwa 10 m vom Fahrzeug entfernt stehenden Fassaden würden dann mit einer systematische Abweichung von fast 20 cm verortet. Es gibt zahlreiche Arbeiten über die Kalibrierung von Multisensorsystemen. Ein guter Überblick ist z. B. in Lichti & Skaloud [31] gegeben. Bei der Kalibrierung zwischen einem Laserscanner und dem Plattformsystem werden meist Referenzgeo-
Abb. 7 Kalibrierung, räumliche und zeitliche Zuordnung der Sensordaten
4 Mobile Multisensorsysteme
121
metrien mit dem Scanner beobachtet, die im Plattformkoordinatensystem bekannt sind. Letzteres lässt sich zum Beispiel erreichen, indem die Referenzobjekte und die Plattform mit einem Messgerät in einem übergeordneten System eingemessen werden [32]. Als Objekte eignen sich vor allem Dinge, deren Form sich leicht parametrisieren lässt. Die meisten Kalibrierverfahren arbeiten daher mit Ebenen. Die Kalibrierung von Kameras funktioniert in einer ähnlichen Weise, die Kamera beobachtet Punkte, Linien oder Flächen, die im Plattformsystem bekannt sind. Der Aufwand dieser „Laborverfahren“ ist jedoch sehr hoch. Es gibt andere Verfahren [33], mit denen nur aus der Form (z. B. Ebene) von beobachteten Objekten, ohne Wissen über deren Position und Orientierung zumindest einige der Kalibrierparameter bestimmt werden können. Als Referenzobjekte dienen dann die Objekte, die sowieso während des eigentlichen Betriebs aufgenommen werden (z. B. Wände oder Dächer). Die relative Transformation zwischen Laserscannern und Kameras lässt sich auch während des normalen Betriebs bestimmen, in dem markante Objekte, wie z. B. Kanten, in den Beobachtungen beider Sensoren gefunden werden. Auch hier ist die Kenntniss über die absolute Position und Orientierung der Objekte nicht notwendig.
3.2
Synchronisierung der Sensordaten
Eine weitere wichtige Aufgabe ist die Synchronisierung der Sensordaten. Das Ziel der Synchronisierung ist es, wie in Abb. 7 illustriert, jede Beobachtung so mit einem Zeitstempel zu versehen, dass alle Sensoren die gleiche Zeitbasis haben. Wie sich eine Synchronisierungsabweichung zwischen der Georeferenzierung und der Kamera oder dem Laserscanner auswirkt, hängt von der Geschwindigkeit der Plattform ab. Eine unberücksichtigte Verzögerung von einer Millisekunde führt bei Schrittgeschwindigkeit zu einer Abweichung von einem Millimeter und bei einer Geschwindigkeit von 100 km/h zu knapp drei Zentimetern. Ebenfalls wichtig ist die Synchronisierung aller zur Trajektorienbestimmung eingesetzten Sensoren, da diese ja korrekt miteinander fusioniert werden müssen. Das ist bei unterschiedlichen Messverfahren, die auch noch variable zeitliche Berechnungszeiten benötigen können, insbesondere für den Echtzeitbetrieb, eine große Herausforderung. Ein Grund für die Schwierigkeit der Synchronisierung liegt in den vielen unterschiedlichen Messprinzipien und Schnittstellen der einzelnen Sensoren. Einige Sensoren führen auf Basis eines angelegten Signals (Trigger) eine Messung durch, so dass diese Beobachtung recht einfach der Zeitbasis des signalauslösenden Systems zugeordnet werden kann. Manche Sensoren (z. B. Kompaktkameras) benötigen allerdings nach dem Trigger noch eine unbestimmte und variable Zeit bis zur eigentlichen Messung, so dass eine exakte Synchronisierung nahezu unmöglich ist. Einige Sensoren führen ihre Messung zwar ungetriggert aus (z. B. mit einer bestimmten Frequenz, die durch eine eigene Uhr vorgegeben ist), erzeugen aber zum Zeitpunkt ihrer Messung ein Signal, was wiederum von einem anderen System zur Generierung eines Zeitstempels verwendet werden kann. Viele Profillaserscanner stellen ein Signal zur Verfügung, welches bei jedem „Nulldurchgang“ geschaltet
122
H. Kuhlmann und L. Klingbeil
wird. Die Zuordnung der einzelnen Distanzmessung während einer Rotation erfolgt dann durch Interpolation bei Annahme einer konstanten Rotationsgeschwindigkeit des Spiegels. Nahezu unmöglich ist eine exakte Synchronisierung, wenn der Beobachtungszeitpunkt nur durch die Ankunft der Sensordaten im PC bestimmt werden kann. Die Verwendung serieller Schnittstellen wie USB und die Benutzung von nicht echtzeitfähigen Betriebssystemen erzeugen zu viele unbekannte und variable Zeitverzögerungen zwischen dem Beobachtungszeitpunkt und dem Dateneingang. Ein ideales System zur Synchronisierung mehrerer Sensorsysteme hat also folgende Eigenschaften: 1. Es hat eine Uhr, die über die Zeit sehr stabil ist oder regelmäßig mit Hilfe eines Frequenznormals synchronisiert wird. 2. Es ist in der Lage, zu definierten Zeitpunkten Signale zu erzeugen, die zum Auslösen von anderen Sensoren genutzt werden können. 3. Es ist in der Lage, Signale von anderen Sensoren zu empfangen und den genauen Zeitpunkt des Empfangs (z. B. die steigende Flanke des Signals) zu bestimmen und zu speichern. Die Rolle des in Punkt 1 genannten Frequenznormals wird bei mobilen Multisensorsystem häufig durch das GPS eingenommen. Die meisten GPS-Empfänger stellen ein sog. PPS-Signal (Pulse-Per-Second) zur Verfügung, welches zum einen eine sehr genaue Zeitmessung erlaubt und zum anderen die Zeitbasis definiert, auf die sich die GPS-Beobachtungen beziehen. Punkt 2 und 3 können nur mit Systemen realisiert werden, die zeitdeterministisch arbeiten und einen direkten Zugriff auf einzelne Signalleitungen bieten. Das ist zum Beispiel mit bestimmten Eingabe/Ausgabe-Modulen (IO-Boards) möglich, auf denen Echtzeitbetriebssysteme laufen. Ein solches Modul wurde im folgenden Beispiel eingesetzt.
4
Der „Mapping on Demand”-Oktokopter – Ein fliegendes Multisensorsystem
Zum Schluss soll beispielhaft ein mobiles Multisensorsystem vorgestellt werden, in dem die meisten in diesem Kapitel beschriebenen Verfahren unter besonderen Bedingungen zum Einsatz kommen. Bei dem System handelt es sich um ein leichtes8 unbemanntes Flugobjekt (UAV: Unmanned Aerial Vehicle), welches innerhalb des Forschungsprojektes „Mapping on Demand“9 entwickelt wurde, und welches zum Ziel hat, schwer zugängliche Objekte mit Hilfe von Bildinformationen aus der Luft zu vermessen. Eine große Herausforderung spiegelt
8 leichter als 5 kg, das entspricht dem Gewicht, bis zudem in Deutschland unbemannte Fluggeräte unter vereinfachten rechtlichen Bedingungen betrieben werden dürfen. 9 durch die DFG gefördert als Forschergruppe FOR1505 (von 2012 bis 2017).
4 Mobile Multisensorsysteme
123
sich dabei in dem Namenszusatz „on Demand“ wider. Neben der Aufgabe der 3D-Geometrierekonstruktion aus Kameradaten soll das UAV vollständig autonom fliegen können, dabei Hindernisse eigenständig erkennen und die aufgenommenen Bilddaten in Echtzeit prozessieren sowie semantische Informationen daraus extrahieren. Eine genaue Positions- und Orientierungsbestimmung des UAVs in Echtzeit ist daher nicht nur für die direkte Georeferenzierung der Bilddaten, sondern auch für die autonome Navigation des Objektes notwendig.
4.1
Sensoren
Das Fluggerät mit all seinen Komponenten ist in Abb. 8 dargestellt. Es handelt sich um einen sog. Oktokopter mit acht Rotoren, von denen jeweils zwei übereinander angeordnet sind, um einen kompakteren Aufbau zu ermöglichen und rotorfreie und somit vibrationsarme Ausleger für Sensoren zu ermöglichen. Es enthält einen kleinen leistungsfähigen Computer, auf dem hauptsächlich Algorithmen zur Bildverarbeitung und zur autonomen Navigation durchgeführt werden. Über eine WLAN-Schnittstelle wird der ständige Kontakt mit einer Bodenstation gehalten. Auf die autonome Steuerung des Fluggerätes soll hier nicht weiter eingegangen werden. Informationen dazu finden sich in Dröschel et al. [34]. Auf dem System befindet sich eine Einheit zur direkten Georeferenzierung, welche in der Lage ist, die Trajektorie des Fluggerätes mit Hilfe von zwei GNSS-Empfängern, einer MEMS-basierten Inertialsensoreinheit und einem Magnetfeldsensor in Echtzeit zu bestimmen und gleichzeitig für die Synchronisierung
Abb. 8 Aufbau des innerhalb des Projektes „Mapping on Demand“ entwickelten Fluggerätes
124
H. Kuhlmann und L. Klingbeil
aller Sensorbeobachtungen zuständig ist. Diese Einheit und die darauf laufenden Algorithmen werden im nächsten Abschnitt genauer beschrieben. Weiterhin enthält das System zwei Stereokamerapaare, die nach vorne und nach hinten mit einem Winkel von 45˚ schräg nach unten schauen. Durch die Verwendung von Fisheye-Objektiven haben die Linsen einen Öffnungswinkel von etwa 180˚, so dass der gesamte Bereich in der Ebene und unter dem Fluggerät beobachtet werden kann. Mit Methoden der visuellen Odometrie (Abschn. 2.2.3) werden aus den Bildern in Echtzeit Informationen über die Bewegung des Flugobjektes berechnet und zusammen mit den GNSS-Beobachtungen und den Inertialsensordaten zu einer Trajektorie verrechnet [35]. Gleichzeitig werden die in diesem Prozess generierten Objektpunkte zur Hindernisvermeidung verwendet. Eine Fünf-Megapixel-Kamera wird für die eigentliche Beobachtung des Objektraumes eingesetzt. Aus ihren Bildern werden mit Hilfe verschiedener Verfahren dichte Punktwolken oder Oberflächenkarten berechnet. Diese werden, abhängig vom verwendeten Verfahren, in Echtzeit oder im Postprocessing erstellt, sind mit Hilfe der in diesem Abschnitt beschriebenen Methoden georeferenziert und stellen das eigentliche Ergebnis des Mobile-Mapping-Vorgangs dar.
4.2
Synchronisierte Auslese und Verarbeitung der Sensordaten
Die oben erwähnte Einheit zur Georeferenzierung ist das Herzstück des Multisensorsystems. Sie wurde innerhalb des Projektes entwickelt, um die besonderen Herausforderungen, die sich durch die fliegende Plattform und die Anwendungsumgebung ergeben, zu bewältigen. Sie enthält einen Zwei-Frequenz-GPSEmpfänger zur Berechnung einer präzisen RTK(Realtime Kinematic)-GPS-Lösung, einen Ein-Frequenz-GPS-Empfänger, der mit seiner Antenne und der des anderen Empfängers eine kurze lokale Basislinie auf dem Fluggerät bildet, die zur Orientierungsbestimmung benutzt werden kann, sowie eine MEMS-basierte Inertialsensoreinheit, die auch einen dreiachsigen Magnetfeldsensor enthält. Außerdem ist ein Funkmodem verbaut, mit dem die für die RTK-Berechnung notwendigen Korrekturdaten einer Referenzstation empfangen werden können. Der Prozessierungsteil der Einheit basiert auf einem Prozessor mit einem Echtzeitbetriebssystem und einem FPGA (Field Programmable Gate Array). Letzteres ermöglicht eine besonders schnelle Auslese und Vorverarbeitung aller Sensordaten, insbesondere wenn die Sensoren über eine serielle Schnittstelle kommunizieren. Es ist außerdem in der Lage, die interne Uhr mit Hilfe des vom GNSS-Empfänger bereitgestellten PPS-Signals zu synchronisieren und stellt somit, wie in Abschn. 3.2 beschrieben, die Zeitbasis für das Multisensorsystem zur Verfügung. Die beiden Stereokamerapaare und der hochaufgelöste Sensor werden durch ein von dieser Einheit erzeugtes Signal ausgelöst und die aufgenommenen Bilder so mit den restlichen Daten synchronisiert. Die Verwendung eines Echtzeitbetriebssystems ermöglicht die Implementierung der Auslese, Vorverarbeitung und Weiterverarbeitung der Sensordaten innerhalb zeitdeterministisch ablaufender Prozesse verschiedener Frequenzen und sorgt dafür, dass die Berechnungsergebnisse eindeutig bestimmten
4 Mobile Multisensorsysteme
125
Zeitpunkten zuzuordnen sind und somit auch für eine Regelung des Fluggerätes einsetzbar sind. Tab. 2 zeigt die Messraten verschiedener Sensoren und Messverfahren, die bei dem vorgestellten Multisensorsystem zum Einsatz kommen. Außerdem sind Latenzen der Verfahren dargestellt. Dabei handelt es sich hier um die Zeit zwischen der Gültigkeit der Daten und der Verfügbarkeit der Daten für eine Berechnung oder im Falle abgeleiteter Größen am Ende einer Berechnung. Die Latenzen der einzelnen Verfahren sind größtenteils variabel, aber begrenzt und durch die gemeinsame Zeitbasis bekannt. In den Algorithmen können diese dann korrekt berücksichtigt werden und zu einer Positions- und Orientierungsinformation verarbeitet werden, die immer die gleiche Latenz und damit einen konsistenten Zeitbezug liefert.
4.3
Algorithmen zur Trajektorienbestimmung
Auf eine detaillierte Vorstellung der Algorithmen zur Trajektorienbestimmung soll hier verzichtet werden. Dazu sei auf Eling et al. [36] verwiesen. Bezug nehmend auf Abschn. 2.4 werden hier jedoch einige Aspekte der Kalman-Filterung vorgestellt. Der Zustandsvektor des Filters für die Trajektorienbestimmung enthält die Position und Geschwindigkeit der Plattform, ihre Orientierung, sowie die Offsets der Drehraten- und der Beschleunigungssensoren. Letztere werden aufgrund ihres zeitlichen Verhaltens wie in Abschn. 2.4.2 beschrieben mitgeschätzt und als Random-Walk-Prozess mit kleiner Varianz modelliert. Die Modellierung der Plattformbewegung geschieht mit Hilfe der Inertialnavigation (Abschn. 2.2.1). Aus den Beobachtungen der Inertialsensoren werden die relativen Änderungen von Orientierung, Geschwindigkeit und Position berechnet und über Stellgrößen ins Systemmodell eingebracht. Dabei wird aufgrund der lokalen Begrenztheit der Trajektorie und des vergleichsweise hohen Rauschens der Drehratensensoren der Einfluss der Transportrate und der Erddrehrate vernachlässigt. Die in das Filter eingebrachten Beobachtungen sind die Position aus dem 2-Frequenz-Empfänger, dem Basislinienvektor zwischen den beiden Antennen
Tab. 2 Messraten und Latenzen verschiedener Messverfahren in dem vorgestellten System Sensoren + Messverfahren Inertialsensoren, Magnetfeldsensoren Ein-Frequenz- und Zwei-Frequenz-GNSS-Beobachtungen Korrekturdaten über Funkmodem RTK-GPS-Positionsbestimmung Ein-Frequenz-Basislinienauswertung Positions- und Orientierungsänderungen aus visueller Odometrie Genauere Positions- und Orientierungsänderungen aus gleitender Bündelausgleichung ! Geschätzte Position und Orientierung aus Kalman-Filter
Messrate 100 Hz 10 Hz 2 Hz 10 Hz 1 Hz 10 Hz 0–1 Hz
Latenz < 1 ms < 30 ms 50–500 ms < 100 ms < 100 ms < 100 ms 1–10 s
100 Hz
= 10 ms
126
H. Kuhlmann und L. Klingbeil
sowie der Vektor des Erdmagnetfeldes. Die GNSS-Auswertung, also im Wesentlichen die Auflösung der Trägerphasenmehrdeutigkeiten (Abschn. 2.3.1) geschieht in diesem als „lose gekoppelte Integration“ bezeichneten Verfahren außerhalb des Kalman-Filters. Im Gegensatz dazu gehen bei der komplexeren „eng gekoppelten Integration“ die Trägerphasen direkt als Beobachtungen in das Filter ein, wodurch es z. B. prinzipiell möglich ist, mit Satellitenkonstellationen zu rechnen, die weniger als vier Satelliten enthalten. Im Fall der „losen Kopplung“ muss, wenn zu wenig Satelliten und damit keine Positionsinformationen zur Verfügung stehen, das Systemmodell geändert werden, da die Position bei reiner Inertialnavigation schnell wegdriftet. Daher wird in dieser Zeit nur die Orientierung der Plattform geschätzt, wobei die Beobachtung des Erdmagnetfeldvektors die Drift der Drehratensensoren verringert. Die Schätzung des Beschleunigungssensorbias wird dann allerdings ebenfalls ausgesetzt, da dieser aufgrund fehlender Redundanzen nicht mehr beobachtbar ist.
4.4
Ergebnis
Abb. 9 zeigt beispielhaft die Qualität einer Punktwolke, die mit dem fliegenden Multisensorsystem erzeugt wurde. Die roten Punkte sind die georeferenzierten Objektpunkte nach einer Bündelausgleichung (Abschn. 2.3.3), in die, neben den Bildern, auch die mit den in diesem Kapitel beschriebenen Verfahren während des Fluges berechneten Positionen und Orientierungen der Kamera zu den Auslösezeitpunkten eingehen. Die Punkte sind im Vergleich zu einem georeferenzierten terrestrisch aufgenommenen Laserscan dargestellt. Rechts sieht man die Abstände zwischen dem Ergebnis des Multisensorsystems und des terrestrischen Scanners in einer Histogrammdarstellung, wobei hier jeweils die Differenz zum nächsten Nachbarn berechnet wurde. Der Median der absoluten Abweichung beträgt etwa 3 cm.
Abb. 9 Vergleich einer georeferenzierten Punktwolke mit einem terrestrischen Laserscan. Mit freundlicher Genehmigung von Johannes Schneider, Universität Bonn
4 Mobile Multisensorsysteme
5
127
Fazit
Das Beispiel zeigt, wie die in diesem Kapitel vorgestellten Sensorik- und Datenauswertungskonzepte im Falle eines leichten fliegenden Kamerasystems umgesetzt werden können. Das Produkt dieses Systems ist eine georeferenzierte Punktwolke mit der in Abb. 9 dargestellten Genauigkeit. Andere, bereits etablierte Systeme, verwenden andere Sensoren zu Objektraumbeobachtung (z. B. Laserscanner), sind teurer oder auch größer und erzielen andere Genauigkeiten, die Funktionsprinzipien sind jedoch im Wesentlichen die Gleichen. Eine große Herausforderung ist die Qualitätsanalyse mobiler Multisensorsysteme. Wenn Referenzdaten über die vermessenen Produkte vorhanden sind, ist eine empirische Untersuchung auf Basis der generierten 3D-Punktwolken möglich. Eine Varianzfortpflanzung aller Unsicherheiten der Sensoren, der Datensychronisierung, der Systemkalibrierung und der Algorithmen zur Zustands- und der daraus folgenden Objektpunktschätzung ist jedoch eine schwierige Aufgabe, die Gegenstand aktueller Forschungsarbeiten ist.
Literatur 1. Kraus, K.: Photogrammetrie Band 1 – Geometrische Informationen aus Photographien und Laserscanner-aufnahmen, 7. Aufl. Walter de Gruyter, Berlin/New York (2004) 2. Heister, H., Caspary, W., Hock, C., Klemm, J., Sternberg, H.: Kiss, a hybrid measuring system for kinematic surveying. In: Linkwitz, K., Hangleiter, U. (Hrsg.) High Precision Navigation 95, Proceedings, Ferd. S. 561–568. Dümmler Verlag, Bonn (1995) 3. Gräfe, G., Caspary, W., Heister, H., Klemm, J., Sever, M.: The road data acquisition system MoSES determination and accuracy of trajectory data gained with the applanix POS/LV. In: Proceedings 3rd International Symposium on Mobile-Mapping Technology, Cairo (2001) 4. Talaya, J., Alamus, R., Bosch, E., Serra, A., Kornus, W., Baron, A.: Integration of a terrestrial laser scanner with GPS/IMU orientation sensors. In: Proceedings of XXth ISPRS Congress, Commision 5, Istanbul (2004) 5. El-Sheimy, N., Lavigne, M.: 3D gis data acquisition using gps/ins/video mobile-mapping system. In: Proceedings Geodesy for Geotechnical and Structural Engineering, Eisenstadt, S. 375–380 (1998) 6. Gilliéron, P.Y., Skaloud, J., Brugger, D., Merminod, B.: Development of a low cost mobilemapping system for road data base management. In: The 3rd International Symposium on Mobile-Mapping Technology, Cairo (2001) 7. Grejner-Brzezinska, D., Toth, C., Xiao, Q.: Real-time tracking of highway linear features. In: Proceeedings of the ION GPS, Salt Lake City (2000) 8. Puente, I., González-Jorge, H., Martínez-Sánchez, J., Arias, P.: Review of mobile-mapping and surveying technologies. Measurement 46(7), 2127–2145 (2013) 9. Klingbeil, L., Lottes, P., Kuhlmann, H.: Laserscanning-Technologie auf sich bewegenden Plattformen. In: Schriftenreihe des DVW, Terrestrisches Laserscanning 2014 (TLS 2014), Bd. 78, S. 19–29. Wißner Verlag, Fulda (2014) 10. Wirth, H., Brüggemann, T.: The development of a multiple transducer multi-beam echo sounder system for very shallow waters, Proceedings FIG working week „bridging the gap between cultures“, Marrakech Morocco, 18.–22.05.2011 11. Kuhlmann, H., Wieland, M.: Steering of a seeding process with a multi-sensors system. In: FIG Working Week, Rome, S. 6–10 (2012)
128
H. Kuhlmann und L. Klingbeil
12. Stachniss, C.: Robotic Mapping and Exploration, Bd. 55. Springer, Berlin (2009) 13. Titterton, D., Weston, J.: Strapdown Inertial Navigation Technology, 2. Aufl. The American Institute of Aeronautics and Astronautics, Reston (2004) 14. Wendel, J.: Integrierte Navigationssysteme – Sensordatenfusion, GPS und Inertiale Navigation. Oldenbourg, München (2007) 15. El-Sheimy, N., Hou, H., Niu, X.: Analysis and modeling of inertial sensors using allan variance. IEEE Trans. Instrum. Meas. 57, 140–149 (2008) 16. Lowe, D.: Object recognition from local scale-invariant features. In: Proceedings of the International Conference on Computer Vision, Corfu Island, Bd. 2, S. 1150–1157 (1999) 17. Scaramuzza, D., Fraundorfer, F.: Visual odometry: Part I – the first 30 years and fundamentals. IEEE Robot. 18(4), 80–92 (2011) 18. Besl, P.J., McKay, N.: A method for registration of 3-D shapes. IEEE Trans. Pattern Anal. Mach. Intell. 14(2), 239–256 (1992) 19. Lu, F., Milios, E.: Robot pose estimation in unknown environments by matching 2D range scans. J. Intell. Robot. Syst. 18(3), 249–275 (1997) 20. Hofmann-Wellenhof, B., Lichtenegger, H., Wasle, E.: GNSS – Global Navigation Satellite Systems. Springer, Wien/New York (2008) 21. Eling, C., Zeimetz, P., Kuhlmann, H.: Development of an instantaneous GNSS/MEMS attitude determination system. GPS Solut. 17(1), 129–138 (2013). https://doi.org/10.1007/s10291-0120266-8 22. Klingbeil, L., Eling, C., Zimmermann, F., Kuhlmann, H.: Magnetic field sensor calibration for attitude determination. J. Appl. Geod. 8(2), 97–108. ISSN (Online) 1862-9024, ISSN (Print) 1862–9016. https://doi.org/10.1515/jag-2014-0003 (2014) 23. Schneider, J., Laebe, T., Förstner, W.: Incremental real-time bundle adjustment for multicamera systems with points at infinity. Int. Arch. Photogramm. Remote Sens. Spat. Inf. Sci. XL-1/W2, 355–360 (2013) 24. Czommer, R.: Leistungsfähigkeit fahrzeugautonomer Ortungsverfahren auf der Basis von Map-Matching-Techniken. Ph.D. thesis, Universität Stuttgart, Institut für Anwendungen der Geodäsie im Bauwesen (IAGB) (2000) 25. Julier, S.J., Uhlmann, J.K., Durrant-Whyte, H.F.: A new approach for filtering nonlinear systems. In: Proceedings of the 1995 American Control Conference, Seattle, S. 1628–1632 (1995) 26. Li, L., Kuhlmann, H.: Real-time deformation measurements using time series of gps coordinates processed by kalman filter with shaping filter. Surv. Rev. 44(326), 189–197 (2012) 27. Heunecke, O., Kuhlmann, H., Welsch, W., Eichhorn, A., Neuner, H.: Auswertung geodätischer Überwachungsmessungen. In: Möser, M., Müller, G., Schlemmer, H. (Hrsg.) Handbuch Ingenieurgeodäsie, 2. Aufl. Wichmann, Heidelberg (2013) 28. Heunecke, O.: Zur Identifikation und Verifikation von Deformationsprozessen mittels adaptiver KALMAN-Filterung (Hannoversches Filter). Ph.D. thesis, Wissenschaftliche Arbeiten der Fachrichtung Vermessungswesen der Universität Hannover, Heft 208 (1995) 29. Bloom, H.A.P.: An efficient filter for abruptly changing systems. In: Proceedings of the 23rd IEEE Conference on Decision and Control, Las Vegas, S. 656–658 (1984) 30. Thrun, S., Burgard, W., Fox, D.: Probabilistic Robotics (Intelligent Robotics and Autonomous Agents). The MIT Press, Cambridge (2005) 31. Lichti, D., Skaloud, J.: Registration and calibration. In: Vosselman, G., Maas, H.G. (Hrsg.) In Airborne and Terrestrial Laser Scanning. Whittles Publishing, Caithness (2010) 32. Strübing, T., Neumann, I.: Positions- und orientierungsschätzung von lidarsensoren auf multisensorplattformen. Zeitschrift für Vermessungswesen (ZfV) 138(3), 210–221 (2013) 33. Skaloud, J., Lichti, D.: Rigorous approach to bore-sight self-calibration in airborne laser scanning. ISPRS J. Photogramm. Remote Sens. 61, 47–59 (2006) 34. Droeschel, D., Nieuwenhuisen, M., Beul, M., Behnke, S.: Autonomous Navigation for Micro Aerial Vehicles in Complex GNSS-denied Environments . J. Intelli. Robot. Syst. 1–18 (2015), published online. https://doi.org/10.1007/s10846-015-0274-3
4 Mobile Multisensorsysteme
129
35. Schneider, J., Förstner, W.: Real-time accurate geo-localization of a mav with omnidirectional visual odometry and Gps. In: Jawahar, C.V., Shiguang, S. (Hrsg.) Computer Vision – ECCV 2014 Workshops, S. 271–282. Springer International Publishing, Cham (2015) 36. Eling, C., Klingbeil, L., Wieland, M., Kuhlmann, H.: Direct georeferencing of micro aerial vehicles – system design, system calibration and first evaluation tests. PFG – Photogramm. Fernerkund. Geoinf. 4, 227–237 (2014) 37. Stachniss, C.: Simultaneous Localization and Mapping. In: Heipke, C. (Hrsg.) Photogrammetrie und Fernerkundung, S. 293–320. Springer, Berlin (2017)
5
Geosensornetze Otto Heunecke
Inhaltsverzeichnis 1 2 3 4
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sensornetzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sensorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Lokalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 MEMS-Sensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Sensor-Web . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Anwendungen von Geosensornetzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Tracking und Navigation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Umweltmonitoring, Katastrophen- und Sicherheitsmanagement . . . . . . . . . . . . . . . 6.3 Ingenieurgeodätisches Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Fazit und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
132 136 142 146 147 151 154 155 155 159 160 163 165
Zusammenfassung
Mit Geosensornetzen ist die effiziente Gewinnung von räumlich verteilten Daten, die hinsichtlich der erfassten Phänomene und daraus abgeleiteten Informationen ein aktuelles Bild der Umwelt ergeben, in einem Maße möglich geworden, wie es vor einigen Jahren kaum vorstellbar gewesen ist. Mit ihren mannigfaltigen Anwendungsfeldern stellen sie sowohl forschungsmäßig als auch in der praktischen Nutzung eine der gegenwärtigen Herausforderungen speziell auch für die Geodäsie und Geoinformatik dar. Geosensornetze werden angefangen von der lokalen bis hin zur globalen Maßstabsebene eingesetzt. Die Vielschichtigkeit des Themas Geosensornetze begründet sich schon
O. Heunecke () Ingenieurgeodäsie, Universität der Bundeswehr München, Neubiberg, Deutschland E-Mail:
[email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2017 W. Schwarz (Hrsg.), Ingenieurgeodäsie, Springer Reference Naturwissenschaften, https://doi.org/10.1007/978-3-662-47188-3_29
131
132
O. Heunecke
allein damit, dass ein generischer Begriff wie „Geosensor“ weiten Interpretationsraum bietet ebenso wie die Frage, was ein „Netz“ kennzeichnet und wie es hinsichtlich der Kommunikation, d. h. dem Senden und Empfangen von Daten im Sensornetz selbst sowie der Weiterleitung an die Administratoren und Nutzer, angelegt ist. Zudem ist eine stringente Unterscheidung von Geosensornetzen gegenüber drahtlosen und infrastrukturellen Sensornetzen in allgemeiner Betrachtung nicht möglich, sondern allenfalls graduell. Nach der Behandlung grundlegender Prinzipien sowie Kommunikations- und Messtechniken erfolgt die Beschreibung einiger exemplarischer Anwendungen von Geosensornetzen.
Schlüsselwörter
Lokalisierung • Monitoring • Navigation • Sensorkommunikation • Sensor Web • Tracking
1
Einführung
Ein Geosensornetz ist zu verstehen als eine Netzwerkinfrastruktur kommunikationsfähiger und automatisiert operierender Sensoren, die als jeweilige eigenständige Einheit einen sog. Sensorknoten bilden. Ziel ist es, relevante Daten innerhalb eines geografischen Bereichs zu erfassen, wobei die zeitveränderlichen, d. h. dynamischen Daten ohne ihren zeitlichen und vor allem georeferenzierten Bezug nicht auszuwerten und zu interpretieren sind. Der Grundgedanke ist, dass es die Menge von Sensorknoten durch ihr kooperatives und/oder koordiniertes Zusammenspiel erlaubt, die spezifizierten geografischen Bereiche, dies können z. B. ein Gebäude, ein Bauwerk, ein Stadt- oder Seegebiet oder ein Rutschareal sein, entsprechend der Aufgabenstellung(en) hinsichtlich der mit den einzelnen Sensoren erfassten Messgrößen und daraus abgeleiteten Informationen bewerten zu können. Diese allgemein gehaltene Definition eines Geosensornetzes nimmt keine Unterscheidung einer drahtlosen und einer leitungsgebundenen Art der Kommunikation vor, geht auch nicht zwingend von autark arbeitenden, d. h. rein batterieversorgten Sensorknoten, aus und spezifiziert die interessierenden und daher zu messenden Größen zunächst ebenso nicht wie die physischen Ausmaße der Sensorknoten selbst. Jedoch sind es vor allem die immer weiter verbesserten Möglichkeiten der funkbasierten Kommunikation und neue energieeffiziente Sensortechnologien mit miniaturisierten Chips, die auch über einen längeren Zeitraum von Monaten bis zu unter Umständen Jahren einen allein batteriegespeisten Betrieb der Sensorknoten erlauben, die die Konzepte und die Visionen von Geosensornetzen in den letzten Jahren dominierend beeinflusst haben [3, 10, 26]. Viele treibende technische Entwicklungen kommen aus den Bereichen der Nachrichten- und Elektrotechnik sowie der Informatik. Möglich geworden sind die Breite und der Umfang der
5 Geosensornetze
133
Applikationen insbesondere durch fallende Kosten vor allem im Sensorbereich, z. B. durch MEMS (Abschn. 4.2), Standardisierungen bezüglich der Kommunikation sowie den stetigen Ausbau des Internets und des Mobilfunks für den ständigen Zugriff auf die erfassten Daten auch über größere Distanzen. Geosensornetze werden heute auf allen Maßstabsebenen von lokal bis global zur Anwendung gebracht [30]. Sie nutzen Techniken aus dem Bereich der Geodäsie und Geoinformatik speziell bei der Datenerfassung (u. a. Lokalisierungstechniken, Datenaufbereitung, Qualitätsbeschreibung), der Auswertung (u. a. Filter- und Schätzverfahren) und dem Datenhandling (Informationssysteme, Archivierung, Visualisierung). Die mannigfaltigen Anwendungsszenarien, siehe hierzu Abschn. 6, machen Geosensornetze zu einem transdiziplinären Thema vor allem in den Natur- und Ingenieurwissenschaften, dessen geschlossene Bearbeitung kaum möglich ist, wenn allen Facetten und Sichtweisen gerecht werden soll. Es gibt keine universelle Taxonomie. Übergreifendes Merkmal von Geosensornetzen ist zunächst nur die zeitlich und räumlich aufgelöste Generierung von Informationen durch Messungen an verteilten Stellen im interessierenden geografischen Bereich, um darauf aufbauend durch Analyse und Interpretation zu einer Bewertung raum-zeitlicher Phänomene, z. B. Verkehrsströme und andere (Geo)Prozesse, hinsichtlich bestimmter Fragestellungen zu gelangen. Als typische Anwendungsfelder werden Beobachtungssysteme für Phänomene wie Wetter, Klima und Umwelt, das Katastrophenmanagement, das Monitoring der Umwelt und von Strukturen wie z. B. Bauwerken, das Tracking von Menschen, Tieren und Fahrzeugen im Land-, Seeund Luftverkehr sowie Steuer- und Leitsysteme, z. B. zur Verkehrslenkung, genannt. Erste Entwicklungen von Sensornetzen stammen aus dem militärischen Bereich und werden dort heute unter vernetzter Operationsführung (network centric warfare) subsummiert. Smart Dust bezeichnet in diesem Zusammenhang miniaturisierte Sensorknoten, die z. B. vom Flugzeug aus abgeworfen werden und der Aufklärung (reconnaissance) dienen. Gerade bei solchen zufälligen Anordnungen miniaturisierter Sensorknoten stellen sich spezielle Anforderungen an die drahtlose Kommunikation und die Lokalisierung der Knoten. Bei der Vielzahl der Anwendungsbereiche mit ihren ganz individuellen Anforderungen an die Sensorkomponenten (Messgrößen und deren Genauigkeit, Robustheit gegen z. B. Temperatur- und Feuchteeinflüsse, Messfrequenz, : : :) und die Sensorknoten (Autarkie.1 physische Ausmaße, Gewicht, : : :), den verschiedenartigen Kommunikationsmöglichkeiten, Schnittstellen und Protokollen, den anfallenden Datenmengen und dem Datenhandling zur Gewinnung von gewünschten Aussagen ist die Behandlung der Prinzipien und Gemeinsamkeiten von Geosensornetzen – wie auch von Sensornetzen im Allgemeinen [34] – naturgemäß zunächst abstrakt. Die Vielschichtigkeit des Themas Geosensornetze begründet sich schon damit, dass ein generischer Begriff wie „Geosensor“ weiten Interpretationsraum hinsichtlich der thematischen Erfassung und Auflösung interessierender Messgrößen bietet ebenso wie die Frage, was ein „Netz“ kennzeichnet.
1
Autarkie bezeichnet die Stehzeit durch eigenständige Energieversorung.
134
O. Heunecke
Geosensoren werden verstanden als Sensoren bzw. Sensorknoten, die neben ihrer Position Informationen zur Umgebung bzw. zur Umwelt erfassen oder doch zumindest beschreibende Daten mitliefern, die dem Sensor eingegeben wurden und für das Lagebild von Bedeutung sind. Zu unterscheiden sind Geosensornetze gegenüber standortbezogenen Diensten (Location Based Services – LBS), die unter Zuhilfenahme von positionsabhängigen Daten einem mobilen Endnutzer selektive Informationen bereitstellen. Bei reaktiven standortbezogenen Diensten muss der Nutzer den Service explizit anfordern, ein proaktiver Dienst reagiert auf Ereignisse, z. B. das Betreten einer bestimmten Zone. Die Lokalisierung eines Nutzers basiert jedoch im Wesentlichen auf den gleichen Techniken wie in Abschn. 4.1 beschrieben, er generiert jedoch nicht selbst zu versendende Daten seiner Umwelt. Die Generierung eigener sensorischer Daten ist zugleich das wesentliche Kriterium, was drahtlose Sensornetze von mobilen Ad-Hoc-Netzwerken (MANETs) unterscheidet, wie diese beispielsweise entstehen, wenn Notebooks via WLAN-Dateien austauschen, auch wenn die verwendeten Kommunikationstechniken, siehe Abschn. 3, vergleichbar sind. Die Position eines Geosensors kann veränderlich sein, wenn sich ein Sensorknoten in Bewegung befindet, d. h. dieser auf einer mobilen Plattform montiert ist oder durch äußere Einwirkungen verändert wird, oder unveränderlich, wenn ein Sensorknoten nach Ausbringung am gleichen erdfesten Ort verbleibt. Die Geosensoren können darauf ausgelegt sein, auch bereits kleine Veränderungen ihrer Umgebung, z. B. Beschleunigungen durch Erdbeben, zu detektieren, wie es unter anderem bei geophysikalischen Anwendungen von Geosensornetzen von primärem Interesse ist. Bei ingenieurgeodätischen Anwendungen sind die Veränderungen der Positionen von Punkten die hauptsächlich interessierenden, möglichst mit Standardabweichungen im mm-Bereich oder sogar besser zu bestimmenden Messgrößen. Während bei einem Sensornetz der Begriff „Netz“ kommunikationstechnisch geprägt ist, bei der aus Sicht der Nachrichtentechnik die Kommunikationswege Kanten bzw. Maschen darstellen und ihre Schnittpunkte (Sensor)Knoten bilden, kommt bei einem Geosensornetz die räumliche Konstellation der Knoten untereinander im Sinne eines geodätischen Netzes mit Abstands- und Richtungsbeziehungen hinzu. War es in der Geodäsie zunächst nur gegeben, Netze händisch zu wenigen Messzeitpunkten (man spricht von Epochen) zu vermessen, um wiederkehrend ihre Koordinaten inklusive Angaben zu ihrer Genauigkeit zu bestimmen, wurde es mit dem Aufkommen automatisierter Messtechniken möglich, sog. Permanentnetze einzurichten, die in dichter Messfolge Daten generieren. Die heute verfügbaren, am Markt etablierten geodätischen und geotechnischen Monitoringsysteme stellen prinzipiell derartig wiederkehrend und automatisiert beobachtete, in der Regel nach außen abgeschottete Netze dar, bei denen neben den Veränderungen der Messpunkte auch Umweltparameter wie z. B. Temperatur, Niederschlagsmengen und Wasserstände registriert werden. Die Kapselung begründet sich mit der Sicherheitsrelevanz der Messinformationen, deren unkontrollierte Weitergabe zu vermeiden ist. Die Sicherheitsrelevanz verlangt, wie bei vielen anderen Sensornetzen auch, zudem nach einem störungsfreien Betrieb mit einem hohen Grad der Verfügbarkeit und Qualität der erzeugten Daten.
5 Geosensornetze
135
GNSS-Permanentnetze, sog. Continuous Operating Reference Systems (CORS), sind weltweit zum Vorhalten des amtlichen Raumbezugs angelegt und dienen darüber hinaus in tektonisch aktiven Gebieten dem Nachweis von Krustenbewegungen. Hierbei werden die Signale der Navigationssatelliten üblicherweise mit t D 1 Sekunde registriert. Geosensornetze können auch als eine Weiterentwicklung des grundlegenden Gedankens solcher Permanentnetze mit wesentlich breiterem Anwendungsspektrum gesehen werden, wobei neben den räumlichen Bezügen entsprechend der Auslegung in zumeist vielfältiger Art und Weise weitere Umweltdaten erhoben werden. Solche Sensornetze können sich für Georeferenzierung im Bedarfsfall auf GNSS-Permanentnetze stützen. SAPOS (www.sapos.de) kann als ein Beispiel eines infrastrukturellen Geosensornetzes gesehen werden, bei dem die an einzelnen Permanentstationen (sprich Sensorknoten) erfassten Informationen zunächst zentral aufbereitet werden (Qualitätskontrolle, Vermaschung), bevor diese via online Datenströmen den Nutzern als Dienstleistung für eine augmentierte Positionierung (gestaffelt in EPS, HEPS und GPPS) auf verschiedenen möglichen Kommunikationskanälen zur Verfügung gestellt werden, z. B. über einen NTRIPCaster oder mittels GSM unter Verwendung des RTCM- oder RINEX-Standards.2 Oft genügt in einem Sensornetz auch eine satellitengestützte Positionierung ohne jegliche Form der Augmentierung, siehe die Beispiele in Abschn. 6.1. Sofern keine Lokalisierungskomponente auf einem Sensorknoten integriert ist, können bei geringeren Anforderungen an die Qualität der Positionierung die Kommunikationssignale unmittelbar oder ausgesandte Signale sog. Beacons, dies sind Sensorknoten mit bekannten Positionen (z. B. durch dort installierte GNSSEmpfänger, die sich auf ein CORS abstützen), hierzu verwendet werden (Abschn. 4.1). Besitzt ein Sensorknoten keine Möglichkeit der Positionsbestimmung, muss die als unveränderlich angenommene Stelle der Installation anderweitig bestimmt bzw. topologisch beschrieben werden, um die erfassten Umweltdaten bei der Auswertung zuordnen zu können. Die Verortung der Sensorknoten dient bei den meisten Anwendungen allein dem Zweck, die eigentlich interessierenden Umweltdaten attributieren zu können und einen semantischen Rahmen herzustellen: Ohne räumliche Zuordnung ist eine Verarbeitung und Bewertung der generierten Messgrößen sowie der sonstigen, den Knoten beschreibenden Daten nicht möglich (location awareness). Neben der räumlichen Zuordnung und der mit einem Zeitstempel zu versehenden Messinformationen ist eine ausreichende Synchronisation3 aller 2
Die Akronyme stehen für: EPS: Echtzeit PositionierungsService, HEPS: Hochpräziser Echtzeit PositionierungsService, GPPS: Geodätischer Postprocessing PositionierungsService, NTRIP: Networked Transport of RTCM via Internet Protocol, GSM: Global System for Mobile communications, RTCM: Radio Technical Commission for Maritime services, RINEX: Receiver Independent Exchange Format.
3 Synchronisation: Zeitliches und/oder inhaltliches aufeinander Abstimmen von Vorgängen, Ressourcen und Daten.
136
O. Heunecke
Sensorknoten in Abhängigkeit der beobachteten Prozessvariationen sicherzustellen. Dies gilt auch für die Kommunikation selbst, d. h. das Festlegen von Sende- und Empfangszeiträumen, wenn ein übliches TDMA-Verfahren (Abschn. 3) genutzt wird. Eine Unterscheidung von Sensornetzen in allgemeiner Betrachtung und Geosensornetzen im Speziellen ist letztlich graduell und nicht stringent durchzuhalten; es gibt keine eigene Theorie von Geosensornetzen, wohl aber eine gewisse, durch die Anwendungen begründete Eigenständigkeit [36]. Es ist einer Konkretisierung gleichzustellen, wie diese etwa auch mit den Begriffen Geodaten, Geodiensten, Geomonitoring oder Georisiko beabsichtigt ist. Geodaten sind per definitionem Daten mit einem direkten oder indirekten Bezug zu einem bestimmten Standort, einer Position oder einem geografischen Gebiet. Die sich bei Geosensornetzen ergebenden Datenbestände sind schon ihres Umfanges wegen in vielen Anwendungen nur mittels geeigneter (Geo)Informationssysteme (GIS, im Speziellen Sensor-GIS) sinnvoll und zweckmäßig zu verwalten [30, 37].
2
Sensornetzwerke
Ein drahtloses wie auch ein leitungsgebundenes Sensornetz besteht im Prinzip stets aus vier Komponenten: – Menge von automatisiert arbeitenden Sensorknoten mit gegebenenfalls auch integrierten Aktoren, die im interessierenden geografischen Bereich verteilt sind. – Verbindendes drahtloses und/oder leitungsgebundenes Kommunikationsnetzwerk. – Beim konventionellen Design eine zentrale Station der Datenzusammenführung und erforderlichenfalls deren Aufbereitung, soweit dies an den Sensorknoten nicht bereits erfolgt ist (z. B. die Wandlung proprietärer Datenformate oder die Berücksichtigung von Kalibrierfunktionen für Rohdaten). – Geeignete Algorithmen und Programme für die weiterführende Datenauswertung, Ergebnisermittlung und etwaig einzuleitende Aktionen. Statt einer zentralen Datensenke im konventionellen Design eines Sensornetzes gewinnen Anwendungen an Bedeutung, bei denen die Daten zugleich mehreren Stationen, gegebenenfalls sogar allen beteiligten Sensorknoten, zur individuellen Weiterverarbeitung zugeführt werden. Ein Sensornetz stellt sich somit als eine Informationsinfrastruktur dar, die sich aus Sensoren, Rechnerkapazitäten und Kommunikationsmöglichkeiten so zusammensetzt, dass Administratoren und Nutzer in die Lage versetzt werden, bestimmte Phänomene zu beobachten, zu bewerten und entsprechend zu reagieren. Die Beobachtung läuft in einem automatisierten Modus – im Normalbetrieb idealerweise ohne jegliche Systemadministration – und häufig wird auch ohne
5 Geosensornetze
137
interaktiven Eingriff beim Erreichen zuvor festgelegter Schwellwerte oder Bedingungen eine definierte Reaktion ausgelöst, z. B. bei der Temperaturminderung eines Wohnraumes in einem Smart Home über Nacht oder wenn keine Personen anwesend sind. Derart mit Sensoren und Aktoren ausgerüstete Gebäude zielen vor allem auf eine Komfortsteigerung und ökonomische Bewirtschaftung ab. Die Entwicklungen beim Smart Home sind, auch forciert durch Standardisierungsinitiativen wie EEBus,4 bereits so weit, dass beauftragte Dienstleistungsfirmen auf ein solches Sensornetz via Internet zugreifen können, beispielsweise für die Fernwartung der Heizungsanlage, oder dass der Hauseigentümer mit seinem Smartphone jederzeit verschiedene Bedien- und Steuerungsmöglichkeiten hat. Unter Smart Structures sind mit Sensoren bestückte Ingenieurbauwerke mit der Fähigkeit zur Selbstdiagnose von Unregelmäßigkeiten zu verstehen. Eine solche Struktur kann z. B. ein Deich sein, dessen Durchfeuchtung ein Indiz ist, ob er einer Hochwasserbelastung standhalten kann [20]. Sind auch Aktoren integriert, können in Abhängigkeit erfasster Wirkgrößen, z. B. Erschütterungen durch Erdbeben, adäquate Reaktionen ausgeführt werden, etwa die sofortige Aktivierung eines Schwingungstilgers oder einer hydraulischen Presse, um einen Nominalzustand wieder zu erreichen. Dabei werden Systeme unterschieden, bei denen eine Reaktion nur von der Zentralstation aus eingeleitet wird und solche, bei denen dies auch unmittelbar und ohne jeglichen Zeitverzug von einem Sensorknoten ausgehend erfolgen kann [21]. Wie bei Smart Homes sind die Einbauorte der Sensorknoten einschließlich der Aktoren im Regelfall wohlgeplant und topologisch beschrieben. Einer Lokalisierungskomponente bedarf es dann nicht. Das ultimative Leitbild von drahtlosen Sensornetzen (Wireless Sensor Networks – WSN) ist der Bionik entlehnt. Dort versteht man unter einem Schwarm eine Gruppe von Individuen – in der technischen Umsetzung die eigenständig operierenden Sensorknoten –, die mittels direkter Kommunikation selbstorganisiert und scheinbar ohne zentrale Lenkung, aber mit einer erforderlichen Intelligenz und Hierarchie miteinander agieren und damit ihre Effizienz steigern. Die Koordination der Aktivitäten basiert in starkem Maße auf der mehr oder weniger ständigen Interaktion zwischen den Individuen. Weiterhin wird bei drahtlosen Sensornetzwerken oft von dem Ideal anzustrebender Sensorknoten der Größe weniger mm3 oder cm3 mit einer Autarkie von mehr als z. B. einem Jahr ausgegangen, die in großer Stückzahl zur Verfügung stehen. Dies setzt miniaturisierte und effiziente Sensortechnologien sowie energieoptimierte Betriebsmodi voraus. Letzteres ist etwa durch eine hohe Datenaggregation zu erreichen, d. h. nur das Weiterleiten zusammengefasster Messinformationen in akkumulierten Paketen, um die energieverbrauchende Kommunikation wenig zu aktivieren. Eine Datenaggregation bedeutet z. B. eine Mittelwertbildung
4 EEBus (www.eebus.org) steht für die Initiative der Nutzung bestehender Kommunikationsstandards mit dem Ziel, Energieversorgern und Haushalten den Austausch von Anwendungen und Diensten zu ermöglichen.
138
O. Heunecke
der Daten einer Untermenge benachbarter Sensorknoten, sog. Cluster, oder die Tiefpassfilterung von Daten an einem Sensorknoten, wo dann nur das jeweilige Ergebnis versandt wird. In [28] ist ein drahtloses Sensornetz wie folgt beschrieben: „WSNs are typically composed of a large number of low-cost, low-power, multifunctional wireless devices deployed over a geographical area in an ad hoc fashion and without careful planning“. Diese pauschale Sicht ist bei näherer Betrachtung zu differenzieren, da die individuellen Anforderungen an ein drahtloses Sensornetz eine Relativierung (z. B. hinsichtlich „low-cost“) und Spezifizierung unter anderem hinsichtlich der Datenqualität (Quality of Service – QoS) erfordern. Gerade Eigenschaften wie miniaturisierte Bauweise, Ressourcenarmut bezüglich der Energie und geringe Stückkosten der Sensorknoten werden auch für drahtlose Geosensornetze oft als kennzeichnend aufgeführt [4]. Viele Untersuchungen zum Thema erfolgen unter diesen einschränkenden Annahmen limitierter Ressourcen [6]. Hier findet sich auch die generelle Philosophie wieder, die Repräsentativität und Gültigkeit von Aussagen auf die verfügbare Masse an gemessenen Daten zu stützen und weniger auf deren Genauigkeit. Die Ausbringung bzw. das Vorhandensein in großer Stückzahl ohne weitere Vorplanung und infrastrukturelle Gegebenheiten, d. h. insbesondere ohne vorab bekannte und sich gegebenenfalls ständig ändernde Positionen der Sensorknoten, macht eine drahtlose Ad-Hoc-Vernetzung der Sensorknoten untereinander und mit der zentralen Datensenke bzw. den beteiligten Stationen der Datenzusammenführung in jedem Fall notwendig. Auch für die Skalierbarkeit5 eines Sensornetzes ist die Ad-Hoc-Vernetzung eine wesentliche Grundeigenschaft. Die Knotendichte muss immer so groß sein, dass Reichweitenbeschränkungen der Kommunikation zumindest zum nächsten Nachbarn nicht überschritten werden. Sowohl aus Gründen der Zuordnung der gemessenen Daten als auch für ein energieeffizientes, geografisches Routing6 mit kurzen Punktabständen muss dabei die Möglichkeit zur Lokalisierung der Sensorknoten vorgesehen werden. Es versteht sich, dass die Sensorknoten hier nicht nur automatisiert und autark (selbstversorgt), sondern auch autonom (unabhängig, mit eigener Entscheidungsfreiheit) arbeiten müssen. Bei der Routenfindung ist zu unterscheiden, ob die Datenwege zentral oder im Netz selbst bestimmt werden. In Ad-Hoc-Netzen bedarf es dezentral arbeitender Algorithmen, die vornehmlich in Abhängigkeit von den Abständen zu den Nachbarknoten, der Signalstärke und der Verkehrslast die „Kosten“ der Kommunikation wiederkehrend ermitteln, um die Routen optimal festzulegen [10, 23]. Die Vermeidung zentraler Instanzen bezüglich der Kommunikation verbessert die Skalierbarkeit und Robustheit des Netzes erheblich.
5 Skalierbarkeit: Aufnahme oder Wegfall von Sensorknoten in einem Netzwerk, ohne dass es im Betrieb des Sensornetzes zu Schwierigkeiten kommt. 6 Routing: Art der Wegfindung der zu versendenden Daten von einer oder mehreren Quellen an eine oder mehrere Senken durch ein Netzwerk.
5 Geosensornetze
139
Erfolgt die Kommunikation auf vorab geplanten Pfaden, was gegenwärtig in vielen bestehenden Anwendungen noch der Standard ist, wird von einem infrastrukturellen Sensornetz gesprochen. Für solche Netze werden weiterhin eine Client/Server-Architektur bei der Anbindung der Sensorknoten sowie die Nutzung nur bestimmter Arten von Sensoren als kennzeichnend angeführt. Man spricht dabei auch von monolithischen Systemen mit häufig proprietären Datenformaten. In vielen infrastrukturellen Netzen findet man zudem die Situation, dass die Sensorknoten an das Niederspannungsnetz (230 V) angeschlossen sind, wobei üblicherweise zur Überbrückung von Stromausfällen eine zusätzliche Pufferung (Unterbrechungsfreie Stromversorgung – USV) vorgesehen wird. Die Abb. 1 gibt den grundlegenden Aufbau eines (Geo)Sensornetzes wieder ([21] & [34, S. 200]). Beim konventionellen Layout werden alle Daten an einer sich im Allgemeinen vor Ort befindlichen Zentralstation zusammengeführt, die bezüglich Energieversorgung und Rechenleistung de facto keinen Beschränkungen unterliegt und auf die ein Zugriff von außerhalb besteht. Um einen solchen Zugriff auf das Sensornetz aus Gründen der Datenabfrage oder der Wartung gewährleisten zu können, ist eine Fernkommunikation erforderlich, die gewöhnlich unter Nutzung des (mobilen) Internets bzw. Intranets, gegebenenfalls auch mittels Mobilfunk, erfolgt. Geosensornetze können abweichend von der Darstellung in Abb. 1 auch auf eine Sensor-zu-Sensor-Kommunikation ausgelegt sein, siehe die Beispiele in Abschn. 6.1. Häufig findet sich beim konventionellen Layout ein zwischengeschalteter WebServer mit zentraler Datenhaltung für die dann zumeist nach Zugriffsrechten separierten Nutzer. Somit ist ein weltweiter und ständiger Informationsabgriff gegeben. Über einen solchen Web-Server, auf dem die Daten und/oder Ergebnisse abgelegt sind, besteht zudem die grundsätzliche Möglichkeit, diese auch in weitergehende Auswertungen anderer Applikationen einzubinden, sofern es sich um offene Systeme handelt. Umgekehrt resultiert die Möglichkeit, ergänzende Daten von Servern anderer hinzuzuladen, wenn diese in standardisierten oder zumindest bekannten Formaten vorliegen.
Abb. 1 Sensorik, Kommunikation und Computing bei einem konventionellen (Geo)Sensornetz
140
O. Heunecke
Ein automatisiert operierender Sensorknoten eines Geosensornetzes (Abb. 2) setzt sich neben einer Anzahl von p einzelnen Sensoren (inkl. der Analog-DigitalWandlung) im Wesentlichen aus dem Prozessor – d. h. ein Sensorknoten ist ein (Kleinst-)Rechner und braucht daher ein Betriebssystem (Operating System - OS) –, einer Kommunikationskomponente (Transceiver), einer Lokalisierungskomponente (im Regelfall ein separater Positionssensor) und einer Energieversorgung zusammen. Optional kann ein Aktor integriert sein. Mit p > 1 wird jeder Knoten quasi zu einem Multisensorsystem und ein Sensornetz zu einem räumlich verteilten Erfassungssystem mit q Messstellen (Abb. 1). Die i D 1; : : : ; p Sensoren dienen bei vielen Anwendungen der Erfassung von aktuellen Umwelt- und Atmosphärenzuständen, etwa Lufttemperatur, Luftdruck, Luftfeuchtigkeit, Luftzusammensetzung wie Staubkonzentration etc., können aber auch zur Erfassung interner Parameter wie dem Ladezustand der Batterien ausgelegt sein, um die weitere Verfügbarkeit eines Sensorknotens beim autarken Betrieb einschätzen zu können. Um eine optimierte Planung zu ermöglichen, in welchen geografischen Bereichen bzw. welchem Teil eines Gebäudes oder Bauwerks welche Messgrößen erfasst werden sollen, ist es von Vorteil, wenn die Sensorknoten ein individuelles Design bezüglich der Sensorik gestatten. Die dynamischen Daten sind im Regelfall durch statische, d. h. fest eingegebene, die einzelnen Sensorknoten näher beschreibende Daten ergänzt. Drahtlose Geosensornetzwerke gehen im Allgemeinen per se von einer autarken bzw. bordgestützten Energieversorgung aus. Die Fähigkeit, erfasste Daten zwischenzuspeichern, erlaubt es, Daten an einem Knoten zunächst zu aggregieren und als Paket zu versenden. Vorteilhaft ist dies, da so die Gefahr eines Datenverlustes bei der unmittelbaren
Abb. 2 Aufbau eines Sensorknotens
5 Geosensornetze
141
Übermittlung ohne jegliche Speicherung gemindert wird. Nachteilig für einen aggregierten Paketversand ist die zeitliche Verzögerung der Bereitstellung. Durch eine Vorverarbeitung wird es möglich, die zu versendenden Datenmengen zu reduzieren, was vor allem bei der funkbasierten Kommunikation von Bedeutung sein kann. Allgemein gilt [23, 26]: Rechnen und Reduzieren von Datenmengen auf einem Knoten ist energieeffizienter als das Versenden der originären und daher zumeist umfangreicheren Daten. Wesentliche Merkmale von Sensorknoten, im Falle der Miniaturisierung in drahtlosen Netzen auch als Motes bezeichnet, sind: – Sie müssen eine eindeutige Adressierbarkeit haben – zumindest im Sensornetz selbst. – Sie sind immobil oder mobil, wobei bei bewegten Knoten die wiederkehrende Lokalisierung rein relativ zu benachbarten Knoten oder unmittelbar georeferenziert zwingend ist. – Sie arbeiten zeit- und/oder ereignisgesteuert (Taskmanagement), wobei die Auswertung immer eine zeitliche Zuordnung der Messinformation verlangt und die Anforderung an den Datenaustausch sich aus der Dynamik der beobachteten Prozesse und ihrer Beurteilung ableitet. – Sie können die Möglichkeit haben, Daten zwischenzuspeichern und durch Vorverarbeitung die zu versendenden Datenmengen zu reduzieren. – Sie können die Fähigkeit haben, mittels Aktoren Steuerimpulse vorzunehmen (z. B. Öffnen eines Ventils, Ein- und Abschalten eines angeschlossenen Gerätes). – Sie können allein oder zusätzlich die Aufgabe haben, Daten einer Untermenge von Knoten zu aggregieren und in kondensierter Form weiter zu versenden. Als Quasi-Standard drahtloser Sensornetzwerke mit rein batteriebetriebenen Sensorknoten hat sich das Open-Source-Betriebssystem TinyOS für ein Low-LevelEvent- und Taskmanagement etabliert, was im Hinblick auf die begrenzten Ressourcen in Bezug auf Speicher, Rechenleistung und Energie der Sensorknoten und die speziellen Bedürfnisse verteilter Messwerterfassung entwickelt worden ist ([34], S. 273 ff.). TinyOS erlaubt auch in einfacher Weise das Einbinden eigener Programme und unterstützt gegenwärtig Mikroprozessoren bis zu 32 Bit und 32 MByte RAM. Die Tab. 1 stellt einige Charakteristika von Sensorknoten zusammen. Es sind die jeweiligen Anwendungen, die die Spezifikationen der Sensorknoten bezüglich zu erfassender geometrischer, physikalischer, chemischer oder sonstiger Messgrößen und deren Qualitätsmerkmalen, die physischen Ausmaße der Knoten, ihre aufzubringende Kosten für die Anschaffung und Ausbringung etc. sowie die räumliche Ausdehnung des gesamten Sensornetzes einschließlich der Anforderungen an die Kommunikation (Datenmengen, Aggregation, Reichweiten, : : :) und die Qualität der Lokalisierung näher bestimmen.
142
O. Heunecke
Tab. 1 Charakteristika von Sensorknoten [4, 15] Designparameter Anzahl der Knoten q Status der Knoten Autarkie der Knoten; Stromversorgung Robustheit Ausbringung der Knoten
Abdeckung mit Daten
Lokalisierung der Sensorknoten
3
Eigenschaften, Unterscheidungen Prinzipiell beliebig, oft als „groß“ unterstellt. Selbstbewegt/durch äußere Einflüsse bewegt/unbewegt. Reiner Batteriebetrieb/Wiederaufladung von Akkus/Anschluss an das Niederspannungs- (230 V) oder Bordnetz (i. d. R. 12 V oder 24 V). Outdoor- bzw. allwettertauglich/lediglich Indoor-geeignet. Geplant und am zu beobachtenden Objekt adaptiert/zufällig (z. B. Abwurf aus Flugzeug) und somit ohne definierten Kontakt zum Objekt/auf einer sich bewegenden Plattform installiert. Vereinzelt/räumlich verdichtet und redundant. Homogen (alle Knoten gleiche Sensorik)/heterogen bezüglich der erfassten Messgrößen und deren Qualitäten. Positionssensor integriert/aus der Trajektorie prädizierte Position/Ableitung aus den Kommunikationssignalen/keine Positionsbestimmung vorhanden und daher bei Ausbringung zu bestimmen.
Kommunikation
Der Kommunikation, siehe Tab. 2, kommt die zentrale Stellung hinsichtlich des Datenverkehrs von und zu den Sensorknoten im Sensornetz (Feldkommunikation) sowie der Weiterleitung und Verbreitung an die Administratoren sowie vor allem die Nutzer (Fernkommunikation) zu. Sensornetze nutzen, häufig auch in geeigneter Kombination [34], zumeist die standardisierten Commercial-OffThe-Shelf (COTS7 )-Kommunikationstechniken, die ihrerseits stimulierend auf die Entwicklungen von Sensornetzen wirken und sich auch selbst in ständiger Weiterentwicklung befinden. Elektromagnetische Wellen sind am geeignetsten, alternativ gibt es in speziellen Situationen die Möglichkeiten der akustischen und optischen Datenübertragung. Von wesentlicher Bedeutung ist die Zugriffssteuerung durch Protokolle, die auf die Hauptaufgaben Organize – Routing – Maintain (ORM) ausgerichtet sind [23]. Tab. 2 Charakteristika der Kommunikation (Auswahl) Designparameter Art der Kommunikation Reichweite Netztopologie Datenkommunikation Datenfluss
7
Eigenschaften, Unterscheidungen Drahtlos/leitungsgebunden PAN/LAN/MAN/WAN Infrastrukturell/ad hoc. Sternbasiert/netzbasiert (Multi Hop). Unidirektional/bidirektional. Unicast/Multicast/Broadcast. Permanent mit der gewählten Äquidistanz t /auf Anfrage durch die Zentralstation/ereignisbasiert, ausgelöst durch einen Trigger oder eine Statusänderung.
COTS: „von der Stange“, seriengefertigte Produkte.
5 Geosensornetze
143
Eine grundlegende Differenzierung bezüglich der Kommunikation liegt in der Unterscheidung von drahtlosen und draht- bzw. leitungsgebundenen Verfahren. Für viele Applikationen ist es naheliegend, etwa aus Gründen des erforderlichen Installationsaufwandes, dass innerhalb des interessierenden geografischen Bereichs, d. h. des Sensorfeldes, ausschließlich ein drahtloses Verfahren sinnvoll ist. Gerade jedoch bei drahtlosen Techniken – sie gelten als inhärent unsicher und störbar – sind Fragen des Schutzes gegen unbefugten bzw. ungewollten Zugriff, d. h. der Datensicherheit, sowie etwaiger Störeinflüsse aus der Umgebung zu beachten. Sicherheitsmaßnahmen in drahtlosen Sensornetzen gegen einen unbefugten Zugriff bedeuten immer auch Latenzen, höhere Ansprüche an die Rechenleistung und einen erhöhten Energieverbrauch, da zusätzliche Nachrichten zur Koordination der Aktivitäten erforderlich sind. In skalierbaren und selbstorganisierten Netzen muss ein Sicherungsmechanismus zudem selbstadministrierend sein. Ein weiterer Gesichtspunkt betrifft das Netzprotokoll, grundlegend in die serielle und, heute überwiegend in Sensornetzen genutzte, netzwerkbasierte Kommunikation zu unterscheiden. Bei infrastrukturellen Netzen, insbesondere unter Verwendung des Standardprotokolls TCP/IP, ist die Adressierung softwaretechnisch einfacher zu lösen, beim seriellen Protokoll erfolgt sie hardwaremäßig über die COM-Ports eines Rechners. Bei in ein Netzwerk einzubindenden Instrumenten bzw. Sensoren, die zunächst auf eine serielle Schnittstelle ausgelegt sind, kann unter Verwendung eines Schnittstellenkonverters (serial device server) der Wechsel zu TCP/IP erfolgen. Verbindet man dies beispielsweise mit einer WLAN-Bridge, ist der Anschluss an ein infrastrukturelles WLAN möglich. Über einen integrierten Access-Point ist schließlich der Übergang zu einem Ethernet gegeben. Die einfachste Form der drahtlosen Feldkommunikation ist die Sterntopologie, bei der alle Sensorknoten unmittelbar (mit einem Single Hop) mit einem Gateway, d. h. einem Protokollumsetzer, verbunden sind (Abb. 3 links). Über ein Gateway kann von außerhalb zugegriffen werden, etwa zur Daten- oder auch Ergebnisabfrage
Abb. 3 Stern- und netzbasierte Topologie der drahtlosen Feldkommunikation
144
O. Heunecke
und, wenn der Host-Rechner über die entsprechenden Rechte verfügt, zur Steuerung und Fernwartung. Großer Vorteil der drahtlosen Kommunikation ist die Flexibilität durch flächendeckende Nutzung. Bei Vielfach-Zugriff auf gemeinsam genutzte Frequenzen wird via Media Access Control (MAC) geregelt, wann ein Sensorknoten ruht, sendet oder empfängt. Dazu bedarf es eines Zeitmultiplexverfahrens (Time Division Multiple Access – TDMA) oder alternativ eines Frequency-DivisionMultiple-Access-Verfahrens (FDMA). Versuchen zwei in Reichweite liegende Knoten gleichzeitig auf derselben Frequenz zu senden, gibt es eine Kollision, die die Datenpakete zerstört. Beim TDMA müssen die Uhren der Knoten periodisch synchronisiert werden. Nachteile der drahtlosen Kommunikation sind, dass die Reichweiten durch den veränderlichen Zustand der Atmosphäre beschränkt sein können und dass es sich um ein nicht abgeschlossenes Medium handelt, welches beeinträchtigt werden könnte, z. B. durch hohen Datendurchsatz anderer Nutzer im gleichen Frequenzbereich. In der Praxis wird man, dort wo es angebracht ist, die drahtlose Kommunikation um leitungsgebundene Pfade ergänzen, sowohl bei der Feld- als auch insbesondere der Fernkommunikation [25]. Vorteil einer leitungsgebundenen Kommunikation sind hohe Übertragungsraten in einem abgeschlossenen Medium, Nachteile sind der logistische Aufwand, eine ortgebundene Nutzung und die etwaige Gefahr der Beschädigung des verlegten Mediums. Neben der leitungsgebundenen Kommunikation betrifft die Verkabelung auch die Energieversorgung, wenn keine rein batteriebetriebenen Sensorknoten verfügbar sind. Im direkten Vergleich zum herkömmlichen Datenfunk, der in Sensornetzwerken kaum noch eine Bedeutung hat, weisen ISM, WLAN, Bluetooth und ZigBee einige Vorzüge auf (Tab. 3). Dies sind unter anderem günstigere Anschaffungskosten, einfachere Adressierbarkeit der Sensorknoten, geringerer Stromverbrauch im autar-
Tab. 3 Standards der drahtlosen Kommunikation in Sensornetzen (Auswahl) (Verwendete Abkürzungen: BNetzA: Bundesnetzagentur (www.bundesnetzagentur.de). ISM: Industrial, Scientific & Medical (genehmigungsfreier Funkstandard). 3GPP: Int. Standardisierungsgremium im Bereich Mobilfunk (www.3gpp.org), u. a. für Long Term Evolution (LTE). IEEE: Institute of Electrical and Electronics Engineers (www.ieee.org)) Datenfunk Standard siehe u. a. ISM BNetzA Frequenz 0,3–0,5 0,43 [GHz] Europa 0,91 USA Datenrate 0,0096– 0,038 [Mbps] 0,0192 Leistung ca. 0,5W ca. 0,5W ca. 30 km ca. 3 km
WLAN Mobilfunk Siehe 3GPP 0,45–1,80
IEEE 802.11g 2,4
IEEE 802.11n 2,4
bis 300 bei 54 300 LTE ca. 1 W < 0; 1 W bis ca. 35 km ca. 3 km
Blue-tooth Zig-Bee IEEE IEEE 802.15.1 802.15.4 2,4 2,4
1–3
0,25
< 0; 1W < 0; 1W ca. 0,01– 0,1 km 0,1 km
5 Geosensornetze
145
ken Modus, keine erforderliche Genehmigung zum Betrieb, gegebene Möglichkeit zur Verschlüsselung und vor allem höhere Übertragungsraten, die bei Datenfunk typischerweise nur 9600 bps beträgt. Im Vergleich untereinander haben Bluetooth und ZigBee gegenüber WLAN einen deutlich geringeren Energieverbrauch [21]. WLAN ist vor allem auf hohen Datendurchsatz ausgelegt. Eventuell von Nachteil ist die geringere Reichweite gegenüber Datenfunk, die aber z. B. durch den Einsatz von Boostern verbessert werden kann. Die gesetzlich erlaubte, maximale Sendeleistung beträgt dabei 100 mW Equivalent Isotopic Radiation Power (EIRP). Bei globalen Supportsystemen wie dem AIS und dem ADS-B, die als Geosensornetze gesehen werden können (siehe Abschn. 6.1), erfolgt die Kommunikation in dafür reservierten Frequenzbändern, die in der Tab. 3 nicht dargestellt sind. Ein Ad-hoc-Netz liegt vor, wenn sich die Konnektivität zwischen den Knoten und der bzw. den Datensenken selbst organisiert (Plug & Play). Beim Dynamic Routing werden dabei die Daten auf kurzen Distanzen zwischen den benachbarten Sensorknoten (Multi Hop) weitergeleitet (Abb. 3 rechts). Ein Sensorknoten muss hier auch die Fähigkeit eines Routers haben. Da die Leistungsbilanz bei der drahtlosen Kommunikation quadratisch von der Distanz abhängt, es gilt P d 2 bei freier Sicht, ist es energieeffizient, eine Funkstrecke in kürzere Abschnitte zu unterteilen und die Übertragung von Knoten zu Knoten vorzunehmen. Bei der drahtlosen Kommunikation muss eine möglichst freie quasi-optische Sicht zwischen Sender und Empfänger, die sog. Fresnelzone, gefordert werden. Hindernisse, z. B. Wände, führen zu einer deutlichen Verminderung der in Tab. 3 genannten Reichweiten sowie auch zu Verzerrungen, wenn diese Signale für die Positionierung verwendet werden. In [34], S. 104f., ist der Bereich, der mit Bluetooth und ZigBee abgedeckt werden kann, als Personal Area Network (PAN) bezeichnet, die nächst größeren Abdeckungsbereiche als Local Area Network (LAN) und Metropolitan Area Network (MAN) sowie der regionale bzw. nationale Bereich als Wide Area Network (WAN). Bei einer ungünstigen Topographie mit beschränkten Sichtverbindungen sind unter Umständen Knoten erforderlich, die als reine Relaisstationen fungieren, um die Daten weiterleiten zu können. Ein wesentlicher Vorteil des Dynamic Routing liegt in der Wege-Diversität, so dass auch bei Ausfall eines Verbindungsweges weiterhin Daten zur Zentralstation gelangen. Das Netz kann also auf Knotenausfälle und Störungen reagieren (self-healing). Im Ergebnis wird eine große Flexibilität und Einfachheit bei der Neueinrichtung und Skalierbarkeit eines drahtlosen Sensornetzes erreicht. Es ist zu erwarten, dass sich solche Ansätze, die allerdings hochentwickelte, auf die ständige Rekonfiguration infolge des Ausfalls oder der Neuaufnahme von Sensorknoten ausgelegte Sende- und Empfangsprotokolle verlangen, in absehbarer Zeit durchsetzen werden. In Anwendungen, wo die Kommunikationswege a priori nicht geplant werden können, gibt es hierzu keine Alternative. Reichweitenbeschränkungen, weiterzuleitende Datenmengen sowie erhöhter Energiebedarf der Sensorknoten mit Routingfunktion sind zu beachten. Statt zu einer Zentralstation kann der Datenstrom auch zu mehreren Senken geführt werden.
146
O. Heunecke
Weitere Unterscheidungsmerkmale sind, ob die Kommunikation unidirektional, d. h. nur von den Knoten zur Zentralstation ausgerichtet ist, oder bidirektional und ob eine Nachricht an nur einen Knoten gesendet wird (unicast), an eine bestimmte Menge von Knoten (multicast) oder an alle geht (broadcast). Eine auch von der Zentralstation zu den Knoten gerichtete Kommunikation ist beispielsweise bei einem ereignisgesteuerten Betrieb erforderlich, wenn die Datenerfassung in bestimmten Situationen nach einem geänderten Modus erfolgen soll oder auf diese Weise Steuerimpulse über Aktoren gesetzt werden müssen. Beim Monitoring kann dies sinnvoll sein, wenn bei Erreichen kritischer Indikatoren die Messreihen zeitlich verdichtet und vom Umfang der Messgrößen ausgeweitet gewonnen werden sollen. Bis zu einer solchen Ereignissituation kann ein Sensorknoten auch als „Watchdog“ konfiguriert werden, der so lange nicht sendet und damit Energie spart, bis er selbst ein Ereignis detektiert oder aufgeweckt wird. Das Erkennen eines vordefinierten Ereignisses an einem Sensorknoten ist nur bei vollständiger Autonomie möglich. Der Sensorknoten muss eine ausreichende Intelligenz etwa zur Schwellwertabfrage oder zur Auslösung durch einen Trigger haben. Nachteil eines solchen ereignisgesteuerten Modus ist, dass ein Administrator gegebenenfalls nur ein Lebenszeichen des Knotens sieht, aber keine Daten, selbst wenn diese permanent gemessen werden. Zu beachten ist weiterhin, dass die Weckzeiten unter Umständen kurz, d. h. gegebenenfalls im Sekundenbereich liegend, sein müssen, um die Registrierung eines Phänomens nicht zu verpassen. Eine durchgehende Dokumentation der Prozessbeobachtung ist beim ereignisorientierten Betrieb nicht unmittelbar möglich. Eine abhelfende Lösung ist es, wenn es bei Monitoringaufgaben z. B. aus rechtlichen oder vertraglichen Gründen erforderlich ist, eine lückenlose Dokumentation der Daten zu gewährleisten, die an den Knoten archivierten Daten als akkumulierte Pakete in bestimmten Zeitabständen zu versenden. Dies kann nützlich sein, wenn bei Streitigkeiten nachzuweisen ist, dass Sensorknoten keine Auffälligkeiten gezeigt haben, die zum Wecken und Absetzen einer Warnung hätten führen müssen. Der Trade-Off zwischen Datenaggregation und Übermittlung aller registrierten Daten muss stets fallbezogen konzipiert werden. Bei einem bis heute üblichen zeitgesteuerten Betrieb mit der äquidistanten Abtastung eines Prozesses (t D const.) und ständiger Weiterleitung aller Daten ist der Energieverbrauch zwar höher, aber auch a priori kalkulierbar. Somit können die Stromversorgung, d. h. die Nachladung der Akkus, und die Bandbreite der Kommunikation darauf ausgelegt werden. Ein Administrator sieht, sofern der unmittelbare Versand erfolgt, permanent die originären Messungen zum Prozessgeschehen und kann ohne aggregationsbedingte Verzögerung reagieren.
4
Sensorik
Die Sensorik liefert die mittels einer an den Knoten integrierten Lokalisierungskomponente räumlich als auch zeitlich zugeordneten Messwerte für physikalische Phänomene der realen Welt, um daraus ein digitales Abbild für die Nutzung in
5 Geosensornetze
147
einem Modell, die Analyse und Interpretation zu erzeugen. Vice versa überträgt eine Aktorik im Bedarfsfall Signale, die in das beobachtete physikalische Phänomen eingreifen. Die Abb. 4 veranschaulicht dies schematisch.
4.1
Lokalisierung
Gemäß Definition ist der georeferenzierte Bezug der erfassten Daten Kriterium eines Geosensornetzes. Besitzt, was sich insbesondere aus Kosten-, Platz- und Energiegründen ergibt, ein Sensorknoten keinen eigenen Positionssensor, kann ausgehend von einer gewissen Mindestanzahl umgebender sog. Beacons über die Laufzeiten (Time Of Arrival – TOA), die Empfangsstärken ausgesandter Signale als Maß für den Abstand (z. B. Reichweitenüberlappungen mit Schwerpunktbildung) oder das aus der Hyperbelnavigation bekannte Vorgehen der Zeitdifferenzmessung des Signalempfangs (Time Difference Of Arrival – TDOA) der Standort eines Sensorknotens zumindest genähert ermittelt werden. Diese Trilaterationsverfahren sind im Regelfall nur zweidimensional ausgelegt und vernachlässigen die Höhenbestimmung. Dabei ist zu unterscheiden, ob alle erforderlichen Berechnungen an der Zentralstation erfolgen, dies dezentral im Netz organisiert ist [2] oder eine Kombination von beidem vorliegt [29]. Eine Übersicht und Klassifikation der gängigen Techniken, Verfahren sowie Lokalisierungsalgorithmen geben [5] und [6]. Angesichts der zunehmenden Verbreitung von GNSS-Empfängern, wie sie mit miniaturisierten Chips z. B. in jedem Smartphone und jeder Smartwatch zu finden sind, dürfte – abgesehen von Anwendungen, die in die Bereiche Smart Dust und Indoor-Navigation fallen – die Nutzung solcher Positionierungstechniken in Geosensornetzen vermutlich die Ausnahme bleiben. Bei der satellitengestützten Positionierung werden an den Sensorknoten überwiegend einfache Empfänger verwendet, gegenwärtig vornehmlich GPS-L1Empfänger im C/A-basierten Standard Positioning Service (SPS). Der Signalempfang solcher Empfänger ist in den letzten Jahren ständig verbessert worden (high sensitivity GNSS) [33]. Zudem kann ein GNSS-Empfänger vorteilhaft als Zeitserver
Abb. 4 Aufgabe der Sensorik und Aktorik (nach [7])
148
O. Heunecke
genutzt werden. Die im SPS zu erreichende Positionsgenauigkeit beträgt unter guten Empfangsbedingungen ca. 3 m für die Lagekoordinaten und ca. 6–7 m für die Höhenkomponente, wenn die Ergebnisse auf einem Wahrscheinlichkeitsniveau von 95% angegeben werden [14]. Verschlechtern sich die Empfangsbedingungen (z. B. Abschattungen, Multipath) kommt es zu einem deutlichen Abfall der erreichbaren Genauigkeiten und gegebenenfalls zu erheblichen Positionsverzerrungen. Für handelsübliche Smartphones mit integrierten GPS-Empfängern sind in [27] Standardabweichungen von ca. 6–9 m in der Lage in städtischer Umgebung und ca. 3,6 m in offener Umgebung ermittelt worden, was mit dem Faktor 2 multipliziert werden muss, um wieder zu 95%-Angaben zu kommen. Bei höheren Anforderungen an die satellitenbestimmte Positionsgenauigkeit sind code- oder trägerphasenbasierte Augmentierungsverfahren zu nutzen. Sind die Sensorknoten stationär oder nur langsam in Bewegung, können bei verfügbaren Referenzpunkten in der Nachbarschaft unter Einbezug von Trägerphasenmessungen auch mit einfachen, für den Massenmarkt entwickelten Navigationsempfängern, bislang ausschließlich Einfrequenzgeräte, Standardabweichungen im cm-Bereich erzielt werden. Viele der Navigationsempfänger benötigen die Trägerphase für interne Glättungsoperationen bei der Code-Lösung, sie haben aber nicht wie Rover die Fähigkeit, sie zur augmentierten Positionsbestimmung eigenständig zu nutzen. Voraussetzung dieser Form der Positionsverbesserung ist, dass die Empfänger neben den Code- auch die Trägerphasen registrieren und via Interface ausgeben können. Die Code- und Trägerphasen sind entweder an die Zentralstation zu übermitteln, wo im Near Real Time Processing (NRTP) die Positionen der Sensorknoten ermittelt werden, oder man verbindet einen solchen Navigationsempfänger unmittelbar mit einem Rechner, der via mobiles Internet die Korrekturdaten eines CORS empfängt und zusammen mit Signalen des angeschlossenen GNSS-Empfängers auswertet. Im letzteren Fall sind mit Navigationsempfängern in Echtzeit Positionsbestimmungen möglich, die, angegeben als Standardabweichungen, je nach Empfangsbedingungen zwischen wenigen cm bis ca. 1,4 m variieren [27]. Dies ist als kosteneffektive Alternative zu den üblichen RTK-Verfahren (real time kinematic) zu sehen, bei denen die Rover eigenständig die verbesserten Positionen ermitteln und aufgrund besserer Antennen, einer hohen Anzahl von Empfangskanälen und hochentwickelter Algorithmik bei Nutzung aller verfügbaren GNSS auch bei eingeschränkten Empfangsbedingungen im Allgemeinen ¢ D 1–3 cm in Echtzeit erwartet werden darf. In [12] wird gezeigt, wie einfache Navigationsempfänger auch für ingenieurgeodätische Überwachungen im Hinblick auf das frühzeitige Erkennen von Punktbewegungen genutzt werden können. Bei dem entwickelten Ansatz werden die Trägerphasenmessungen zunächst über einen vorzugebenden Zeitraum, z. B. 15 min. Epochendauer, akquiriert und als binäre Rohdaten an einen zentralen Rechner für das Processing weitergeleitet. Das zu versendende Datenvolumen für einen GPSL1-Empfänger beträgt je nach Satellitenüberdeckung ca. 400 Byte/s, was auch bei einer größeren Anzahl von Sensorknoten problemlos mittels WLAN möglich ist. An den Sensorknoten werden nur die Daten gesammelt und versendet, nichts aber berechnet. Für jede Epoche zum Zeitpunkt tk wird an der Zentralstation eine maß-
5 Geosensornetze
149
geblich durch die jeweilige Satellitenabdeckung bestimmte Lösung erhalten. Damit können lediglich sich langsam vollziehende Veränderungen beobachtet werden (und keine Veränderungen innerhalb einer Epoche), wie sie bei ingenieurgeodätischen Dauerüberwachungen von primärem Interesse sind. Großer Vorteil ist, dass das Processing durch den Administrator gestaltet werden kann und dabei z. B. Signalqualitäten, die ohnehin Bestandteil der übermittelten Rohdaten sind, berücksichtigt werden können. Beispielsweise können Satelliten mit schwachem und mehrmals unterbrochenem Empfang ausgeblendet werden. Kernstück der Entwicklung in [12] ist ein modular strukturiertes Programm, was die erforderlichen Schritte der Systeminitialisierung, der permanenten Datenzusammenführung sowie -aufbereitung und des Processing leistet. Das Programm gewährleistet das batchgesteuerte Einbinden externer Softwareprodukte zur Berechnung der Basislinie und zur Analyse der sich ergebenden Messreihen. Zum Erkennen von Verschiebungen im cmBereich sind die Qualitäten der Epochenlösungen bereits ausreichend (Tab. 4), sie können durch eine gleitende Mittelbildung je nach Erfordernis weiter gesteigert werden. Um das Leistungsvermögen eines solchen Ansatzes aufzuzeigen, sind in der Abb. 5 die ermittelten Punktverschiebungen an einem Rutschhang in den Alpen über einen Zeitraum von zwei Jahren wiedergegeben. Die Empfänger am Hang und auf der Referenzstation im Tal in ca. 3 km Entfernung, die zur Berechnung der Basislinie herangezogen werden, sind sog. Enclosures des Typs Novatel Smart Antenna V1G. Der Empfänger am Hang wird über eine Batterie mit Nachladung durch ein Solarpanel betrieben. In den Wintermonaten kommt es phasenweise zu einer völligen Schneebedeckung dieses Punktes, obwohl er in ca. 2 m über Gelände aufgebaut ist. Dargestellt sind die gleitenden Mittelwerte im Rechts- und Hochwert über ein Zeitintervall von 6 Stunden. Der überwachte Punkt hat sich in den letzten 24 Monaten mehr oder weniger gleichmäßig um ca. 5 cm talwärts verschoben.
Tab. 4 Monitoring mittels Tachymetrie und low-cost GNSS-NRTP im Vergleich Kosten Genauigkeit (1 Lage)
Reichweite Meteorologie Stromversorgung Sichten
Datenfluss
Tachymetrie Sehr hoch für Tachymeter, gering für Zielpunkte. Pauschal 1 mm/200 m.
Bis ca. 1 km geeignet. 1. Geschwindigkeitskorr. zwingend. Nur am Tachymeterstandpunkt. Freie Sicht vom Tachymeterstandpunkt zu den Zielpunkten. Daten fallen am Tachymeterstandpunkt an.
Low-cost GNSS-NRTP Moderat für Sensorknoten, weitere Sensoren leicht integrierbar. Abhängig von den Abschattungen. Bei Horizontfreiheit und 15 min. Epochendauer 2 mm/200 m. Basislinienlänge bis max. 3–4 km. Optional für Modellverfeinerungen. Für jeden Sensorknoten erforderlich. Möglichst freier Horizont, keine direkte Sicht zwischen Sensorknoten erforderlich. Kommunikationskomponente zwingend (z. B. WLAN).
150
O. Heunecke
Abb. 5 Punktverschiebungen an einem Rutschhang bestimmt mittels low-cost GNSS-Empfängern
Standardmäßig werden für solche Aufgaben des Monitorings motorisierte Tachymeter eingesetzt. Die Tab. 4 stellt einige Merkmale beider Techniken vergleichend zusammen. Zur Positionierung in Innenräumen existiert bis heute kein äquivalentes Pendant zu den satellitengestützten Verfahren im Freien. Es können unter anderem WLANSignale verwendet werden. Hierbei werden die empfangenen Signalstärken eines Endgerätes, z. B. eines Smartphones, angegeben als Received Signal Strength (RSS), genutzt. Die Positionen der im Gebäude installierten WLAN-Router sind als bekannt vorauszusetzen bzw. dürfen sie nach einer Referenzmessung ebenso wie die Einbauten zumindest nicht verändert werden. Das sog. WLAN-Fingerprinting vergleicht eine im Voraus definierte Referenzdatenbank von Signalstärkemessungen im Gebäude mit dem aktuellen Empfangsbild des Endgerätes. Es empfiehlt sich, die Referenzdatenbank mit Grid-Größen von etwa 6–10 m2 je Etage flächendeckend aufzubauen. Die Indoor-Navigation ( Kap. 3, „Indoor-Positionierung“) wird vor allem benötigt für das Auffinden von Objekten, z. B. die Suche nach einem bestimmten Raum, sowie für sicherheitskritische Anwendungen, z. B. die Evakuierung von Personen und die Koordinierung von Einsatzkräften. Aus der Sicht von Einsatzkräften sind große Gebäude im Hinblick auf ihre Unübersichtlichkeit und die damit verbundene Schwierigkeit, den Überblick über die Lage zu behalten, eine ständige Herausforderung. Durch ein Positionierungssystem für Einsatzkräfte verringert sich der erforderliche Koordinationsaufwand und die Sicherheit der eingesetzten Personen wird verbessert. Auf installierte Infrastruktur im Gebäude, z. B. WLAN-Router, sollte dabei jedoch möglichst verzichtet werden, da diese durch ein Ereignis wie einen Brand ausfallen oder beeinträchtigt werden können. Die Personenortung kann durch mitgeführte Inertialsensoren gestützt und verbessert werden. In nahezu allen Smartphones sind standardmäßig GPS-Chips, WLANTransceiver, Beschleunigungsmesser, Drehratenmesser, Magnetometer, Barometer, Temperatursensoren, Helligkeitssensoren, Kameras sowie gegebenenfalls noch weitere Sensoren verbaut, wobei die meisten MEMS (Abschn. 4.2) darstellen. Damit ergibt sich die Möglichkeit der Nutzung von Smartphones zur Personenortung sowohl im Außen- als auch Innenbereich. Als besondere Form hat sich das sog. Mobile Crowdsourcing entwickelt. Mitgeführte Barometer helfen bei Indoor-Anwendungen die Etage, in der sich eine Person befindet, einzugrenzen. Untersuchungen z. B. von [13] zeigen jedoch, dass Positions- und Bewegungsbestimmungen allein basierend
5 Geosensornetze
151
auf der Integration von Beschleunigungen und Drehraten mit den in Smartphones gegenwärtig verbauten Komponenten zu Ergebnissen führen, die nicht den Anforderungen der Indoor-Positionierung entsprechen. Eine weitere Möglichkeit für die Positionierung in Gebäuden und auf Baustellen besteht darin, einzurichtende Basisstationen – sie entsprechen im Prinzip den Beacons – zu verwenden, die im Ultra-Wideband (UWB) arbeiten. Vorteile bietet das Verfahren im Hinblick auf die Problembereiche der Verfügbarkeit der Signale aufgrund von Abschattungen (z. B. Baumaterialien), der Zuverlässigkeit der Ortung wegen Störungen (z. B. Mehrwegeffekte) und der Genauigkeit der Positionslösung [5]. Anstelle der Verwendung modulierter Wellen basiert die Nachrichtenübertragung bei UWB auf der Erzeugung von kurzen digitalen Impulsen (