- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2024
Abschlussarbeiten 2024
MQTT, a suitable protocol for GNSS data transmission
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Aktuell gibt es mehrere Methoden, wie Global Navigation Satellite System (GNSS) Datenströme einzelner Referenzstationen, sogenannten CORS, verteilt werden können. Für die Verteilung solcher Ströme innerhalb eines geschlossenen lokalen Netzwerkes, dem Local Area Network (LAN), reicht die Übertragung via Transmission Control Protocol (TCP). Möchte man derartige Datenströme über ein offenes Netzwerk, das Wide Area Network (WAN), verteilen, benötigt man ein Übertragungsprotokoll mit mehr oder weniger komplexen Sicherheitsmethoden, wie zum Beispiel Authentifizierung und Autorisierung. Das Protokoll Networked Transport of RTCM via Internet Protocol (Ntrip) erfüllt diese Ansprüche und gilt bereits seit Jahrzehnten als der de facto Standard für die Übertragung von GNSS Datenströmen. Aufgrund der Versionsdefinitionen von Ntrip, Version 1.0 beziehungsweise 2.0, stellen diese Protokolle eine weitere Überlagerung auf dem Protokoll HTTP Version 0.9 beziehungsweise 1.1 dar, welche ausschließlich von einem speziell dafür zugeschnittenen ’Client’ verarbeitet werden können. Zu berücksichtigen ist, dass HTTP für die Übertragung von abgeschlossenen Inhalten konzipiert wurde. Binäre Datenströme können hiermit zweifelsohne übertragen werden, generell vorgesehen war es hierfür allerdings nicht. Hierfür gibt es Protokolle, die eigens für die Kommunikation zwischen Maschinen (M2M) definiert wurden. Zu solchen Protokollen zählen das Message Queuing Telemetry Transport (MQTT) und das Advanced Message Queuing Protocol (AMQP). Im Vergleich zu HTTP besitzen diese einen einfacheren und kürzeren ’Header’ und zusätzliche Funktionalität wie ’Delivery Guarantee’, wodurch weniger Metadaten und Energie für MQTT benötigt werden. Diese Vorteile werden erst bei der entsprechenden Skalierung schlagend. Die Arbeit befasst sich mit der Implementierung und Evaluierung eines Prototypes, mit dem MQTT und Ntrip verglichen werden können. Dabei werden vier Aspekte beleuchtet: Die Latenz des übertragenen GNSS Datenstroms, die für die Übertragung benötigten Systemressourcen, die Schnelligkeit und Genauigkeit der erzielten Positionierung, sowie die Datenübertragungsrate. Die erzielten Ergebnisse zeigen, dass sich MQTT bzw. AMQP bestens für die Übertragung von GNSS Daten, zu einem oder beliebig vielen Endnutzern, eignen.
Aktuell gibt es mehrere Methoden, wie Global Navigation Satellite System (GNSS) Datenströme einzelner Referenzstationen, sogenannten CORS, verteilt werden können. Für die Verteilung solcher Ströme innerhalb eines geschlossenen lokalen Netzwerkes, dem Local Area Network (LAN), reicht die Übertragung via Transmission Control Protocol (TCP). Möchte man derartige Datenströme über ein offenes Netzwerk, das Wide Area Network (WAN), verteilen, benötigt man ein Übertragungsprotokoll mit mehr oder weniger komplexen Sicherheitsmethoden, wie zum Beispiel Authentifizierung und Autorisierung. Das Protokoll Networked Transport of RTCM via Internet Protocol (Ntrip) erfüllt diese Ansprüche und gilt bereits seit Jahrzehnten als der de facto Standard für die Übertragung von GNSS Datenströmen. Aufgrund der Versionsdefinitionen von Ntrip, Version 1.0 beziehungsweise 2.0, stellen diese Protokolle eine weitere Überlagerung auf dem Protokoll HTTP Version 0.9 beziehungsweise 1.1 dar, welche ausschließlich von einem speziell dafür zugeschnittenen ’Client’ verarbeitet werden können. Zu berücksichtigen ist, dass HTTP für die Übertragung von abgeschlossenen Inhalten konzipiert wurde. Binäre Datenströme können hiermit zweifelsohne übertragen werden, generell vorgesehen war es hierfür allerdings nicht. Hierfür gibt es Protokolle, die eigens für die Kommunikation zwischen Maschinen (M2M) definiert wurden. Zu solchen Protokollen zählen das Message Queuing Telemetry Transport (MQTT) und das Advanced Message Queuing Protocol (AMQP). Im Vergleich zu HTTP besitzen diese einen einfacheren und kürzeren ’Header’ und zusätzliche Funktionalität wie ’Delivery Guarantee’, wodurch weniger Metadaten und Energie für MQTT benötigt werden. Diese Vorteile werden erst bei der entsprechenden Skalierung schlagend. Die Arbeit befasst sich mit der Implementierung und Evaluierung eines Prototypes, mit dem MQTT und Ntrip verglichen werden können. Dabei werden vier Aspekte beleuchtet: Die Latenz des übertragenen GNSS Datenstroms, die für die Übertragung benötigten Systemressourcen, die Schnelligkeit und Genauigkeit der erzielten Positionierung, sowie die Datenübertragungsrate. Die erzielten Ergebnisse zeigen, dass sich MQTT bzw. AMQP bestens für die Übertragung von GNSS Daten, zu einem oder beliebig vielen Endnutzern, eignen.
Parameterbestimmung auf Basis globaler multi-GNSS Referenznetz-Beobachtungsdaten
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Die Geodäsie hat mit dem Aufkommen moderner Weltraumgeodätischer Techniken eine tiefgreifende Veränderung durchlaufen. Diese Methoden ermöglichen präzise Messungen der Form, der Rotation und der Orientierung der Erde im Raum. Zudem spielen sie eine entscheidende Rolle bei der Überwachung der Erdatmosphäre und der Beobachtung geophysikalischer Phänomene. Sie dienen sowohl der wissenschaftlichen Forschung als auch praktischen Anwendungen. Im Rahmen dieser Arbeit wurden GNSS-basierte Anwendungen genutzt. Diese nehmen eine herausragende Stellung unter den Weltraumgeodätischen Techniken ein. Sie ermöglichen präzise Schätzungen der Polkoordinaten (x, y) und der Tageslänge (LoD), die gemeinsam als Erdrotationsparameter (ERPs) bezeichnet werden. Hochgenaue ERP-Zeitreihen sind unerlässlich, um komplexe Dynamiken der Erde zu verstehen und genaue Referenzsysteme zu etablieren. Davon profitieren die meisten Anwendungen in der Navigation und Positionierung. Dank eines umfangreichen Netzwerks weltweit aktiver GNSS-Stationen ist eine globale Abdeckung gewährleistet, welche eine beispiellos genaue Bestimmung der ERPs ermöglicht. Allerdings sind mehrere Fehlerquellen, welche die GNSS-Signallaufzeit zwischen Satellit und Empfänger beeinflussen, zu beachten. Eine Hauptfehlerquelle ist die Ionosphäre, ein für Mikrowellen dispersives Medium, das Signalverzögerungen verursacht, wenn die Signale durch die Erdatmosphäre zu bodengebundenen Empfängern gelangen. Durch die Nutzung von Beobachtungen auf 2 Frequenzen ist es allerdings möglich, mit der sogenannten ionosphärenfreien Linearkombination einen erheblichen Teil dieser Verzögerung zu eliminieren. Andererseits ermöglicht die geometriefreie Linearkombination von Mehrfrequenzbeobachtungen die Erstellung von Ionosphärenmodellen und damit die Beschreibung von ionosphärischen Zustandsgrößen. Diese Modelle können anschließend verwendet werden um Laufzeitkorrekturen für Beobachtungen von Massenmarkt- Einfrequenz-Empfängern zu berechnen. Das Ziel dieser Arbeit war es, die bereits erwähnten Erdrotationsparameter (ERPs) als auch ionosphärische Informationen in Form von VTEC-(Vertical Total Electron Content)-Karten zu schätzen und zu analysieren. Hierfür wird insbesondere eine Kombination aus GPS- und Galileo-Beobachtungen prozessiert, um zu beurteilen, inwieweit diese Lösungen durch die Verwendung von Multi-GNSS-Kombinationen im Gegensatz zu einzig auf GPS-Daten basierenden Beobachtungen verbessert wurden. Besondere Aufmerksamkeit gilt dem europäischen Galileo-System. Seit dem Start seines ersten Testsatelliten im Dezember 2005 hat Galileo eine entscheidende Rolle als Ergänzung zu etablierten GNSS-Systemen wie dem US-amerikanischen GPS und dem russischen GLONASS gespielt. Es kann gezeigt werden, dass die Kombination von Galileo- mit GPS Beobachtungen eine deutlich verbesserte Genauigkeit bei der präzisen Parameterabschätzung liefert, sofern für Galileo hochpräzise Bahndaten basierend auf neuen Strahlungsdruckmodellen zur Verfügung stehen. Die Methodik dieser Forschung umfasste die Verarbeitung von Beobachtungsdaten in der Bernese GNSS Software Version 5.2 (BSW). Beobachtungen von einem weltweit verteilten Netzwerk von GNSS IGS-Stationen wurden verwendet, um ERP-Zeitreihen (Erdrotationsparameter) zu schätzen. Je nach Kombination der Beobachtungen (nur GPS oder kombiniertes GPS+Galileo) und dem verwendeten Strahlungsdruckmodell wurden sechs Lösungen über 1-Tages- und 3-Tages-Bögen berechnet. Zusätzlich wurde ein detailliertes regionales Ionosphärenmodell für die mittleren Breiten Europas mithilfe von Daten von GNSS IGS und EPOSA-Permanentstationen (Echtzeit Positionierung Austria) erstellt, wobei die modifizierte Single-Layer-Mapping-Funktion (MSLM) und die geometriefreie lineare Kombination verwendet wurden. Die Ergebnisse wurden anhand einer Gegenüberstellung mit etablierten Modellen validiert. Dabei konnten erhebliche Verbesserungen bei der Integration von Multi-GNSS-Daten hervorgehoben werden. Der Beitrag dieser Studie spiegelt sich in der Demonstration einer verbesserten Genauigkeit wider, die durch die Integration von Multi-GNSS erreicht werden kann, in diesem Fall bei ERP- und Ionosphärenmodellierung. Die Ergebnisse dieser Studie bestätigen die Bedeutung der Verwendung mehrerer GNSS-Systeme für präzise geodätische Anwendungen. Es wird daher empfohlen, auf kombinierte Beobachtungsdaten zurückzugreifen, um künftige Verbesserungen gewährleisten zu können. Die Genauigkeitssteigerung für ERPs liegt bei ungefähr 25%, während die VTEC Schätzungen im Sommer um etwa 60% und im Winter bis zu 80% im Vergleich zu externen Referenzmodellen verbessert werden konnten.
Die Geodäsie hat mit dem Aufkommen moderner Weltraumgeodätischer Techniken eine tiefgreifende Veränderung durchlaufen. Diese Methoden ermöglichen präzise Messungen der Form, der Rotation und der Orientierung der Erde im Raum. Zudem spielen sie eine entscheidende Rolle bei der Überwachung der Erdatmosphäre und der Beobachtung geophysikalischer Phänomene. Sie dienen sowohl der wissenschaftlichen Forschung als auch praktischen Anwendungen. Im Rahmen dieser Arbeit wurden GNSS-basierte Anwendungen genutzt. Diese nehmen eine herausragende Stellung unter den Weltraumgeodätischen Techniken ein. Sie ermöglichen präzise Schätzungen der Polkoordinaten (x, y) und der Tageslänge (LoD), die gemeinsam als Erdrotationsparameter (ERPs) bezeichnet werden. Hochgenaue ERP-Zeitreihen sind unerlässlich, um komplexe Dynamiken der Erde zu verstehen und genaue Referenzsysteme zu etablieren. Davon profitieren die meisten Anwendungen in der Navigation und Positionierung. Dank eines umfangreichen Netzwerks weltweit aktiver GNSS-Stationen ist eine globale Abdeckung gewährleistet, welche eine beispiellos genaue Bestimmung der ERPs ermöglicht. Allerdings sind mehrere Fehlerquellen, welche die GNSS-Signallaufzeit zwischen Satellit und Empfänger beeinflussen, zu beachten. Eine Hauptfehlerquelle ist die Ionosphäre, ein für Mikrowellen dispersives Medium, das Signalverzögerungen verursacht, wenn die Signale durch die Erdatmosphäre zu bodengebundenen Empfängern gelangen. Durch die Nutzung von Beobachtungen auf 2 Frequenzen ist es allerdings möglich, mit der sogenannten ionosphärenfreien Linearkombination einen erheblichen Teil dieser Verzögerung zu eliminieren. Andererseits ermöglicht die geometriefreie Linearkombination von Mehrfrequenzbeobachtungen die Erstellung von Ionosphärenmodellen und damit die Beschreibung von ionosphärischen Zustandsgrößen. Diese Modelle können anschließend verwendet werden um Laufzeitkorrekturen für Beobachtungen von Massenmarkt- Einfrequenz-Empfängern zu berechnen. Das Ziel dieser Arbeit war es, die bereits erwähnten Erdrotationsparameter (ERPs) als auch ionosphärische Informationen in Form von VTEC-(Vertical Total Electron Content)-Karten zu schätzen und zu analysieren. Hierfür wird insbesondere eine Kombination aus GPS- und Galileo-Beobachtungen prozessiert, um zu beurteilen, inwieweit diese Lösungen durch die Verwendung von Multi-GNSS-Kombinationen im Gegensatz zu einzig auf GPS-Daten basierenden Beobachtungen verbessert wurden. Besondere Aufmerksamkeit gilt dem europäischen Galileo-System. Seit dem Start seines ersten Testsatelliten im Dezember 2005 hat Galileo eine entscheidende Rolle als Ergänzung zu etablierten GNSS-Systemen wie dem US-amerikanischen GPS und dem russischen GLONASS gespielt. Es kann gezeigt werden, dass die Kombination von Galileo- mit GPS Beobachtungen eine deutlich verbesserte Genauigkeit bei der präzisen Parameterabschätzung liefert, sofern für Galileo hochpräzise Bahndaten basierend auf neuen Strahlungsdruckmodellen zur Verfügung stehen. Die Methodik dieser Forschung umfasste die Verarbeitung von Beobachtungsdaten in der Bernese GNSS Software Version 5.2 (BSW). Beobachtungen von einem weltweit verteilten Netzwerk von GNSS IGS-Stationen wurden verwendet, um ERP-Zeitreihen (Erdrotationsparameter) zu schätzen. Je nach Kombination der Beobachtungen (nur GPS oder kombiniertes GPS+Galileo) und dem verwendeten Strahlungsdruckmodell wurden sechs Lösungen über 1-Tages- und 3-Tages-Bögen berechnet. Zusätzlich wurde ein detailliertes regionales Ionosphärenmodell für die mittleren Breiten Europas mithilfe von Daten von GNSS IGS und EPOSA-Permanentstationen (Echtzeit Positionierung Austria) erstellt, wobei die modifizierte Single-Layer-Mapping-Funktion (MSLM) und die geometriefreie lineare Kombination verwendet wurden. Die Ergebnisse wurden anhand einer Gegenüberstellung mit etablierten Modellen validiert. Dabei konnten erhebliche Verbesserungen bei der Integration von Multi-GNSS-Daten hervorgehoben werden. Der Beitrag dieser Studie spiegelt sich in der Demonstration einer verbesserten Genauigkeit wider, die durch die Integration von Multi-GNSS erreicht werden kann, in diesem Fall bei ERP- und Ionosphärenmodellierung. Die Ergebnisse dieser Studie bestätigen die Bedeutung der Verwendung mehrerer GNSS-Systeme für präzise geodätische Anwendungen. Es wird daher empfohlen, auf kombinierte Beobachtungsdaten zurückzugreifen, um künftige Verbesserungen gewährleisten zu können. Die Genauigkeitssteigerung für ERPs liegt bei ungefähr 25%, während die VTEC Schätzungen im Sommer um etwa 60% und im Winter bis zu 80% im Vergleich zu externen Referenzmodellen verbessert werden konnten.
Enhancing an artificial neural network – extended Kalman filter learning approach by considering data- and model-related uncertainties for geodetic applications
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Based on a special machine learning approach, consisting of an artificial neural network (ANN) as approximation function and an extended Kalman filter (EKF) as optimisation method, a methodology for the identification of geodetic systems is derived in this thesis. This ANN-EKF learning approach is enhanced by the consideration of data-, model- or data- and model-related uncertainties. Depending on the geodetic application, one aspect of each of the three groups of uncertainties is considered. The systems to be identified are a robot arm, for which the position uncertainty is to be improved by calibration, and real estates whose value is to be determined. While the robot arm is a controllable, data-producible system with a realisable reference and low local heterogeneity; real estates are a system which is limited in inputs, in data samples, in the realisation of a reference and exhibits little empirical evidence and strong local heterogeneity. The differences in the geodetic systems result in different research objectives. The robot arm system provides a controlled environment (data can be generated; a reference can be realised) and knowledge about geometric/physical laws is available. Thus, it is possible to pursue two enhancements of the ANN-EKF learning approach for the robot arm application. These base on data- and model-related uncertainties and are mainly supported by the EKF. The inherent variance propagation in the EKF enables accounting for the random variability of the measurements. Realistic random variabilities of the robot arm positions measured by a reference are derived. Due to the existing system description in the EKF, it is also possible to integrate a geometric system into the ANN-EKF learning method. The aim is to create a methodological framework that allows the incompleteness of the model to be reduced. Real estate is a limited and complex system. The biggest limiting factor of real estate valuation based on the German purchase price collection is the small data sample. The data sample is enlarged by aggregating submarkets to achieve an advantageous ANN-EKF learning. Although this increases the sample size, it is also likely to increase the complexity of the system. The incomplete data causes a model-related uncertainty. Therefore, the interaction between data- and model-related uncertainty is analysed. The first finding deals with the effects of considering data-related uncertainties in the ANN-EKF learning. The best generalisation result (minimum test error) is achieved by considering realistic data-related uncertainties in the ANN-EKF learning of the robot arm position corrections. The learning procedure becomes more expressive due to a meaningful setting of the learning rate. In addition, insignificant ANN parameters are eliminated and smaller model structures can be achieved. The second finding concerns the development of a framework for the integration of a parametric model into ANN-EKF learning to enable a reduction in model-related uncertainty. The integrated ANN-EKF approach is built as a residual model. Testing the functionality based on simulated data shows a necessary introduction of an additional ANN iteration to achieve the adaptivity of machine learning (ML) approaches. The analysis of model complexity as a function of reduced data samples enables the derivation of minimum sample sizes for ANN-EKF learning and corresponds to the third finding. The methods of cross-validation (CV) and structural risk minimisation (SRM) in the down-sampling procedure are used and adapted for the purposes of the geodetic systems. While the SRM determines a critical number of required samples at 5000, the CV provides a stable region starting from 9000 samples for a spatially aggregated data set. The aggregation of submarkets is an appropriate approach for enlarging the sample size. The real estate valuation on basis of cross submarket ANN-EKF learning is comparable to local valuation methods. The first two findings relate to two current topics in scientific machine learning (sciML). These are the consideration of uncertainties in ML and physics-informed machine learning (PIML), which are of interest for many fields of application such as earth observation. The developed toolbox of the ANN-EKF learning method enables the consideration of these two aspects. Finding three complements this toolbox to test these approaches of included prior information on smaller model complexities or smaller sample sizes.
Based on a special machine learning approach, consisting of an artificial neural network (ANN) as approximation function and an extended Kalman filter (EKF) as optimisation method, a methodology for the identification of geodetic systems is derived in this thesis. This ANN-EKF learning approach is enhanced by the consideration of data-, model- or data- and model-related uncertainties. Depending on the geodetic application, one aspect of each of the three groups of uncertainties is considered. The systems to be identified are a robot arm, for which the position uncertainty is to be improved by calibration, and real estates whose value is to be determined. While the robot arm is a controllable, data-producible system with a realisable reference and low local heterogeneity; real estates are a system which is limited in inputs, in data samples, in the realisation of a reference and exhibits little empirical evidence and strong local heterogeneity. The differences in the geodetic systems result in different research objectives. The robot arm system provides a controlled environment (data can be generated; a reference can be realised) and knowledge about geometric/physical laws is available. Thus, it is possible to pursue two enhancements of the ANN-EKF learning approach for the robot arm application. These base on data- and model-related uncertainties and are mainly supported by the EKF. The inherent variance propagation in the EKF enables accounting for the random variability of the measurements. Realistic random variabilities of the robot arm positions measured by a reference are derived. Due to the existing system description in the EKF, it is also possible to integrate a geometric system into the ANN-EKF learning method. The aim is to create a methodological framework that allows the incompleteness of the model to be reduced. Real estate is a limited and complex system. The biggest limiting factor of real estate valuation based on the German purchase price collection is the small data sample. The data sample is enlarged by aggregating submarkets to achieve an advantageous ANN-EKF learning. Although this increases the sample size, it is also likely to increase the complexity of the system. The incomplete data causes a model-related uncertainty. Therefore, the interaction between data- and model-related uncertainty is analysed. The first finding deals with the effects of considering data-related uncertainties in the ANN-EKF learning. The best generalisation result (minimum test error) is achieved by considering realistic data-related uncertainties in the ANN-EKF learning of the robot arm position corrections. The learning procedure becomes more expressive due to a meaningful setting of the learning rate. In addition, insignificant ANN parameters are eliminated and smaller model structures can be achieved. The second finding concerns the development of a framework for the integration of a parametric model into ANN-EKF learning to enable a reduction in model-related uncertainty. The integrated ANN-EKF approach is built as a residual model. Testing the functionality based on simulated data shows a necessary introduction of an additional ANN iteration to achieve the adaptivity of machine learning (ML) approaches. The analysis of model complexity as a function of reduced data samples enables the derivation of minimum sample sizes for ANN-EKF learning and corresponds to the third finding. The methods of cross-validation (CV) and structural risk minimisation (SRM) in the down-sampling procedure are used and adapted for the purposes of the geodetic systems. While the SRM determines a critical number of required samples at 5000, the CV provides a stable region starting from 9000 samples for a spatially aggregated data set. The aggregation of submarkets is an appropriate approach for enlarging the sample size. The real estate valuation on basis of cross submarket ANN-EKF learning is comparable to local valuation methods. The first two findings relate to two current topics in scientific machine learning (sciML). These are the consideration of uncertainties in ML and physics-informed machine learning (PIML), which are of interest for many fields of application such as earth observation. The developed toolbox of the ANN-EKF learning method enables the consideration of these two aspects. Finding three complements this toolbox to test these approaches of included prior information on smaller model complexities or smaller sample sizes.
Comparison of Tropospheric Delay Modeling Approaches in VLBI Analysis
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm, Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna
Kurzfassung/Abstract
In VLBI analysis, the tropospheric signal delay is modeled using so-called mapping functions and gradients. They relate a delay in zenith direction to the delay at the elevation and azimuth at which an observation takes place. The objective of this thesis is to investigate how different settings for modeling of the tropospheric delays and for the estimation of tropospheric parameters in the Vienna VLBI and Satellite Software (VieVS) affect the results of VLBI analysis. To do this, 3296 legacy S/X sessions from 2000 until 2020 and 36 VGOS sessions from 2017, 2019 and 2020 are analyzed. A main focus of investigation are baseline length repeatabilities (BLRs), which serve as a good measure of the accuracy achievable with a specific setting. The first part of the thesis deals with testing different choices of mapping functions for the hydrostatic and wet delays. It is found that the differences between any combination of the Vienna Mapping Functions (VMF1 and VMF3) are negligible when comparing baseline length repeatabilities. However, it is further revealed that using VMF3 for the hydrostatic and VMF1 for the wet delay component will introduce a bias to the estimated stations heights of about one to two millimeters height decrease on average, compared to either using VMF1 or VMF3 consistently for both delay components. This result is important because this inconsistent approach was used as default by the Vienna Analysis Center at the start of this investigation. A section of the thesis is then dedicated to the differences between VMF1 and VMF3 which give rise to this bias in a mixed application. In the second part, the influence of the estimation intervals for zenith wet delays and gradients on baseline length repeatabilities are investigated. A small influence is observed. Here, shorter estimation intervals improved average baseline length repeatabilities for S/X sessions, while longer intervals did so for VGOS sessions.
In VLBI analysis, the tropospheric signal delay is modeled using so-called mapping functions and gradients. They relate a delay in zenith direction to the delay at the elevation and azimuth at which an observation takes place. The objective of this thesis is to investigate how different settings for modeling of the tropospheric delays and for the estimation of tropospheric parameters in the Vienna VLBI and Satellite Software (VieVS) affect the results of VLBI analysis. To do this, 3296 legacy S/X sessions from 2000 until 2020 and 36 VGOS sessions from 2017, 2019 and 2020 are analyzed. A main focus of investigation are baseline length repeatabilities (BLRs), which serve as a good measure of the accuracy achievable with a specific setting. The first part of the thesis deals with testing different choices of mapping functions for the hydrostatic and wet delays. It is found that the differences between any combination of the Vienna Mapping Functions (VMF1 and VMF3) are negligible when comparing baseline length repeatabilities. However, it is further revealed that using VMF3 for the hydrostatic and VMF1 for the wet delay component will introduce a bias to the estimated stations heights of about one to two millimeters height decrease on average, compared to either using VMF1 or VMF3 consistently for both delay components. This result is important because this inconsistent approach was used as default by the Vienna Analysis Center at the start of this investigation. A section of the thesis is then dedicated to the differences between VMF1 and VMF3 which give rise to this bias in a mixed application. In the second part, the influence of the estimation intervals for zenith wet delays and gradients on baseline length repeatabilities are investigated. A small influence is observed. Here, shorter estimation intervals improved average baseline length repeatabilities for S/X sessions, while longer intervals did so for VGOS sessions.
Bestimmung und Verbesserung von Höhenmodellen aus Crowd-Sensed GNSS-Trajektorien
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka-Schremmer
Kurzfassung/Abstract
Der Anstieg des Geländes spielt bei Langstreckenrennen von professionellen Radsportlern eine zentrale Rolle. Aber auch bei der Tourenplanung im Freizeit- und Amateursport ist dieser Aspekt relevant, besonders für Mountainbiker. Daher greifen gängige Smartphone-Anwendungen für Radfahrer auf Höhenmodelle zurück, um die zu erwartende Steigung bereits bei der Routenplanung abzuschätzen zu können. Viele der Anwendungen streben eine weltweite Abdeckung an. Daher werden dazu meist globale Modelle wie SRTM (Shuttle Radiometry Topography Mission) verwendet. Im Vergleich zu nationalen digitalen Höhenmodellen, die mit Hilfe von Airborne Laser Scanning (ALS) erstellt wurden, haben solche globalen Modelle den Nachteil einer groben Auflösung und einer begrenzten Genauigkeit, was eine korrekte Schätzung der zu erwarteten Höhenmeter erschwert. Heutzutage zeichnen viele Radfahrer ihre Aktivitäten mit Hilfe von globalen Satellitennavigationssystemen (GNSS) mit Smartphones oder Fitnesscomputern auf, welche die aufgezeichneten Daten zum Zweck der Trainingsdokumentation speichern. In dieser Arbeit wird die Nutzung solcher mobiler GNSS-Daten für die Modellierung digitaler Straßenhöhen vorgeschlagen, um die Planung von Radtouren zu verbessern. Da die Genauigkeit mobiler GNSS in Bezug auf Lage und Höhe variiert, ist es wichtig, diese Daten kritisch zu prüfen, um statistische Sicherheit und Integrität zu gewährleisten. Als Eingabedaten wurden über 23000 von Nutzern aufgezeichnete Trajektorien verwendet, die aus über 40 Millionen GNSS Punktmessungen bestehen, die im Zeitraum von drei Jahren zwischen 2019 und 2021 aufgezeichnet wurden. Diese Arbeit stellt verschiedene Methoden vor, um die Homogenität und Qualität dieser Daten zu verbessern, wobei die Beseitigung grober Fehler und die Korrektur systematischer Fehler im Mittelpunkt steht. Die entwickelten Methoden aggregieren die Daten zu einem rasterbasierten Straßenhöhenmodell, welches in sich eine globale Anwendbarkeit und eine statistische Robustheit gegenüber Ausreißern vereint. Auch wenn sich das berechnete Modell in seiner Ausdehnung auf das Gebiet der Stadt Wien beschränkt, wurden die Methoden im Hinblick auf eine globale Anwendbarkeit entwickelt. Da sich die von Nutzern generierten Daten zu einem Großteil auf Straßen und Radwegen befinden, sie aber zusätzlich eine inhomogene Verteilung über das Gebiet der Studie hinweg aufweisen, hängt die statistische Sicherheit des resultierenden Modells stark von der räumlichen Verteilung und Qualität der Daten ab. Ein Vergleich mit Referenzdaten in Bezug auf Lage und Höhe hat gezeigt, dass unser Modell die Straßen mit einer signifikant besseren Genauigkeit als SRTM repräsentieren kann. Unser Modell zeigt gegenüber SRTM Verbesserungen in der mittleren Höhenabweichung um 22% (von 1,09m auf -0,15m), bezugnehmend auf ein ALS Höhenmodell. Die Standardabweichung verbessert sich diesbezüglich sogar um 36% (von 5,84m auf 2,11m). Da die aufgezeichneten Daten von Radfahrern stammen, konzentriert sich das entwickelte Modell hauptsächlich auf Straßen und Radwege und kann daher etwa 25-30% aller Straßen im untersuchten Gebiet abdecken. Obwohl unser Modell in erster Linie für die Verbesserung der Routenplanung in einer mobilen Fahrradanwendung entwickelt wurde, könnte es auch in ortsbezogenen Diensten oder Stadtplanungsanwendungen großen Nutzen bringen.
Der Anstieg des Geländes spielt bei Langstreckenrennen von professionellen Radsportlern eine zentrale Rolle. Aber auch bei der Tourenplanung im Freizeit- und Amateursport ist dieser Aspekt relevant, besonders für Mountainbiker. Daher greifen gängige Smartphone-Anwendungen für Radfahrer auf Höhenmodelle zurück, um die zu erwartende Steigung bereits bei der Routenplanung abzuschätzen zu können. Viele der Anwendungen streben eine weltweite Abdeckung an. Daher werden dazu meist globale Modelle wie SRTM (Shuttle Radiometry Topography Mission) verwendet. Im Vergleich zu nationalen digitalen Höhenmodellen, die mit Hilfe von Airborne Laser Scanning (ALS) erstellt wurden, haben solche globalen Modelle den Nachteil einer groben Auflösung und einer begrenzten Genauigkeit, was eine korrekte Schätzung der zu erwarteten Höhenmeter erschwert. Heutzutage zeichnen viele Radfahrer ihre Aktivitäten mit Hilfe von globalen Satellitennavigationssystemen (GNSS) mit Smartphones oder Fitnesscomputern auf, welche die aufgezeichneten Daten zum Zweck der Trainingsdokumentation speichern. In dieser Arbeit wird die Nutzung solcher mobiler GNSS-Daten für die Modellierung digitaler Straßenhöhen vorgeschlagen, um die Planung von Radtouren zu verbessern. Da die Genauigkeit mobiler GNSS in Bezug auf Lage und Höhe variiert, ist es wichtig, diese Daten kritisch zu prüfen, um statistische Sicherheit und Integrität zu gewährleisten. Als Eingabedaten wurden über 23000 von Nutzern aufgezeichnete Trajektorien verwendet, die aus über 40 Millionen GNSS Punktmessungen bestehen, die im Zeitraum von drei Jahren zwischen 2019 und 2021 aufgezeichnet wurden. Diese Arbeit stellt verschiedene Methoden vor, um die Homogenität und Qualität dieser Daten zu verbessern, wobei die Beseitigung grober Fehler und die Korrektur systematischer Fehler im Mittelpunkt steht. Die entwickelten Methoden aggregieren die Daten zu einem rasterbasierten Straßenhöhenmodell, welches in sich eine globale Anwendbarkeit und eine statistische Robustheit gegenüber Ausreißern vereint. Auch wenn sich das berechnete Modell in seiner Ausdehnung auf das Gebiet der Stadt Wien beschränkt, wurden die Methoden im Hinblick auf eine globale Anwendbarkeit entwickelt. Da sich die von Nutzern generierten Daten zu einem Großteil auf Straßen und Radwegen befinden, sie aber zusätzlich eine inhomogene Verteilung über das Gebiet der Studie hinweg aufweisen, hängt die statistische Sicherheit des resultierenden Modells stark von der räumlichen Verteilung und Qualität der Daten ab. Ein Vergleich mit Referenzdaten in Bezug auf Lage und Höhe hat gezeigt, dass unser Modell die Straßen mit einer signifikant besseren Genauigkeit als SRTM repräsentieren kann. Unser Modell zeigt gegenüber SRTM Verbesserungen in der mittleren Höhenabweichung um 22% (von 1,09m auf -0,15m), bezugnehmend auf ein ALS Höhenmodell. Die Standardabweichung verbessert sich diesbezüglich sogar um 36% (von 5,84m auf 2,11m). Da die aufgezeichneten Daten von Radfahrern stammen, konzentriert sich das entwickelte Modell hauptsächlich auf Straßen und Radwege und kann daher etwa 25-30% aller Straßen im untersuchten Gebiet abdecken. Obwohl unser Modell in erster Linie für die Verbesserung der Routenplanung in einer mobilen Fahrradanwendung entwickelt wurde, könnte es auch in ortsbezogenen Diensten oder Stadtplanungsanwendungen großen Nutzen bringen.
Vergleich von 3D Rekonstruktionen mittels Neural Radiance Fields und Dense Image Matching
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Gottfried Mandlburger
Kurzfassung/Abstract
Mit den Fortschritten in der Photogrammetrie und Computer Vision haben sich Neural Radiance Fields (NeRFs) als innovative Methode zur 3D-Rekonstruktion etabliert. Diese Arbeit untersucht die Leistungsfähigkeit von NeRFs im Vergleich zu traditionellen Dense Image Matching (DIM)-Verfahren anhand von Daten, die mit einer DJI M350 Drohne und einer Zenmuse P1 Kamera aufgenommen wurden. Als Referenz dient eine terrestrische Laserscanner-Punktwolke. Zwei verschiedene Aufnahmeobjekte – eine Baumgruppe und eine Kapelle – wurden unter variierenden Flugrouten (linear und orbital) analysiert, um den Einfluss der Aufnahmegeometrie auf die Rekonstruktionsqualität zu bewerten. Die Analyse umfasst quantitative und qualitative Vergleiche der Punktwolken sowie eine Diskussion über die Praxistauglichkeit von NeRFs im UAV-Mapping. Abschließend werden die Herausforderungen und das Potenzial dieser neuen Technologie für zukünftige Anwendungen in der Geodäsie und Geoinformation skizziert.
Mit den Fortschritten in der Photogrammetrie und Computer Vision haben sich Neural Radiance Fields (NeRFs) als innovative Methode zur 3D-Rekonstruktion etabliert. Diese Arbeit untersucht die Leistungsfähigkeit von NeRFs im Vergleich zu traditionellen Dense Image Matching (DIM)-Verfahren anhand von Daten, die mit einer DJI M350 Drohne und einer Zenmuse P1 Kamera aufgenommen wurden. Als Referenz dient eine terrestrische Laserscanner-Punktwolke. Zwei verschiedene Aufnahmeobjekte – eine Baumgruppe und eine Kapelle – wurden unter variierenden Flugrouten (linear und orbital) analysiert, um den Einfluss der Aufnahmegeometrie auf die Rekonstruktionsqualität zu bewerten. Die Analyse umfasst quantitative und qualitative Vergleiche der Punktwolken sowie eine Diskussion über die Praxistauglichkeit von NeRFs im UAV-Mapping. Abschließend werden die Herausforderungen und das Potenzial dieser neuen Technologie für zukünftige Anwendungen in der Geodäsie und Geoinformation skizziert.
Comparing snow melt methods from multi-temporal Sentinel-1 SAR backscatter data
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Claudio Navacchi
Kurzfassung/Abstract
Niederschlag zählt zu den wichtigsten Klimavariablen und ist von der GCMO mit Unterstützung der WMO definiert worden. Dies betont die Bedeutung von Forschungsfragen im Zusammenhang mit Schnee, insbesondere in Zeiten des Klimawandels. Weltweit sind zahlreiche Menschen auf Schmelzwasser aus höher gelegenen hydrologischen Einzugsgebieten angewiesen. Trotzdem gibt es bisher nur wenige Ansätze zur Analyse der Schneeschmelze mit Fernerkundungsdaten. Die bestehenden Ansätze konzentrieren sich hauptsächlich auf punktuelle in-situ Messungen als Groundtruth. Ziel dieser Arbeit ist es daher, Sentinel-1 Rückstreudaten mit Oberflächenpegeldaten für vier aufeinanderfolgende hydrologische Jahre zu vergleichen. Dazu wurden zwei verschiedene Ansätze gewählt, um den Tag der Schmelzwasserfreisetzung für das jeweilige hydrologische Einzugsgebiet in der Schneedecke zu ermitteln. Diese Ansätze unterscheiden sich hauptsächlich durch die Schwellwertklassifikation von Nassschnee und in der Analyse der mathematischen Ableitung der jeweiligen Zeitreihe. Es wurden 35 verschiedene Einzugsgebiete analysiert und festgestellt, dass die Definition des absoluten Minimums der Zeitserie besser geeignet ist, um den Tag der Schmelzwasserfreisetzung zu bestimmen. Zusätzlich wurde versucht, einen Höhenschwellwert einzuführen, um den Unterschied des Tages der Schmelzwasserfreisetzung in verschiedenen Höhen zu untersuchen. Dabei zeigt sich in den Fernerkundungsdaten deutlich, dass höher gelegene Einzugsgebiete weitaus später Nassschnee erkennen als niedriger gelegene Einzugsgebiete.
Niederschlag zählt zu den wichtigsten Klimavariablen und ist von der GCMO mit Unterstützung der WMO definiert worden. Dies betont die Bedeutung von Forschungsfragen im Zusammenhang mit Schnee, insbesondere in Zeiten des Klimawandels. Weltweit sind zahlreiche Menschen auf Schmelzwasser aus höher gelegenen hydrologischen Einzugsgebieten angewiesen. Trotzdem gibt es bisher nur wenige Ansätze zur Analyse der Schneeschmelze mit Fernerkundungsdaten. Die bestehenden Ansätze konzentrieren sich hauptsächlich auf punktuelle in-situ Messungen als Groundtruth. Ziel dieser Arbeit ist es daher, Sentinel-1 Rückstreudaten mit Oberflächenpegeldaten für vier aufeinanderfolgende hydrologische Jahre zu vergleichen. Dazu wurden zwei verschiedene Ansätze gewählt, um den Tag der Schmelzwasserfreisetzung für das jeweilige hydrologische Einzugsgebiet in der Schneedecke zu ermitteln. Diese Ansätze unterscheiden sich hauptsächlich durch die Schwellwertklassifikation von Nassschnee und in der Analyse der mathematischen Ableitung der jeweiligen Zeitreihe. Es wurden 35 verschiedene Einzugsgebiete analysiert und festgestellt, dass die Definition des absoluten Minimums der Zeitserie besser geeignet ist, um den Tag der Schmelzwasserfreisetzung zu bestimmen. Zusätzlich wurde versucht, einen Höhenschwellwert einzuführen, um den Unterschied des Tages der Schmelzwasserfreisetzung in verschiedenen Höhen zu untersuchen. Dabei zeigt sich in den Fernerkundungsdaten deutlich, dass höher gelegene Einzugsgebiete weitaus später Nassschnee erkennen als niedriger gelegene Einzugsgebiete.
Erstellung einer Visualisierung und Prozessierung Software Struktur für analoge Mars Simulationen
Diplomarbeit: Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2024
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Masterarbeit analysiert den Ansatz der Erstellung eines WebGIS und einer Prozessierung Software für die Amadee 20 Mars Simulation des ÖWFs in Israel, unter Verwendung von Open Source Technologien. Als Teil des Team Exoscot müssen verschiedene Aufgaben der Geoinformatik auf Basis von Raster und Vektordaten erfüllt werden. Hierfür wird der Ablauf der Amadee 20 Mission und die Einbindung der erstellen Software, unter Beachtung aller Aspekte und Möglichkeiten, genauer beschrieben. Eine passende Softwarearchitektur für die Applikationen und dem Datenprovider wird erstellt um eine nahtlose Interaktion von Mission Support zu gewährleisten. Zwei Hauptaufgaben werden hierbei genauer beleuchtet: Während der Zeit der Simulation visualisiert und analysiert Mission Support verschiedene räumliche Datensätze, auf deren Basis eine Vielzahl von verschiedenen Aufgaben geplant wird. Um die Produktivität von Mission Support in Innsbruck zu maximieren, muss die Applikation für nicht GIS Experten designed werden. Um eine nahtlose Interaktion und ein sauberes Design der Software zu gewährleisten werden verschiedene Probleme von GIS Interfaces betrachtet und Ansätze für das Design der erstellten Software, welchen den Gegebenheiten der Mission entsprechen, werden im Detail diskutiert. Räumliche Daten, welche während der Mission aufgenommen oder direkt in der Applikation erstellt werden, müssen in Visualisierung und Analyse nahtlos integriert werden. Kartierungs- und Visualisierungsdienste werden in die Software miteingebunden um eine Performance orientierte Visualisierung von großen Rasterdatensätzen und eine sofortige Manipulierung von Vektordaten gewährleisten zu können. Die Interaktion mit verschiedenen Datentypen geschieht über den GeoServer des Österreichischen Weltraum Forums. Hierfür werden verschiedene Open Source Technologien im Feld der räumlichen Visualisierung und der Analyse im Detail beschrieben. Im praktischen Teil der Arbeit wir die Integration dieser Open Source Technologien erläutert. Eine separate Applikation für eine detaillierte Analyse von digitalen Geländemodellen wird erstellt. Die zur Verfügung gestellten Rasterdatensätze werden mithilfe der erstellten Software analysiert um ein genaueres Bild über das Missionsgebiet zu erhalten. Die Einbindung verschiedener Werkzeuge für die Analyse der Rasterdaten wird beschrieben. Um Mission Control die Möglichkeiten der Routenplanung für den Rover von Team Exoscot zu geben, wird ein Routing Algorithmus auf Basis eines digitalen Geländemodells erstellt.
Diese Masterarbeit analysiert den Ansatz der Erstellung eines WebGIS und einer Prozessierung Software für die Amadee 20 Mars Simulation des ÖWFs in Israel, unter Verwendung von Open Source Technologien. Als Teil des Team Exoscot müssen verschiedene Aufgaben der Geoinformatik auf Basis von Raster und Vektordaten erfüllt werden. Hierfür wird der Ablauf der Amadee 20 Mission und die Einbindung der erstellen Software, unter Beachtung aller Aspekte und Möglichkeiten, genauer beschrieben. Eine passende Softwarearchitektur für die Applikationen und dem Datenprovider wird erstellt um eine nahtlose Interaktion von Mission Support zu gewährleisten. Zwei Hauptaufgaben werden hierbei genauer beleuchtet: Während der Zeit der Simulation visualisiert und analysiert Mission Support verschiedene räumliche Datensätze, auf deren Basis eine Vielzahl von verschiedenen Aufgaben geplant wird. Um die Produktivität von Mission Support in Innsbruck zu maximieren, muss die Applikation für nicht GIS Experten designed werden. Um eine nahtlose Interaktion und ein sauberes Design der Software zu gewährleisten werden verschiedene Probleme von GIS Interfaces betrachtet und Ansätze für das Design der erstellten Software, welchen den Gegebenheiten der Mission entsprechen, werden im Detail diskutiert. Räumliche Daten, welche während der Mission aufgenommen oder direkt in der Applikation erstellt werden, müssen in Visualisierung und Analyse nahtlos integriert werden. Kartierungs- und Visualisierungsdienste werden in die Software miteingebunden um eine Performance orientierte Visualisierung von großen Rasterdatensätzen und eine sofortige Manipulierung von Vektordaten gewährleisten zu können. Die Interaktion mit verschiedenen Datentypen geschieht über den GeoServer des Österreichischen Weltraum Forums. Hierfür werden verschiedene Open Source Technologien im Feld der räumlichen Visualisierung und der Analyse im Detail beschrieben. Im praktischen Teil der Arbeit wir die Integration dieser Open Source Technologien erläutert. Eine separate Applikation für eine detaillierte Analyse von digitalen Geländemodellen wird erstellt. Die zur Verfügung gestellten Rasterdatensätze werden mithilfe der erstellten Software analysiert um ein genaueres Bild über das Missionsgebiet zu erhalten. Die Einbindung verschiedener Werkzeuge für die Analyse der Rasterdaten wird beschrieben. Um Mission Control die Möglichkeiten der Routenplanung für den Rover von Team Exoscot zu geben, wird ein Routing Algorithmus auf Basis eines digitalen Geländemodells erstellt.
Visualisierung von Deformationsmessungen: Evaluierung von kommerzieller Software und normenkonforme Eigenentwicklung
Diplomarbeit: Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Diese Masterarbeit untersucht drei verschiedene kommerzielle Softwarepakete: rmGEO, Canary Sytems und GeoMoS Now!. Hierbei spielt nicht nur der Vergleich eine Rolle, sondern der Fokus liegt auch auf der Überprüfung der Einhaltung der Normen und Prinzipien des Information Designs. Weiteres geht die Arbeit über die reine Analyse hinaus, indem eigene Entwicklungen präsentiert werden. Dazu werden zwei Datensätze verwendet: eine Deformationsmessung einer simulierten Mauer am Dach des Geodäsie Gebäudes, Steyrergasse 30 in Graz, und der Bruch der linken Wehrwange des KW Palten in Rottenmann aus dem Jahr 2020. Die Motivation der Arbeit liegt in der kritischen Überprüfung und Verbesserung von bereits bestehenden Lösungen in der Software. Eine klar verständliche Darstellung von Deformationsmessungen ist wichtig, um frühzeitig Risiken zu erkennen. Mithilfe der Normen und Prinzipien des Information Designs gibt es die Möglichkeit, bestehende Lösungen zu optimieren beziehungsweise neue Entwicklungen zu generieren. Die Arbeit gliedert sich in den Stand der Technik, einer Analyse der Visualisierungsmöglichkeiten kommerzieller Softwarelösungen, eigene Entwicklungen sowie eine abschließende Schlussfolgerung. Beim Vergleich der Softwarepakete wurden verschiedene Stärken und Schwächen offenbart. Die eigenen Entwicklungen, die mit Python umgesetzt wurden, ermöglichen eine grafische Darstellung von Monitoringdaten mit dem Fokus auf die Normen und dem Information Design. Insgesamt bietet das entwickelte Programm eine aussagekräftige Visualisierung von Deformationsmessungen. Die Wahl, welches kommerzielle Softwarepaket am besten geeignet ist, hängt von den individuellen Anforderungen ab.
Diese Masterarbeit untersucht drei verschiedene kommerzielle Softwarepakete: rmGEO, Canary Sytems und GeoMoS Now!. Hierbei spielt nicht nur der Vergleich eine Rolle, sondern der Fokus liegt auch auf der Überprüfung der Einhaltung der Normen und Prinzipien des Information Designs. Weiteres geht die Arbeit über die reine Analyse hinaus, indem eigene Entwicklungen präsentiert werden. Dazu werden zwei Datensätze verwendet: eine Deformationsmessung einer simulierten Mauer am Dach des Geodäsie Gebäudes, Steyrergasse 30 in Graz, und der Bruch der linken Wehrwange des KW Palten in Rottenmann aus dem Jahr 2020. Die Motivation der Arbeit liegt in der kritischen Überprüfung und Verbesserung von bereits bestehenden Lösungen in der Software. Eine klar verständliche Darstellung von Deformationsmessungen ist wichtig, um frühzeitig Risiken zu erkennen. Mithilfe der Normen und Prinzipien des Information Designs gibt es die Möglichkeit, bestehende Lösungen zu optimieren beziehungsweise neue Entwicklungen zu generieren. Die Arbeit gliedert sich in den Stand der Technik, einer Analyse der Visualisierungsmöglichkeiten kommerzieller Softwarelösungen, eigene Entwicklungen sowie eine abschließende Schlussfolgerung. Beim Vergleich der Softwarepakete wurden verschiedene Stärken und Schwächen offenbart. Die eigenen Entwicklungen, die mit Python umgesetzt wurden, ermöglichen eine grafische Darstellung von Monitoringdaten mit dem Fokus auf die Normen und dem Information Design. Insgesamt bietet das entwickelte Programm eine aussagekräftige Visualisierung von Deformationsmessungen. Die Wahl, welches kommerzielle Softwarepaket am besten geeignet ist, hängt von den individuellen Anforderungen ab.
Informatikaspekt der Geoinformationswissenschaft
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2024
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Geoinformationswissenschaft (GIScience) ist ein sich schnell entwickelnder Bereich, der sich stark auf Informatikwerkzeuge und -techniken stützt, um Geodaten zu sammeln, zu verarbeiten und zu analysieren. Durch eine gründliche Durchsicht der Literatur zu diesem Thema soll in dieser Studie untersucht werden, wie die Informatik die GIS-Wissenschaft beeinflusst hat. In der Studie werden die wichtigsten Informatikwerkzeuge und -methoden, die in der GIS-Wissenschaft verwendet werden, identifiziert und ihre Auswirkungen auf die GIS-Forschung und -Anwendungen untersucht. Darüber hinaus wird die Studie die Zukunft der Informatik in diesem Bereich untersuchen und ihr Potenzial für die Bewältigung wichtiger Herausforderungen der GIS-Wissenschaft bewerten. Die Ergebnisse dieser Studie werden zum wachsenden Wissensbestand über die Rolle der Informatik in den GIS-Wissenschaften beitragen und Einblicke in die Art und Weise geben, wie die Informatik genutzt werden kann, um unser Verständnis komplexer georäumlicher Phänomene zu verbessern.
Die Geoinformationswissenschaft (GIScience) ist ein sich schnell entwickelnder Bereich, der sich stark auf Informatikwerkzeuge und -techniken stützt, um Geodaten zu sammeln, zu verarbeiten und zu analysieren. Durch eine gründliche Durchsicht der Literatur zu diesem Thema soll in dieser Studie untersucht werden, wie die Informatik die GIS-Wissenschaft beeinflusst hat. In der Studie werden die wichtigsten Informatikwerkzeuge und -methoden, die in der GIS-Wissenschaft verwendet werden, identifiziert und ihre Auswirkungen auf die GIS-Forschung und -Anwendungen untersucht. Darüber hinaus wird die Studie die Zukunft der Informatik in diesem Bereich untersuchen und ihr Potenzial für die Bewältigung wichtiger Herausforderungen der GIS-Wissenschaft bewerten. Die Ergebnisse dieser Studie werden zum wachsenden Wissensbestand über die Rolle der Informatik in den GIS-Wissenschaften beitragen und Einblicke in die Art und Weise geben, wie die Informatik genutzt werden kann, um unser Verständnis komplexer georäumlicher Phänomene zu verbessern.
Vergleich verschiedener Fernerkundungsmethoden zur Quantifizierung mikroskaliger Karstverwitterungsformen auf Basis hochauflösender 3D-Modelle
Institut für Geographie und Raumforschung, Universität Graz, 2024
Betreuer: MMag. Dr. Andreas Kellerer-Pirklbauer-Eulenstein
Kurzfassung/Abstract
Diese Arbeit untersucht die Eignung verschiedener Fernerkundungsmethoden zur Erfassung mikroskaliger Karstverwitterungsformen auf Basis hochauflösender 3D-Modelle. Der Fokus liegt dabei auf der Formtreue und Geometrie der einzelnen Karren, die anhand von Querschnittprofilen überprüft wurden. Die untersuchten Methoden umfassen Terrestrial Laserscanning (TLS), Airborne Laserscanning (ALS), Smartphone Laserscanning (SLS) sowie Structure-from-Motion Ansätze, basierend auf optischen Daten, aufgenommen von einem Unmanned Aerial Vehicle (SfM UAV) und einem Smartphone (SfM Smartphone). Diese Methoden wurden unter verschiedenen Bedingungen getestet, insbesondere in Bezug auf den Neigungswinkel der Oberfläche zum Sensor (25°, 40°, 55° und 70°). Die Studie ist in das Forschungsprojekt „The Moving Mountains“ eingebettet und konzentrierte sich in einem ersten Schritt auf die Karstverwitterungsformen in den Gleitflächen des prähistorischen Bergsturzes von Wildalpen. Für den Vergleich der Fernerkundungsmethoden wurde ein Referenzmodell erstellt, das ein Abbild der Karstformen darstellt und als kontrollierte Basis diente. Zur Beurteilung der Methoden stützt sich diese Arbeit auf drei verschiedene quantitative Indikatoren: den RMSE (Roote Mean Square Error), die Flächendifferenz in Prozent zur Referenzfläche und eine Voll- und Hohlformerkennung. Im Rahmen dieser Arbeit erzielte die SfM Smartphone-Methode bei einem Neigungswinkel von 25° die geringste Flächenabweichung (17,02 %) vom Referenzmodell. Danach folgten TLS (25,97 %), SfM UAV (27,18 %), SLS (33,14 %) und ALS (-40,51 %). Bei der Voll- und Hohlformerkennung zeigten TLS, SLS, SfM UAV und SfM Smartphone ähnliche Ergebnisse. Die Ergebnisse aus ALS zeigten praktisch keine Geometrien und stellten lediglich zufällige Linien dar. Der teilweise geringe RMS-Error resultierte aus der Anpassung der Oberfläche und nicht aus einer präzisen Erfassung. Bei der Prozessierung der Daten wurde auf einen möglichst einheitlichen Workflow geachtet, um die Vergleichbarkeit zwischen den Methoden zu gewährleisten. Für die Analyse der digitalen Höhenmodelle wurde QGIS mit dem Profile-Tool verwendet. Hierfür wurden drei Querschnittprofile (A, B und C) verwendet, die jeweils am oberen und unteren Rand sowie im mittleren Bereich der digitalen Höhenmodelle liegen. Die Wahl der optimalen Fernerkundungsmethode für die Erstellung von 3D-Modellen von Karstformen hängt von den spezifischen Anforderungen des jeweiligen Untersuchungsgegenstandes ab. Während die SfM-Methoden insgesamt die vielversprechendsten Ergebnisse lieferten, hatten TLS und SLS ihre spezifischen Stärken bei bestimmten Oberflächenstrukturen und Anwendungsfällen (dreieckige Geometrien und flache Hänge). Die gute Leistung der SLS-Methode mit mobilen Geräten überraschte, wohingegen die ALS-Methode nicht überzeugen konnte.
Diese Arbeit untersucht die Eignung verschiedener Fernerkundungsmethoden zur Erfassung mikroskaliger Karstverwitterungsformen auf Basis hochauflösender 3D-Modelle. Der Fokus liegt dabei auf der Formtreue und Geometrie der einzelnen Karren, die anhand von Querschnittprofilen überprüft wurden. Die untersuchten Methoden umfassen Terrestrial Laserscanning (TLS), Airborne Laserscanning (ALS), Smartphone Laserscanning (SLS) sowie Structure-from-Motion Ansätze, basierend auf optischen Daten, aufgenommen von einem Unmanned Aerial Vehicle (SfM UAV) und einem Smartphone (SfM Smartphone). Diese Methoden wurden unter verschiedenen Bedingungen getestet, insbesondere in Bezug auf den Neigungswinkel der Oberfläche zum Sensor (25°, 40°, 55° und 70°). Die Studie ist in das Forschungsprojekt „The Moving Mountains“ eingebettet und konzentrierte sich in einem ersten Schritt auf die Karstverwitterungsformen in den Gleitflächen des prähistorischen Bergsturzes von Wildalpen. Für den Vergleich der Fernerkundungsmethoden wurde ein Referenzmodell erstellt, das ein Abbild der Karstformen darstellt und als kontrollierte Basis diente. Zur Beurteilung der Methoden stützt sich diese Arbeit auf drei verschiedene quantitative Indikatoren: den RMSE (Roote Mean Square Error), die Flächendifferenz in Prozent zur Referenzfläche und eine Voll- und Hohlformerkennung. Im Rahmen dieser Arbeit erzielte die SfM Smartphone-Methode bei einem Neigungswinkel von 25° die geringste Flächenabweichung (17,02 %) vom Referenzmodell. Danach folgten TLS (25,97 %), SfM UAV (27,18 %), SLS (33,14 %) und ALS (-40,51 %). Bei der Voll- und Hohlformerkennung zeigten TLS, SLS, SfM UAV und SfM Smartphone ähnliche Ergebnisse. Die Ergebnisse aus ALS zeigten praktisch keine Geometrien und stellten lediglich zufällige Linien dar. Der teilweise geringe RMS-Error resultierte aus der Anpassung der Oberfläche und nicht aus einer präzisen Erfassung. Bei der Prozessierung der Daten wurde auf einen möglichst einheitlichen Workflow geachtet, um die Vergleichbarkeit zwischen den Methoden zu gewährleisten. Für die Analyse der digitalen Höhenmodelle wurde QGIS mit dem Profile-Tool verwendet. Hierfür wurden drei Querschnittprofile (A, B und C) verwendet, die jeweils am oberen und unteren Rand sowie im mittleren Bereich der digitalen Höhenmodelle liegen. Die Wahl der optimalen Fernerkundungsmethode für die Erstellung von 3D-Modellen von Karstformen hängt von den spezifischen Anforderungen des jeweiligen Untersuchungsgegenstandes ab. Während die SfM-Methoden insgesamt die vielversprechendsten Ergebnisse lieferten, hatten TLS und SLS ihre spezifischen Stärken bei bestimmten Oberflächenstrukturen und Anwendungsfällen (dreieckige Geometrien und flache Hänge). Die gute Leistung der SLS-Methode mit mobilen Geräten überraschte, wohingegen die ALS-Methode nicht überzeugen konnte.
Photogrammetrische Bestimmung von Fußmaßen und deren Evaluierung
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Camillo Ressl
Kurzfassung/Abstract
Die Arbeit beschäftigt sich mit der Entwicklung einer Methode zur photogrammetrischen Ermittlung von Fußmaßen, die unter Verwendung der Kamera eines Smartphones eine zuverlässige und kostengünstigere Alternative zu gängigen Messverfahren wie dem Laserscanning darstellen könnte. In Anbetracht des zunehmenden Online-Schuhkaufs und der hohen Retourenquote, die vor allem auf Größenprobleme zurückzuführen ist, hat diese Arbeit das Ziel, eine praktikable Lösung zu entwickeln, die genaue Fußmaße liefert. Mit der Optimierung der Aufnahmekonfiguration der Fotos relativ zum Fuß sowie der Festlegung des Maßstabs über Passpunkte konnte mit der Software Agisoft Metashape eine erste Punktwolke erzeugt werden. Diese Punktwolke wurde anschließend in Matlab bereinigt, um nur die Punkte der Füße beizubehalten. Dafür wurde im Speziellen eine Segmentierung mittels RANSAC und euklidischem Clustering durchgeführt. Die aus der Punktwolke ermittelten Fußmaße wurden mit Ergebnissen von herkömmlichen Messverfahren verglichen. Zur Beurteilung der photogrammetrischen Methode wurden sowohl ein Plastikfuß als auch die Füße von Proband*innen verwendet. Die durchgeführten Tests bestätigten, dass dieses photogrammetrische Verfahren fähig ist, Fußmaße mit einer hohen Genauigkeit und Zuverlässigkeit zu ermitteln, die mit den durch Laserscanning erzielten Ergebnissen vergleichbar sind. Die Abweichungen zwischen den beiden Methoden lagen bei etwa 1 mm für die Fußlänge, die Ballenbreite, die Risthöhe, die Fersenbreite und den Ristumfang, während sie beim Ballenumfang rund 5 mm betrugen. Die Ergebnisse zeigen, dass das entwickelte Verfahren für die Anfertigung von Maßschuhen und die korrekte Auswahl der Schuhgröße eingesetzt werden kann.
Die Arbeit beschäftigt sich mit der Entwicklung einer Methode zur photogrammetrischen Ermittlung von Fußmaßen, die unter Verwendung der Kamera eines Smartphones eine zuverlässige und kostengünstigere Alternative zu gängigen Messverfahren wie dem Laserscanning darstellen könnte. In Anbetracht des zunehmenden Online-Schuhkaufs und der hohen Retourenquote, die vor allem auf Größenprobleme zurückzuführen ist, hat diese Arbeit das Ziel, eine praktikable Lösung zu entwickeln, die genaue Fußmaße liefert. Mit der Optimierung der Aufnahmekonfiguration der Fotos relativ zum Fuß sowie der Festlegung des Maßstabs über Passpunkte konnte mit der Software Agisoft Metashape eine erste Punktwolke erzeugt werden. Diese Punktwolke wurde anschließend in Matlab bereinigt, um nur die Punkte der Füße beizubehalten. Dafür wurde im Speziellen eine Segmentierung mittels RANSAC und euklidischem Clustering durchgeführt. Die aus der Punktwolke ermittelten Fußmaße wurden mit Ergebnissen von herkömmlichen Messverfahren verglichen. Zur Beurteilung der photogrammetrischen Methode wurden sowohl ein Plastikfuß als auch die Füße von Proband*innen verwendet. Die durchgeführten Tests bestätigten, dass dieses photogrammetrische Verfahren fähig ist, Fußmaße mit einer hohen Genauigkeit und Zuverlässigkeit zu ermitteln, die mit den durch Laserscanning erzielten Ergebnissen vergleichbar sind. Die Abweichungen zwischen den beiden Methoden lagen bei etwa 1 mm für die Fußlänge, die Ballenbreite, die Risthöhe, die Fersenbreite und den Ristumfang, während sie beim Ballenumfang rund 5 mm betrugen. Die Ergebnisse zeigen, dass das entwickelte Verfahren für die Anfertigung von Maßschuhen und die korrekte Auswahl der Schuhgröße eingesetzt werden kann.
Risikoabschätzung für mechanische Störungen an Strom-Freileitungsinfrastrukturen für ein Energieversorgungsunternehmen auf Basis von Airborne-Laserscandaten
Diplomarbeit: Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2024
Betreuer: Univ.-Prof.i.R. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Das Ziel der Masterarbeit ist es, Methoden für Risikoabschätzung für mechanische Störungen entlang von Strom-Freileitungsinfrastruktur auf Basis von Airborne-Laserscandaten zu entwickeln. Im Fokus stehen dabei insbesondere die durch Vegetation entlang der Trassen verursachten Störungen. Um dieses Ziel zu erreichen, wurden auf Basis von ALS (Airborne-Laserscan)-Daten für zwei Testgebiete Funktionen zur Risikoabschätzung generiert. Die ausgewählten Testgebiete umfassen sowohl einen homogenen Nadelwald als auch einen Laubmischwald. Zuerst mussten die ALS-Punktwolkendaten aufbereitet werden, um ein normalisiertes digitales Oberflächenmodell (nDOM) zu generieren. Anschließend erfolgte auf Basis des erstellten nDOM die Detektion von Baumkronenspitzen. Für die Kronenspitzendetektion im Laubwald kamen zwei unterschiedliche Methoden zum Einsatz. Einerseits wurde die Bibliothek lidR aus der Software R genutzt, andererseits wurde eine Segmentierung mittels eines Watershed-Algorithmus mit anschließender Suche der lokalen Maxima in den erhaltenen Segmenten durchgeführt. Für Nadelwald wurde mit einer Methode, die in der Software lidR zur Verfügung stand, gearbeitet. Anhand der identifizierten Kronenspitzen wurde eine Baumfall-Simulation durchgeführt. Auch hier wurden zwei verschiedene Ansätze verglichen. Zum einen wurde die euklidische Distanz zwischen Baumfußpunkt und nächstgelegenem Leiterseil ermittelt und als Risiko gewertet, wenn die Baumhöhe größer war als die berechnete euklidische Distanz. Zum anderen wurde eine vertikale Risikoanalyse unter Einbeziehung von Abstandsberechnungen durchgeführt. Des Weiteren wurde eine Bewuchs-Analyse implementiert, welche auf einer Höhendifferenzberechnung zwischen dem Bewuchs und dem Leiterseil basiert. Unter Berücksichtigung eines definierten Schwellenwerts visualisiert diese Analyse grafisch, ob Vegetation innerhalb eines festgelegten Pufferbereichs unterhalb der Leitung eine potenzielle Gefahr für den betreffenden Abschnitt der Freileitung darstellen könnte. Die erzielten Ergebnisse bieten wertvolle Einblicke und zeigen auch Potenzial für weitere Entwicklungen und Verbesserungen.
Das Ziel der Masterarbeit ist es, Methoden für Risikoabschätzung für mechanische Störungen entlang von Strom-Freileitungsinfrastruktur auf Basis von Airborne-Laserscandaten zu entwickeln. Im Fokus stehen dabei insbesondere die durch Vegetation entlang der Trassen verursachten Störungen. Um dieses Ziel zu erreichen, wurden auf Basis von ALS (Airborne-Laserscan)-Daten für zwei Testgebiete Funktionen zur Risikoabschätzung generiert. Die ausgewählten Testgebiete umfassen sowohl einen homogenen Nadelwald als auch einen Laubmischwald. Zuerst mussten die ALS-Punktwolkendaten aufbereitet werden, um ein normalisiertes digitales Oberflächenmodell (nDOM) zu generieren. Anschließend erfolgte auf Basis des erstellten nDOM die Detektion von Baumkronenspitzen. Für die Kronenspitzendetektion im Laubwald kamen zwei unterschiedliche Methoden zum Einsatz. Einerseits wurde die Bibliothek lidR aus der Software R genutzt, andererseits wurde eine Segmentierung mittels eines Watershed-Algorithmus mit anschließender Suche der lokalen Maxima in den erhaltenen Segmenten durchgeführt. Für Nadelwald wurde mit einer Methode, die in der Software lidR zur Verfügung stand, gearbeitet. Anhand der identifizierten Kronenspitzen wurde eine Baumfall-Simulation durchgeführt. Auch hier wurden zwei verschiedene Ansätze verglichen. Zum einen wurde die euklidische Distanz zwischen Baumfußpunkt und nächstgelegenem Leiterseil ermittelt und als Risiko gewertet, wenn die Baumhöhe größer war als die berechnete euklidische Distanz. Zum anderen wurde eine vertikale Risikoanalyse unter Einbeziehung von Abstandsberechnungen durchgeführt. Des Weiteren wurde eine Bewuchs-Analyse implementiert, welche auf einer Höhendifferenzberechnung zwischen dem Bewuchs und dem Leiterseil basiert. Unter Berücksichtigung eines definierten Schwellenwerts visualisiert diese Analyse grafisch, ob Vegetation innerhalb eines festgelegten Pufferbereichs unterhalb der Leitung eine potenzielle Gefahr für den betreffenden Abschnitt der Freileitung darstellen könnte. Die erzielten Ergebnisse bieten wertvolle Einblicke und zeigen auch Potenzial für weitere Entwicklungen und Verbesserungen.
Positionsänderung der nördlichsten VLBI-Teleskopen in Ny-Alesund, Spitzbergen
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna, Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is a space geometric observing technique, the goal of which is to monitor the kinematics of interest points on Earth and in space. The observing instruments of VLBI are approximately 40 radio telescopes distributed throughout the world that simultaneously receive electromagnetic radiation emitted by compact objects in space, such as quasars. This technique has applications in geodesy, astrometry and astronomy (Nothnagel et al., 2023). This master thesis aimed to analyze time series data from two of the northernmost VLBI telescopes, namely Nyales20 and Nyale13s, which are located in Svalbard, Norway. The thesis provided position time series data for both stations, which helped us to understand their position over the study period; to determine whether they exhibit discrepancies, especially in height biases; and finally, to analyze whether these changes could be related to factors such as glacier melting. Furthermore, this thesis evaluated the availability of sufficient parallel sessions for transferring velocity information from the legacy system (Nyales20) to the VGOS new generation (Nyale13s); then, it analyzed whether extending the working time of the legacy telescope Nyales20 is beneficial even though its working timespan has surpassed 30 years. Finally, this thesis compared the observed uplift trends from the VLBI and GNSS time series. The analysis was conducted using the Vienna VLBI Software (VieVS), which is a VLBI analysis software for geodesy and astrometry. Additionally, Vienna Scheduling software (VieSched++), which is part of VieVS, was used to generate and simulate IVS-R1 and IVS-R4 schedules, to address the objective of this study concerning the prolongation consideration of the legacy telescope Nyales20. The real data sets were directly downloaded in open-source vgosDB format, which is the IVS standard format for storing, transmitting, and archiving VLBI data (Webiste: NASA Earth Data). The results revealed height biases in the VLBI and GNSS time series data with respect to a priori catalog positions. This supported geophysical processes (e.g., glacier melting) as potential contributing factors. Furthermore, based on the velocities obtained for both stations, while also considering the number of parallel sessions (77 sessions), we were able to confirm that the transfer of velocities from the legacy telescope Nyales20 to the VGOS telescope Nyale13s can be achieved. Finally, addressing the impact of the Nyales20 telescope, our analysis revealed that excluding Nyales20 telescope led to an increase in mean formal error and repeatability values of several percent for Earth orientation parameters. This suggests that maintaining both telescopes within the network enhances accuracy. However, economic concerns and safety reasons influenced the decision to dismantle Nyales20 on August 14, 2023 (Garcia-Espada et al., 2022). Despite its positive impact on quality of the data, the practical implications encourage its cancellation.
Very Long Baseline Interferometry (VLBI) is a space geometric observing technique, the goal of which is to monitor the kinematics of interest points on Earth and in space. The observing instruments of VLBI are approximately 40 radio telescopes distributed throughout the world that simultaneously receive electromagnetic radiation emitted by compact objects in space, such as quasars. This technique has applications in geodesy, astrometry and astronomy (Nothnagel et al., 2023). This master thesis aimed to analyze time series data from two of the northernmost VLBI telescopes, namely Nyales20 and Nyale13s, which are located in Svalbard, Norway. The thesis provided position time series data for both stations, which helped us to understand their position over the study period; to determine whether they exhibit discrepancies, especially in height biases; and finally, to analyze whether these changes could be related to factors such as glacier melting. Furthermore, this thesis evaluated the availability of sufficient parallel sessions for transferring velocity information from the legacy system (Nyales20) to the VGOS new generation (Nyale13s); then, it analyzed whether extending the working time of the legacy telescope Nyales20 is beneficial even though its working timespan has surpassed 30 years. Finally, this thesis compared the observed uplift trends from the VLBI and GNSS time series. The analysis was conducted using the Vienna VLBI Software (VieVS), which is a VLBI analysis software for geodesy and astrometry. Additionally, Vienna Scheduling software (VieSched++), which is part of VieVS, was used to generate and simulate IVS-R1 and IVS-R4 schedules, to address the objective of this study concerning the prolongation consideration of the legacy telescope Nyales20. The real data sets were directly downloaded in open-source vgosDB format, which is the IVS standard format for storing, transmitting, and archiving VLBI data (Webiste: NASA Earth Data). The results revealed height biases in the VLBI and GNSS time series data with respect to a priori catalog positions. This supported geophysical processes (e.g., glacier melting) as potential contributing factors. Furthermore, based on the velocities obtained for both stations, while also considering the number of parallel sessions (77 sessions), we were able to confirm that the transfer of velocities from the legacy telescope Nyales20 to the VGOS telescope Nyale13s can be achieved. Finally, addressing the impact of the Nyales20 telescope, our analysis revealed that excluding Nyales20 telescope led to an increase in mean formal error and repeatability values of several percent for Earth orientation parameters. This suggests that maintaining both telescopes within the network enhances accuracy. However, economic concerns and safety reasons influenced the decision to dismantle Nyales20 on August 14, 2023 (Garcia-Espada et al., 2022). Despite its positive impact on quality of the data, the practical implications encourage its cancellation.
VODCA2GPPv2 - An updated global model for estimating GPP from microwave satellite observations with enhanced cross-biome consistency
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dr. Wouter Arnoud Dorigo MSc, Dipl.-Ing. Ruxandra-Maria Zotta
Kurzfassung/Abstract
The monitoring of Gross Primary Production (GPP) on a global scale is essential for understanding the role of terrestrial ecosystems in the carbon cycle. Over the past few decades, significant progress has been made in the ability to globally monitor GPP using process-based models and remote sensing techniques. Despite these advancements, there are still substantial differences between GPP products and large uncertainties in GPP estimates. Recently, Vegetation Optical Depth (VOD) has emerged as a useful indicator for deriving GPP from microwave satellite observations. The carbon-sink driven approach developed by Teubner et al. (2019) utilizes VOD as a proxy for the carbon-sink strength of terrestrial ecosystems to derive GPP. Wild et al. (2022) further adapted this approach, creating a global long-term GPP dataset called VODCA2GPP, based on VOD observations from the Vegetation Optical Depth Climate Archive (VODCA). This approach has shown promising results with good agreements with in-situ GPP observations and independent GPP datasets. However, the model still exhibits limited performance in certain regions and biomes, particularly in arid regions and the tropics, where in-situ data is scarce. This study builds on the VODCA2GPPv1 model by Wild et al. (2022) and tries to make it more consistent across biomes. This was done by employing a new random forest machine learning model, by merging three different eddy covariance datasets to more than double the training data in comparison with VODCA2GPPv1 and by adding two new predictors: Land Cover and low frequency VOD. Validation with in-situ GPP observations showed significant improvements in comparison with VODCA2GPPv1. Median correlations increased from 0.67 to 0.78 r, RMSE decreased from 2.81 to 2.25 gC/m2/d, and bias decreased from 0.25 to -0.04 gC/m2/d. Analyzing the cross-validation results based on land cover demonstrated a more consistent performance of the model, making it better suited for diverse regions. Comparisons with the independent FLUXCOM, MODIS and TRENDY GPP datasets revealed good temporal agreement with mean global correlations of 0.56, 0.62 and 0.42 r respectively, which could mostly be improved in comparison to VODCA2GPPv1 (+0.06, -0.02 and +0.03 r). Furthermore, the new model reduced global overestimation with respect to these datasets (bias to FLUXCOM and MODIS could be reduced by 0.44 and 0.45 gC/m2/d respectively). However, the new model still has limitations. It still tends to globally overestimate GPP, particularly in tropical regions. Additionally, it exhibits limited performance in arid environments, highlighting the importance of accounting for water limitation in future models. Overall, the inclusion of new predictors and additional in-situ data has resulted in a model that aligns better with in-situ GPP observations and independent GPP datasets. It also demonstrates improved consistency across different biomes and land cover classes. VODCA2GPPv2 complements existing GPP products and its long temporal availability makes it a valuable tool for studying the carbon cycle over extended time periods.
The monitoring of Gross Primary Production (GPP) on a global scale is essential for understanding the role of terrestrial ecosystems in the carbon cycle. Over the past few decades, significant progress has been made in the ability to globally monitor GPP using process-based models and remote sensing techniques. Despite these advancements, there are still substantial differences between GPP products and large uncertainties in GPP estimates. Recently, Vegetation Optical Depth (VOD) has emerged as a useful indicator for deriving GPP from microwave satellite observations. The carbon-sink driven approach developed by Teubner et al. (2019) utilizes VOD as a proxy for the carbon-sink strength of terrestrial ecosystems to derive GPP. Wild et al. (2022) further adapted this approach, creating a global long-term GPP dataset called VODCA2GPP, based on VOD observations from the Vegetation Optical Depth Climate Archive (VODCA). This approach has shown promising results with good agreements with in-situ GPP observations and independent GPP datasets. However, the model still exhibits limited performance in certain regions and biomes, particularly in arid regions and the tropics, where in-situ data is scarce. This study builds on the VODCA2GPPv1 model by Wild et al. (2022) and tries to make it more consistent across biomes. This was done by employing a new random forest machine learning model, by merging three different eddy covariance datasets to more than double the training data in comparison with VODCA2GPPv1 and by adding two new predictors: Land Cover and low frequency VOD. Validation with in-situ GPP observations showed significant improvements in comparison with VODCA2GPPv1. Median correlations increased from 0.67 to 0.78 r, RMSE decreased from 2.81 to 2.25 gC/m2/d, and bias decreased from 0.25 to -0.04 gC/m2/d. Analyzing the cross-validation results based on land cover demonstrated a more consistent performance of the model, making it better suited for diverse regions. Comparisons with the independent FLUXCOM, MODIS and TRENDY GPP datasets revealed good temporal agreement with mean global correlations of 0.56, 0.62 and 0.42 r respectively, which could mostly be improved in comparison to VODCA2GPPv1 (+0.06, -0.02 and +0.03 r). Furthermore, the new model reduced global overestimation with respect to these datasets (bias to FLUXCOM and MODIS could be reduced by 0.44 and 0.45 gC/m2/d respectively). However, the new model still has limitations. It still tends to globally overestimate GPP, particularly in tropical regions. Additionally, it exhibits limited performance in arid environments, highlighting the importance of accounting for water limitation in future models. Overall, the inclusion of new predictors and additional in-situ data has resulted in a model that aligns better with in-situ GPP observations and independent GPP datasets. It also demonstrates improved consistency across different biomes and land cover classes. VODCA2GPPv2 complements existing GPP products and its long temporal availability makes it a valuable tool for studying the carbon cycle over extended time periods.
Azimuthale Anisotropie in ASCAT Rückstreumessungen
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Sebastian Hahn
Kurzfassung/Abstract
Bei Scatterometer-Beobachtungen der Landoberfläche der Erde wird der Rückstreukoeffizient (σ0) erheblich von der Abbildungsgeometrie des Satelliteninstruments beeinflusst, unter der die Messungen durchgeführt werden. Um geophysikalische Parameter wie die Bodenfeuchte genau bestimmen zu können, ist es wichtig, die Auswirkungen der azimutalen Signalabhängigkeit zu berücksichtigen und zu korrigieren. In dieser Arbeit wird eine dynamische azimutale Korrekturmethode im Vergleich zur traditionellen statischen Korrekturmethode für C-Band-Rückstreumessungen des Advanced Scatterometers (ASCAT) an Bord der Metop-Satelliten vorgestellt und bewertet. Durch die Ermittlung der geschätzten Standardabweichung (Estimated Standard Deviation, ESD) von σ0 analysieren wir die Wirksamkeit beider Korrekturmethoden bei der Abschwächung der azimutalen Variabilität. Darüber hinaus entwickeln wir drei Indikatoren, um die zeitlichen Veränderungen der ESD sowie die geometrische und zeitliche Variabilität der Korrekturpolynome zu untersuchen. Unsere Analyse zeigt, dass die dynamische Korrekturmethode nicht nur azimutale Fehler deutlich verringert, sondern auch zeitliche Rückstreuungstrends beibehält und Signale, die durch Funkfrequenzstörungen (Radio Frequency Interference, RFI) beeinträchtigt werden, besser korrigiert. Daher plädieren wir für die Integration dieser Methode in den TU Wien Soil Moisture Retrieval (TUW-SMR) Algorithmus. Neben der Verbesserung der Bodenfeuchtebestimmung unterstreichen wir das Potenzial von ESD für die Kartierung von Sanddünen. Außerdem bieten unsere neu entwickelten zeitlichen Indikatoren zusätzliche Einblicke in Landoberflächen, die strukturellem Wandel unterliegen, von der Vegetationsdynamik in der Sahelzone bis hin zu den Mustern der städtischen Expansion in China.
Bei Scatterometer-Beobachtungen der Landoberfläche der Erde wird der Rückstreukoeffizient (σ0) erheblich von der Abbildungsgeometrie des Satelliteninstruments beeinflusst, unter der die Messungen durchgeführt werden. Um geophysikalische Parameter wie die Bodenfeuchte genau bestimmen zu können, ist es wichtig, die Auswirkungen der azimutalen Signalabhängigkeit zu berücksichtigen und zu korrigieren. In dieser Arbeit wird eine dynamische azimutale Korrekturmethode im Vergleich zur traditionellen statischen Korrekturmethode für C-Band-Rückstreumessungen des Advanced Scatterometers (ASCAT) an Bord der Metop-Satelliten vorgestellt und bewertet. Durch die Ermittlung der geschätzten Standardabweichung (Estimated Standard Deviation, ESD) von σ0 analysieren wir die Wirksamkeit beider Korrekturmethoden bei der Abschwächung der azimutalen Variabilität. Darüber hinaus entwickeln wir drei Indikatoren, um die zeitlichen Veränderungen der ESD sowie die geometrische und zeitliche Variabilität der Korrekturpolynome zu untersuchen. Unsere Analyse zeigt, dass die dynamische Korrekturmethode nicht nur azimutale Fehler deutlich verringert, sondern auch zeitliche Rückstreuungstrends beibehält und Signale, die durch Funkfrequenzstörungen (Radio Frequency Interference, RFI) beeinträchtigt werden, besser korrigiert. Daher plädieren wir für die Integration dieser Methode in den TU Wien Soil Moisture Retrieval (TUW-SMR) Algorithmus. Neben der Verbesserung der Bodenfeuchtebestimmung unterstreichen wir das Potenzial von ESD für die Kartierung von Sanddünen. Außerdem bieten unsere neu entwickelten zeitlichen Indikatoren zusätzliche Einblicke in Landoberflächen, die strukturellem Wandel unterliegen, von der Vegetationsdynamik in der Sahelzone bis hin zu den Mustern der städtischen Expansion in China.
Bewertung der urbanen Hitzevulnerabilität: Ein Vergleich verschiedener Methoden
Institut für Geographie und Raumforschung, Universität Graz, 2024
Betreuer: Univ.-Prof. Dr. Martin Mergili
Kurzfassung/Abstract
Mit dem globalen Temperaturanstieg werden Hitzewellen häufiger und intensiver, wobei städtische Gebiete aufgrund der dichten Infrastruktur und der undurchlässigen Oberflächen, die die Auswirkungen der Hitze verschlimmern, besonders gefährdet sind. Durch den Vergleich verschiedener methodischer Ansätze bewertet diese Studie die Sensitivität und Variabilität des Hitze-Vulnerabilitätsindex (HVI), eines häufig verwendeten Instruments zur Quantifizierung der Hitzevulnerabilität. Zur Berechnung des HVI werden Temperaturdaten (modellierte gefühlte Temperatur (Tapp), Lufttemperatur (Tair) und Oberflächentemperaturen (LST)) in Kombination mit soziodemografischen Daten und baulichen Umweltvariablen verwendet. Die Studie umfasst eine explorative Analyse räumlicher Daten (exploratory spatial data analysis, ESDA), um die räumlichen Eigenschaften und Korrelationen der verwendeten Datensätze zu verstehen. Weiters beinhaltet sie sowohl eine lokale als auch eine globale Sensitivitätsanalyse, um die Auswirkungen unterschiedlicher Temperaturinputs, räumlicher Auflösung und Gewichtungsmethoden auf den resultierenden HVI zu untersuchen. Die Ergebnisse zeigen, dass unterschiedliche Temperaturinputs nur minimale Auswirkungen auf die Magnitude des HVIs haben und dass dessen räumliche Verteilung stabil bleibt, was auf eine robuste räumliche Clusterung hindeutet. Daher ist es möglich, Indizes zu vergleichen, die nach der gleichen Methode erstellt wurden, auch wenn sie auf unterschiedlichen Temperaturdatensätzen oder -indikatoren beruhen. Die globale Sensitivitätsanalyse zeigt, dass die Änderung des Temperaturdatensatzes den größten Einfluss von den drei untersuchten Methodenstufen auf das Ergebnis des HVIs hat, insbesondere in suburbanen Gebieten. Die räumliche Auflösung und die Gewichtungsmethoden beeinflussen vor allem zentrale städtische Regionen, haben aber insgesamt einen geringeren Einfluss auf das Ergebnis des HVIs. Bei der Erstellung eines HVIs in dünn besiedelten Gebieten ist daher die Wahl der Temperaturvariablen der wichtigste Faktor, während die räumliche Auflösung und die Gewichtungsmethode bei Studien in dicht besiedelten Gebieten Vorrang haben sollten. Diese Forschungsarbeit vertieft das Verständnis der Unsicherheiten bei der Bewertung der Hitzevulnerabilität, was für wirksame Maßnahmen im Bereich der öffentlichen Gesundheit und für politische Entscheidungen von entscheidender Bedeutung ist.
Mit dem globalen Temperaturanstieg werden Hitzewellen häufiger und intensiver, wobei städtische Gebiete aufgrund der dichten Infrastruktur und der undurchlässigen Oberflächen, die die Auswirkungen der Hitze verschlimmern, besonders gefährdet sind. Durch den Vergleich verschiedener methodischer Ansätze bewertet diese Studie die Sensitivität und Variabilität des Hitze-Vulnerabilitätsindex (HVI), eines häufig verwendeten Instruments zur Quantifizierung der Hitzevulnerabilität. Zur Berechnung des HVI werden Temperaturdaten (modellierte gefühlte Temperatur (Tapp), Lufttemperatur (Tair) und Oberflächentemperaturen (LST)) in Kombination mit soziodemografischen Daten und baulichen Umweltvariablen verwendet. Die Studie umfasst eine explorative Analyse räumlicher Daten (exploratory spatial data analysis, ESDA), um die räumlichen Eigenschaften und Korrelationen der verwendeten Datensätze zu verstehen. Weiters beinhaltet sie sowohl eine lokale als auch eine globale Sensitivitätsanalyse, um die Auswirkungen unterschiedlicher Temperaturinputs, räumlicher Auflösung und Gewichtungsmethoden auf den resultierenden HVI zu untersuchen. Die Ergebnisse zeigen, dass unterschiedliche Temperaturinputs nur minimale Auswirkungen auf die Magnitude des HVIs haben und dass dessen räumliche Verteilung stabil bleibt, was auf eine robuste räumliche Clusterung hindeutet. Daher ist es möglich, Indizes zu vergleichen, die nach der gleichen Methode erstellt wurden, auch wenn sie auf unterschiedlichen Temperaturdatensätzen oder -indikatoren beruhen. Die globale Sensitivitätsanalyse zeigt, dass die Änderung des Temperaturdatensatzes den größten Einfluss von den drei untersuchten Methodenstufen auf das Ergebnis des HVIs hat, insbesondere in suburbanen Gebieten. Die räumliche Auflösung und die Gewichtungsmethoden beeinflussen vor allem zentrale städtische Regionen, haben aber insgesamt einen geringeren Einfluss auf das Ergebnis des HVIs. Bei der Erstellung eines HVIs in dünn besiedelten Gebieten ist daher die Wahl der Temperaturvariablen der wichtigste Faktor, während die räumliche Auflösung und die Gewichtungsmethode bei Studien in dicht besiedelten Gebieten Vorrang haben sollten. Diese Forschungsarbeit vertieft das Verständnis der Unsicherheiten bei der Bewertung der Hitzevulnerabilität, was für wirksame Maßnahmen im Bereich der öffentlichen Gesundheit und für politische Entscheidungen von entscheidender Bedeutung ist.
Evaluierung einer Software für die semi-automatische Detektion und 3D-Modellierung von Dachlandschaften
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka-Schremmer
Kurzfassung/Abstract
The 3D models of buildings and their roofs are very common in today’s architectural planing and analysing tasks. There are three main groups of software for 3D roof and building modeling: manual, semi-automatic and automatic. This study presents a comprehensive review and evaluation of the semi-automatic stand-alone module, CityGRID Shaper, integrated within the CityGRID software framework. A notable advantage of this module is its additional support while modeling through aerial images aligned with the point cloud. The primary focus of this work revolves around functionality and accuracy concerning roof recognition and its 3D model creation, utilizing CityGRID Shaper. The work begins with an overview of diverse software and methodologies employed in 3D roof and building modeling. It proceeds to introduction of the UVM SYSTEMS GmbH and provides a detailed description of CityGRID Shaper, including the underlying principles of the OPALS system for automated roof detection, plane segmentation, and α-shape calculations. Furthermore, CityGRID Shaper’s methodology for generating intersection lines and baselines is described. Theoretical background on different LODs and roof shapes is presented, outlining relevant information for this work. Additionally, the required and optional input data sources for CityGRID Shaper are discussed, followed by a presentation of the input data utilized in this work, including details on the location and data collection procedures for two CityGRID Shaper projects. The results of 3D roof modeling demonstrate the capability of the CityGRID Shaper module in recognition of straight roof planes, their segmentation and further 3D modeling, although it exhibits limitations in segmentation of rounded roof shapes. Moreover, the smart-preview function streamlines the rapid modeling of most roof shapes with minimal manual intervention, although it does not extend to flat and shed roof configurations, which must be modeled manually. The evaluation methodology encompasses several phases to address each examined parameter independently. This includes a detailed examination of individual parameters within Realtime Calculation mode, an investigation into the influence of area type on modeling capabilities, and an examination of the impact of different LOD on modeling speed. Finally, a quality assessment of the resulting roof models is provided, based on distances calculations between modeled roofs and the original point cloud data. Furthermore, insights into modeling experiences with CityGRID Shaper are shared, highlighting significant observations for this work. Recommendations for potential future enhancements to CityGRID Shaper conclude the study, offering possible further development and refinement.
The 3D models of buildings and their roofs are very common in today’s architectural planing and analysing tasks. There are three main groups of software for 3D roof and building modeling: manual, semi-automatic and automatic. This study presents a comprehensive review and evaluation of the semi-automatic stand-alone module, CityGRID Shaper, integrated within the CityGRID software framework. A notable advantage of this module is its additional support while modeling through aerial images aligned with the point cloud. The primary focus of this work revolves around functionality and accuracy concerning roof recognition and its 3D model creation, utilizing CityGRID Shaper. The work begins with an overview of diverse software and methodologies employed in 3D roof and building modeling. It proceeds to introduction of the UVM SYSTEMS GmbH and provides a detailed description of CityGRID Shaper, including the underlying principles of the OPALS system for automated roof detection, plane segmentation, and α-shape calculations. Furthermore, CityGRID Shaper’s methodology for generating intersection lines and baselines is described. Theoretical background on different LODs and roof shapes is presented, outlining relevant information for this work. Additionally, the required and optional input data sources for CityGRID Shaper are discussed, followed by a presentation of the input data utilized in this work, including details on the location and data collection procedures for two CityGRID Shaper projects. The results of 3D roof modeling demonstrate the capability of the CityGRID Shaper module in recognition of straight roof planes, their segmentation and further 3D modeling, although it exhibits limitations in segmentation of rounded roof shapes. Moreover, the smart-preview function streamlines the rapid modeling of most roof shapes with minimal manual intervention, although it does not extend to flat and shed roof configurations, which must be modeled manually. The evaluation methodology encompasses several phases to address each examined parameter independently. This includes a detailed examination of individual parameters within Realtime Calculation mode, an investigation into the influence of area type on modeling capabilities, and an examination of the impact of different LOD on modeling speed. Finally, a quality assessment of the resulting roof models is provided, based on distances calculations between modeled roofs and the original point cloud data. Furthermore, insights into modeling experiences with CityGRID Shaper are shared, highlighting significant observations for this work. Recommendations for potential future enhancements to CityGRID Shaper conclude the study, offering possible further development and refinement.
Getting Ready for VLBI Observations to the Moon
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Helene Wolf
Kurzfassung/Abstract
Geodetic Very Long Baseline Interferometry (VLBI) is based on the observation of extragalactic radio sources, primarily quasars. In recent years, the concept of equipping artificial and natural celestial bodies, such as satellites and the Moon, with VLBI transmitters has emerged. This concept opens up new perspectives in the fields of geodesy, astronomy and spacecraft navigation. This thesis deals with the required models for the analysis, described by the precise positioning of a VLBI transmitter at the location of the Apollo 15 reflector on the Moon. The determined position is evaluated by analysing Lunar Laser Ranging (LLR) measurements. LLR measures the flight time of laser light pulses to travel from the LLR station to the LLR reflector on the lunar surface and back. Due to the considerable distance between the objects involved, the laser pulses are affected by several delays. These must be considered in the LLR analysis. In particular, this thesis focuses on the two dominant propagation delays, namely the atmospheric delay and the Shapiro time delay. The atmosphere causes a light propagation delay of 2 to 9 m. The Shapiro time delay can be subdivided into two components. The Sun is responsible for delays in the range of 6 to 8 m, while the Earth causes delays of a few centimetres. After modelling these delays, the residuals from 2002 to 2021 (no measurements available for 2006, 2007 and 2008) lie between -1 and +1 m. The second part of this thesis presents a visibility analysis of the VLBI transmitter on the lunar surface. For this purpose, modifications are made to the VLBI scheduling software VieSched++. The visibility is evaluated based on the elevation and the number of stations from which the VLBI transmitter is simultaneously visible. It was found that the number of hours per day during which the VLBI transmitter is visible varies considerably depending on the location of the VLBI station. Furthermore, the VLBI transmitter's visibility duration depends on the Moon's position. Therefore, to conduct successful VLBI observations to the Moon, it is essential to create an appropriate observation plan involving a globally distributed network of VLBI stations.
Geodetic Very Long Baseline Interferometry (VLBI) is based on the observation of extragalactic radio sources, primarily quasars. In recent years, the concept of equipping artificial and natural celestial bodies, such as satellites and the Moon, with VLBI transmitters has emerged. This concept opens up new perspectives in the fields of geodesy, astronomy and spacecraft navigation. This thesis deals with the required models for the analysis, described by the precise positioning of a VLBI transmitter at the location of the Apollo 15 reflector on the Moon. The determined position is evaluated by analysing Lunar Laser Ranging (LLR) measurements. LLR measures the flight time of laser light pulses to travel from the LLR station to the LLR reflector on the lunar surface and back. Due to the considerable distance between the objects involved, the laser pulses are affected by several delays. These must be considered in the LLR analysis. In particular, this thesis focuses on the two dominant propagation delays, namely the atmospheric delay and the Shapiro time delay. The atmosphere causes a light propagation delay of 2 to 9 m. The Shapiro time delay can be subdivided into two components. The Sun is responsible for delays in the range of 6 to 8 m, while the Earth causes delays of a few centimetres. After modelling these delays, the residuals from 2002 to 2021 (no measurements available for 2006, 2007 and 2008) lie between -1 and +1 m. The second part of this thesis presents a visibility analysis of the VLBI transmitter on the lunar surface. For this purpose, modifications are made to the VLBI scheduling software VieSched++. The visibility is evaluated based on the elevation and the number of stations from which the VLBI transmitter is simultaneously visible. It was found that the number of hours per day during which the VLBI transmitter is visible varies considerably depending on the location of the VLBI station. Furthermore, the VLBI transmitter's visibility duration depends on the Moon's position. Therefore, to conduct successful VLBI observations to the Moon, it is essential to create an appropriate observation plan involving a globally distributed network of VLBI stations.
An approach for developing a fuel moisture content dataset for Austrian wildfire danger assessment
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Emanuel Büechi MSc
Kurzfassung/Abstract
Fuel moisture content (FMC) of live vegetation is an important factor for wildfire ignition and propagation. Therefore, for wildfire danger assessment, it is inevitable to consider this parameter in models regarding the prediction of the ignition probability and spreading behaviour of wildfires. A current prototype of an integrated forest fire danger assessment system in Austria is introducing FMC as a functional derivative of meteorological conditions, which was calibrated for Canadian pine trees. To improve wildfire danger assessment in Austria, an updated FMC dataset that considers the local environmental and vegetational conditions is required. Observations from optical remote sensing instruments are sensitive to FMC in the infrared domain and thus, offering the possibility to estimate this quantity on a broader scale. An established global dataset for FMC is derived from the Moderate-Resolution Imaging Spectroradiometer (MODIS), which delivers temporally frequent reflectance data with a spatial resolution of 500 m. Modelling FMC with this pixel size might be too coarse when considering narrow valleys or mountain peaks. In this study, satellite observations from theSentinel-2 mission were used to calculate a new FMC dataset for the area of Styria with a high spatial resolution of 20 m. The aim was to develop a workflow that should further allow the FMC estimation for the entire Austrian country, which can support the domestic wildfire danger assessment. This was done by applying a pretrained machine learning model to Styrian Sentinel-2 data. This model was trained on Australian Sentinel-2 observations that were related to the MODIS derived FMC values. The validation of this approach with MODIS FMC data of Styria led to rather low correlations (ρ between 0 and 0.16) between the two datasets. A main reason for the low correlation results was identified as the relevant climatic and vegetational differences between Australia and the study area of Styria. Another reason was the different origin of the data. While the Sentinel-2 reflectances of Australia were subjected to a preprocessing algorithm, the Styrian data was originally taken from the Google Earth Engine tool. To develop a valid FMC dataset for Austria based on optical remote sensing data and machine learning algorithms, the training of a new model is recommended for further research work. The inclusion of a data layer that contains locally optimized FMC estimations with high spatial resolution remains a desirable goal for the Austrian wildfire danger assessment.
Fuel moisture content (FMC) of live vegetation is an important factor for wildfire ignition and propagation. Therefore, for wildfire danger assessment, it is inevitable to consider this parameter in models regarding the prediction of the ignition probability and spreading behaviour of wildfires. A current prototype of an integrated forest fire danger assessment system in Austria is introducing FMC as a functional derivative of meteorological conditions, which was calibrated for Canadian pine trees. To improve wildfire danger assessment in Austria, an updated FMC dataset that considers the local environmental and vegetational conditions is required. Observations from optical remote sensing instruments are sensitive to FMC in the infrared domain and thus, offering the possibility to estimate this quantity on a broader scale. An established global dataset for FMC is derived from the Moderate-Resolution Imaging Spectroradiometer (MODIS), which delivers temporally frequent reflectance data with a spatial resolution of 500 m. Modelling FMC with this pixel size might be too coarse when considering narrow valleys or mountain peaks. In this study, satellite observations from theSentinel-2 mission were used to calculate a new FMC dataset for the area of Styria with a high spatial resolution of 20 m. The aim was to develop a workflow that should further allow the FMC estimation for the entire Austrian country, which can support the domestic wildfire danger assessment. This was done by applying a pretrained machine learning model to Styrian Sentinel-2 data. This model was trained on Australian Sentinel-2 observations that were related to the MODIS derived FMC values. The validation of this approach with MODIS FMC data of Styria led to rather low correlations (ρ between 0 and 0.16) between the two datasets. A main reason for the low correlation results was identified as the relevant climatic and vegetational differences between Australia and the study area of Styria. Another reason was the different origin of the data. While the Sentinel-2 reflectances of Australia were subjected to a preprocessing algorithm, the Styrian data was originally taken from the Google Earth Engine tool. To develop a valid FMC dataset for Austria based on optical remote sensing data and machine learning algorithms, the training of a new model is recommended for further research work. The inclusion of a data layer that contains locally optimized FMC estimations with high spatial resolution remains a desirable goal for the Austrian wildfire danger assessment.
Überwachung und Verfolgung von Dürre mit Hilfe der Fernerkundung - eine Bewertung bodenwasserbasierter Dürreindizes
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr.in Mariette Vreugdenhil MSc
Kurzfassung/Abstract
Ein Anstieg an Extremwetterereignissen auf der einen Seite sowie neuartige Technologien auf der anderen Seite führen zur Entwicklung neuer Methoden für das Erkennen und Nachweisen von Dürre. Große Hoffnungen ruhen dabei auf der Fernerkundung, welche Beobachtungen von nie dagewesener räumlicher Abdeckung ermöglicht. Seit den Anfängen der Fernerkundung hat sich die räumliche und zeitliche Auflösung der Beobachtungen erheblich gesteigert. Mit stetig wachsender Verfügbarkeit von Langzeitdaten wird es schon bald möglich sein, daraus Klimatologien abzuleiten, welche den Normalzustand eines Parameters innerhalb einer bestimmten Region widerspiegeln. In Kombination mit innovativen Analysemethoden sowie durch die Integration künstlicher Intelligenz eröffnen sich neue Möglichkeiten für die Erfassung und Überwachung von Umweltprozessen. In Folge dessen ist es auch möglich, Umweltkatastrophen mittels Satelliten zu beobachten. Trotz ihrer Komplexität steht dabei die Erkennung von Dürren im Fokus, da mit ihnen große ökonomische Verluste einhergehen. Folglich sind Regierungen und Versicherungen sehr daran interessiert, Dürren zu detektieren und zu quantifizieren. Zu diesem Zwecke wurden zahlreiche Ansätze verfolgt. Neben den bereits etablierten, auf meteorologischen Parametern basierenden Indizes, wie etwa dem Standarized Precipitation Evapotranspiration Index (SPEI), der aus Niederschlags- und Temperaturmessungen abgeleitet wird, zielen andere darauf ab, Niederschlagsdefizite aus Auffälligkeiten innerhalb der Vegetation abzuleiten. Zu diesen Vegetationsindizes zählt auch der Leaf Area Index (LAI). Parallel dazu wird momentan ein auf Oberflächenfeuchte beruhender Index evaluiert, der rein aus Satellitenbeobachtungen abgeleitet werden kann. Dabei handelt es sich um den Soil Water Index (SWI), welcher 1998 durch Wagner et al. im Rahmen der Gemeinsamen Forschungsstelle der Europäischen Kommission (European Commission Joint Research Center, JRC) konzipiert und an der Technischen Universität Wien weiterentwickelt wurde. Der SWI bildet die Basis für die Berechnung zahlreicher Dürreindizes. Durch die Extrapolation von Oberflächenfeuchte, welche sich gut mithilfe von Satelliten beobachten lässt, kann der Wassergehalt innerhalb des ersten Meters des Bodens berechnet werden. Diese Schicht entspricht der Wurzelzone der meisten Pflanzen und ist daher entscheidend für deren Vitalität. Im Rahmen dieser Arbeit wird das Potential des SWI zur Beobachtung von Dürre in Österreich evaluiert. Dafür wird der vom SWI abgeleitete Soil Water Deficit Index (SWDI) mit dem SPEI und dem LAI verglichen. Dabei erzielt der SWDI hinsichtlich der Detektion der agrarwirtschaftlichen Dürre vielversprechende Resultate, sofern gewisse klimatische und topografische Voraussetzungen erfüllt werden. Der SWDI klassifiziert Dürren in Abhängigkeit der Wassermenge, die der Vegetation tatsächlich zur Verfügung steht. Anders als der SPEI liefert der SWDI damit einen direkten Einblick in die vorherrschende Bodenfeuchte, welche in Bezug auf die Vegetation den größten Einfluss hat. Aufgrund der absoluten Skala des SWDI sind für diesen Index keine Klimatologien und damit auch keine Langzeitdaten erforderlich. Dies ist ein klarer Vorteil im Vergleich zu den meisten anderen Dürreindizes, welche jeweils nur in Relation zu den Normalbedingungen im Beobachtungsgebiet aussagekräftig sind. Die Ableitung solcher Normen erfordert Daten mit einer Historie von zumindest 30 Jahren, die in vielen Regionen auf der Erde zur jetzigen Zeit noch nicht vorhanden sind.
Ein Anstieg an Extremwetterereignissen auf der einen Seite sowie neuartige Technologien auf der anderen Seite führen zur Entwicklung neuer Methoden für das Erkennen und Nachweisen von Dürre. Große Hoffnungen ruhen dabei auf der Fernerkundung, welche Beobachtungen von nie dagewesener räumlicher Abdeckung ermöglicht. Seit den Anfängen der Fernerkundung hat sich die räumliche und zeitliche Auflösung der Beobachtungen erheblich gesteigert. Mit stetig wachsender Verfügbarkeit von Langzeitdaten wird es schon bald möglich sein, daraus Klimatologien abzuleiten, welche den Normalzustand eines Parameters innerhalb einer bestimmten Region widerspiegeln. In Kombination mit innovativen Analysemethoden sowie durch die Integration künstlicher Intelligenz eröffnen sich neue Möglichkeiten für die Erfassung und Überwachung von Umweltprozessen. In Folge dessen ist es auch möglich, Umweltkatastrophen mittels Satelliten zu beobachten. Trotz ihrer Komplexität steht dabei die Erkennung von Dürren im Fokus, da mit ihnen große ökonomische Verluste einhergehen. Folglich sind Regierungen und Versicherungen sehr daran interessiert, Dürren zu detektieren und zu quantifizieren. Zu diesem Zwecke wurden zahlreiche Ansätze verfolgt. Neben den bereits etablierten, auf meteorologischen Parametern basierenden Indizes, wie etwa dem Standarized Precipitation Evapotranspiration Index (SPEI), der aus Niederschlags- und Temperaturmessungen abgeleitet wird, zielen andere darauf ab, Niederschlagsdefizite aus Auffälligkeiten innerhalb der Vegetation abzuleiten. Zu diesen Vegetationsindizes zählt auch der Leaf Area Index (LAI). Parallel dazu wird momentan ein auf Oberflächenfeuchte beruhender Index evaluiert, der rein aus Satellitenbeobachtungen abgeleitet werden kann. Dabei handelt es sich um den Soil Water Index (SWI), welcher 1998 durch Wagner et al. im Rahmen der Gemeinsamen Forschungsstelle der Europäischen Kommission (European Commission Joint Research Center, JRC) konzipiert und an der Technischen Universität Wien weiterentwickelt wurde. Der SWI bildet die Basis für die Berechnung zahlreicher Dürreindizes. Durch die Extrapolation von Oberflächenfeuchte, welche sich gut mithilfe von Satelliten beobachten lässt, kann der Wassergehalt innerhalb des ersten Meters des Bodens berechnet werden. Diese Schicht entspricht der Wurzelzone der meisten Pflanzen und ist daher entscheidend für deren Vitalität. Im Rahmen dieser Arbeit wird das Potential des SWI zur Beobachtung von Dürre in Österreich evaluiert. Dafür wird der vom SWI abgeleitete Soil Water Deficit Index (SWDI) mit dem SPEI und dem LAI verglichen. Dabei erzielt der SWDI hinsichtlich der Detektion der agrarwirtschaftlichen Dürre vielversprechende Resultate, sofern gewisse klimatische und topografische Voraussetzungen erfüllt werden. Der SWDI klassifiziert Dürren in Abhängigkeit der Wassermenge, die der Vegetation tatsächlich zur Verfügung steht. Anders als der SPEI liefert der SWDI damit einen direkten Einblick in die vorherrschende Bodenfeuchte, welche in Bezug auf die Vegetation den größten Einfluss hat. Aufgrund der absoluten Skala des SWDI sind für diesen Index keine Klimatologien und damit auch keine Langzeitdaten erforderlich. Dies ist ein klarer Vorteil im Vergleich zu den meisten anderen Dürreindizes, welche jeweils nur in Relation zu den Normalbedingungen im Beobachtungsgebiet aussagekräftig sind. Die Ableitung solcher Normen erfordert Daten mit einer Historie von zumindest 30 Jahren, die in vielen Regionen auf der Erde zur jetzigen Zeit noch nicht vorhanden sind.
Inundation–Desiccation State Prediction for Salt Pans in the Western Pannonian Basin using Remote Sensing, Groundwater, and Meteorological Data
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Emanuel Büechi MSc
Kurzfassung/Abstract
Salt pans are unique wetland ecosystems. In the Austrian Seewinkel region, salt pans are in an increasingly vulnerable state due to groundwater drainage and heightened climatic pressures. It is crucial to model how seasonal and long-term hydrological and climatological variations affect the salt pan dynamics in Seewinkel, yet a comprehensive understanding of the driving processes is lacking. The goal of this study is to develop random forest machine learning models driven by hydrological and meteorological data that allow us to predict in early spring (March) of each year the inundation state in the subsequent summer and fall. We utilize Earth observation data from Landsat 5 (L5), 8 (L8), and 9 (L9) to derive the time series of the inundation state for 34 salt pans for the period 1984–2022. Furthermore, we demonstrate that the groundwater level observed in March is the strongest predictor of the salt pan inundation state in summer and fall. Utilizing local groundwater data yields a Matthews correlation coefficient of 0.59. Models using globally available meteorological data, either instead of or in addition to groundwater data, provide comparable results. This allows the global transfer of the approach to comparable ecosystems where no in situ data are available.
Salt pans are unique wetland ecosystems. In the Austrian Seewinkel region, salt pans are in an increasingly vulnerable state due to groundwater drainage and heightened climatic pressures. It is crucial to model how seasonal and long-term hydrological and climatological variations affect the salt pan dynamics in Seewinkel, yet a comprehensive understanding of the driving processes is lacking. The goal of this study is to develop random forest machine learning models driven by hydrological and meteorological data that allow us to predict in early spring (March) of each year the inundation state in the subsequent summer and fall. We utilize Earth observation data from Landsat 5 (L5), 8 (L8), and 9 (L9) to derive the time series of the inundation state for 34 salt pans for the period 1984–2022. Furthermore, we demonstrate that the groundwater level observed in March is the strongest predictor of the salt pan inundation state in summer and fall. Utilizing local groundwater data yields a Matthews correlation coefficient of 0.59. Models using globally available meteorological data, either instead of or in addition to groundwater data, provide comparable results. This allows the global transfer of the approach to comparable ecosystems where no in situ data are available.
Comparative Analysis of Airborne Laser Scanning and Image Matching Point Clouds in Forestry: Enhancing Temporal Resolution using Machine Learning
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Anna Iglseder MSc, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Luftgestützte Laserscanning-Punktwolken werden landesweit zur Erstellung digitaler Oberflächenmodelle und weiterführend zur Ableitung von Informationen über Waldgebiete verwendet. Diese Aufnahmemethode gilt bis dato als state-of-the-art bei der Aufnahme, vor allem in bewaldeten Gebieten. Da diese jedoch in Österreich und Europa zwar regelmäßig, jedoch selten erstellt werden, ist die Modellierung basierend auf Airborne-Laserscanning-Daten (ALS) von Waldparametern in hoher zeitlicher Auflösung schwierig. Insbesondere die Ableitung von dynamischen Informationen wie Biomasse oder der Zustand eines Baumbestandes nach Umweltereignissen wie Unwettern oder Waldbränden beziehungsweise das Monitoring von Schutzgebieten erfordert relativ hohe zeitliche Auflösungen. Luftbilder und daraus abgeleitete bildbasierte Punktwolken bieten eine Alternative, Oberflächenmodelle zu erstellen. Diese Daten werden in kürzeren Intervallen aufgenommen, wie etwa jährlich in Wien oder flächendeckend für Österreich alle drei Jahre. Vor allem in Gebieten mit hoher Vegetationsbedeckung wie Wälder führen die beiden Modellansätze zu unterschiedlichen Höhenwerten. Das Ziel dieser Arbeit ist es, diese Unterschiede zu quantifizieren und Möglichkeiten zu eruieren, die Image Matching (IM) Modelle an die ALS Modelle anzunähern. Zur Entwicklung und Evaluierung eines solchen Prozesses zur Minimierung der Höhenunterschiede wurde ein Gebiet innerhalb des Wienerwaldes im Bereich des Lainzer Tiergartens ausgewählt. Zunächst wurden aus den gegebenen Punktwolken der beiden unterschiedlichen Verfahren topographische Modelle, wie das normalisierte digitale Oberflächenmodell (nDSM), abgeleitet und innerhalb einer eigens definierten Kronendach-Maske statistische Parameter für verschiedene Kernelgrößen des IM nDSM berechnet. Diese Parameter wurden zusammen mit der bekannten Abweichung zwischen dem ALS- und IM-Modell verwendet, um eine Random Forest Regression für die Erstellung eines Anpassungsmodells der IM an die ALS Daten zu trainieren. Die Validierung, durchgeführt anhand dreier separat definierter Gebiete, zeigt eine Annäherung der Höhenwerte an das als Referenz verwendete Laserscanning-nDSM innerhalb der mit Baumkronen überschirmten Flächen. Diese Verbesserung zeigt eine Annäherung der beiden Modelle von etwa 77% bezogen auf den Median der Abweichungen zwischen dem angepassten und dem gegebenen Modell gegenüber der Ausgangssituation. In langgezogenen Lücken im Kronendach stößt die in Python implementierte Regressionsfunktion an ihre Grenzen und ist daher nicht in der Lage, die im IM-Modell nicht erkennbaren Lücken in bewaldeten Gebieten adäquat an das Laserscanning-Modell an diesen Stellen anzupassen.
Luftgestützte Laserscanning-Punktwolken werden landesweit zur Erstellung digitaler Oberflächenmodelle und weiterführend zur Ableitung von Informationen über Waldgebiete verwendet. Diese Aufnahmemethode gilt bis dato als state-of-the-art bei der Aufnahme, vor allem in bewaldeten Gebieten. Da diese jedoch in Österreich und Europa zwar regelmäßig, jedoch selten erstellt werden, ist die Modellierung basierend auf Airborne-Laserscanning-Daten (ALS) von Waldparametern in hoher zeitlicher Auflösung schwierig. Insbesondere die Ableitung von dynamischen Informationen wie Biomasse oder der Zustand eines Baumbestandes nach Umweltereignissen wie Unwettern oder Waldbränden beziehungsweise das Monitoring von Schutzgebieten erfordert relativ hohe zeitliche Auflösungen. Luftbilder und daraus abgeleitete bildbasierte Punktwolken bieten eine Alternative, Oberflächenmodelle zu erstellen. Diese Daten werden in kürzeren Intervallen aufgenommen, wie etwa jährlich in Wien oder flächendeckend für Österreich alle drei Jahre. Vor allem in Gebieten mit hoher Vegetationsbedeckung wie Wälder führen die beiden Modellansätze zu unterschiedlichen Höhenwerten. Das Ziel dieser Arbeit ist es, diese Unterschiede zu quantifizieren und Möglichkeiten zu eruieren, die Image Matching (IM) Modelle an die ALS Modelle anzunähern. Zur Entwicklung und Evaluierung eines solchen Prozesses zur Minimierung der Höhenunterschiede wurde ein Gebiet innerhalb des Wienerwaldes im Bereich des Lainzer Tiergartens ausgewählt. Zunächst wurden aus den gegebenen Punktwolken der beiden unterschiedlichen Verfahren topographische Modelle, wie das normalisierte digitale Oberflächenmodell (nDSM), abgeleitet und innerhalb einer eigens definierten Kronendach-Maske statistische Parameter für verschiedene Kernelgrößen des IM nDSM berechnet. Diese Parameter wurden zusammen mit der bekannten Abweichung zwischen dem ALS- und IM-Modell verwendet, um eine Random Forest Regression für die Erstellung eines Anpassungsmodells der IM an die ALS Daten zu trainieren. Die Validierung, durchgeführt anhand dreier separat definierter Gebiete, zeigt eine Annäherung der Höhenwerte an das als Referenz verwendete Laserscanning-nDSM innerhalb der mit Baumkronen überschirmten Flächen. Diese Verbesserung zeigt eine Annäherung der beiden Modelle von etwa 77% bezogen auf den Median der Abweichungen zwischen dem angepassten und dem gegebenen Modell gegenüber der Ausgangssituation. In langgezogenen Lücken im Kronendach stößt die in Python implementierte Regressionsfunktion an ihre Grenzen und ist daher nicht in der Lage, die im IM-Modell nicht erkennbaren Lücken in bewaldeten Gebieten adäquat an das Laserscanning-Modell an diesen Stellen anzupassen.
Reflection point calculations and atmospheric delay corrections for PRETTY observations
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm, Dr. Zohreh Adavi MSc
Kurzfassung/Abstract
This thesis explores the PRETTY satellite mission, a CubeSat supported by the European Space Agency (ESA) designed to measure sea and ice levels using altimetry and electromagnetic signals from GNSS satellites. It was the first reflectometry mission approved by ESA. The PRETTY satellite employs GNSS-R techniques to capture both direct and reflected GNSS signals to ascertain sea surface altitude. Unlike traditional radar systems that require both transmitting and receiving antennas, GNSS-R uses already existing GNSS signals, reducing energy and space requirements. Despite initial delays due to software and radio interference, PRETTY successfully operates in orbit at 560 km altitude, utilizing a 'slant geometry' approach for signal reflection. In this thesis, the directly received signal and the one reflected off the Earth's surface were both utilized to compute the reflection point position and the tropospheric delay in the reflected signal. To calculate the specular points of PRETTY, three different methods were used: Gleason, Wagner and Klokocnik, and the Binary method. Additionally, two different versions of the Vienna Mapping Function, VMF1 and VMF3, as well as the Global Mapping Function and the ATom software package developed at TU Wien, were employed to compute tropospheric corrections. The results and performances of different methods and algorithms were extensively compared by applying various statistical techniques. In summary, the spheroidal binary approach is determined to be the most effective and efficient technique for calculating specular points. When it comes to computing tropospheric corrections, the VMF performs slightly better (especially in the extreme southern region over Antarctica and the extreme northern region over Greenland) in comparison to the ATom software package. Accumulating more data will enable cross-validation with other reflectometry and conventional altimetry missions, thus assessing the limits of PRETTY's innovative Earth observation method. Consequently, it will be interesting to observe PRETTY's performance relative to these other missions. To enhance PRETTY's accuracy, the next step in determining the reflection point might involve investigating the delay caused by the ionosphere in an electromagnetic signal. Since PRETTY is located within the ionosphere, with parts above and below it, basic single-layer models would be inadequate for calculating corrections. Models currently available, such as the NeQuick ionosphere electron density model, take into account the entire ionosphere (TEC). Hence, alternative methods would need to be explored.
This thesis explores the PRETTY satellite mission, a CubeSat supported by the European Space Agency (ESA) designed to measure sea and ice levels using altimetry and electromagnetic signals from GNSS satellites. It was the first reflectometry mission approved by ESA. The PRETTY satellite employs GNSS-R techniques to capture both direct and reflected GNSS signals to ascertain sea surface altitude. Unlike traditional radar systems that require both transmitting and receiving antennas, GNSS-R uses already existing GNSS signals, reducing energy and space requirements. Despite initial delays due to software and radio interference, PRETTY successfully operates in orbit at 560 km altitude, utilizing a 'slant geometry' approach for signal reflection. In this thesis, the directly received signal and the one reflected off the Earth's surface were both utilized to compute the reflection point position and the tropospheric delay in the reflected signal. To calculate the specular points of PRETTY, three different methods were used: Gleason, Wagner and Klokocnik, and the Binary method. Additionally, two different versions of the Vienna Mapping Function, VMF1 and VMF3, as well as the Global Mapping Function and the ATom software package developed at TU Wien, were employed to compute tropospheric corrections. The results and performances of different methods and algorithms were extensively compared by applying various statistical techniques. In summary, the spheroidal binary approach is determined to be the most effective and efficient technique for calculating specular points. When it comes to computing tropospheric corrections, the VMF performs slightly better (especially in the extreme southern region over Antarctica and the extreme northern region over Greenland) in comparison to the ATom software package. Accumulating more data will enable cross-validation with other reflectometry and conventional altimetry missions, thus assessing the limits of PRETTY's innovative Earth observation method. Consequently, it will be interesting to observe PRETTY's performance relative to these other missions. To enhance PRETTY's accuracy, the next step in determining the reflection point might involve investigating the delay caused by the ionosphere in an electromagnetic signal. Since PRETTY is located within the ionosphere, with parts above and below it, basic single-layer models would be inadequate for calculating corrections. Models currently available, such as the NeQuick ionosphere electron density model, take into account the entire ionosphere (TEC). Hence, alternative methods would need to be explored.
Modellierung der atmosphärischen Anregung der Polbewegung für das 21. Jahrhundert unter Berücksichtigung von unterschiedlichen Klimaentwicklungsszenarien
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuerin: Dipl.-Ing.in Dr.in Sigrid Böhm
Kurzfassung/Abstract
Bezogen auf den Erdkörper wird die zeitlich variable Lageveränderung der Erdachse als Polbewegung bezeichnet. Die Polbewegung zeigt sich als Schwingung mit vielen unterschiedlichen Perioden und wird zu einem erheblichen Teil von der Atmosphäre angeregt. Die Atmosphäre weist zwar verglichen mit dem Erdkörper eine sehr geringe Masse auf, unterliegt aber aufgrund der vielen Luftbewegungen, die in ihr stattfinden, großen Drehimpulsschwankungen, die sie zu einem Großteil an die feste Erde weitergibt. In der vorliegenden Arbeit wird diese Anregung der Polbewegung mithilfe von atmosphärischen Drehimpulsfunktionen modelliert und bis zum Jahr 2100 prognostiziert. Dabei wird besonders auf die zukünftige Entwicklung des Klimas aufgrund von anthropogenem Treibhausgasausstoß Bezug genommen. Die Drehimpulsfunktionen werden mit Luftdruck- und Windgeschwindigkeitsdaten ausgewertet. Diese Daten stammen aus elf unterschiedlichen Klimamodellen des Coupled Model Intercomparison Project (CMIP), die jeweils für fünf Klimaentwicklungsszenarien berechnet wurden. Das Hauptziel ist, eine Prognose für die Veränderung der atmosphärischen Anregung der Polbewegung über das 21. Jahrhundert zu berechnen und zu untersuchen, ob sich die Entwicklung der atmosphärischen Anregung zwischen den Klimaentwicklungsszenarien unterscheidet. Pro Klimaszenario wird aus den elf Modellen eine Multi-Model-Mean (MMM) Zeitreihe der atmosphärischen Drehimpulsfunktionen berechnet. Die atmosphärische Anregung der Polbewegung ist zum größten Teil von Druckveränderungen angetrieben. Weil die Ozeane Unterschiede im Oberflächendruck durch Heben und Senken der Wasseroberfläche ausgleichen, ist die Polbewegung in einer Richtung deutlich stärker gedämpft, was zu einer elliptischen Form ihrer Schwingung führt. Die am stärksten ausgeprägte Periode der atmosphärischen Anregung ist die jährliche. Die Amplitude bewegt sich zwischen 14 und 18 Millibogensekunden, was projiziert auf die Erdoberfläche etwa 50 cm entspricht. Der Vergleich der MMM Zeitreihen zeigt, dass die Amplitude der atmosphärischen Anregung stärker ansteigt, je intensiver der Treibhausgasausstoß für das Klimaszenario angenommen wird. Am Beginn der Zeitreihe unterscheiden sich die Amplituden der Szenarien nur um etwa eine Millibogensekunde, am Ende driften die Szenarien um bis zu drei Millibogensekunden auseinander. Das bedeutet, dass die Atmosphäre die Polbewegung mit fortschreitendem Klimawandel stärker anregt als bei einer treibhausgasarmen Entwicklung.
Bezogen auf den Erdkörper wird die zeitlich variable Lageveränderung der Erdachse als Polbewegung bezeichnet. Die Polbewegung zeigt sich als Schwingung mit vielen unterschiedlichen Perioden und wird zu einem erheblichen Teil von der Atmosphäre angeregt. Die Atmosphäre weist zwar verglichen mit dem Erdkörper eine sehr geringe Masse auf, unterliegt aber aufgrund der vielen Luftbewegungen, die in ihr stattfinden, großen Drehimpulsschwankungen, die sie zu einem Großteil an die feste Erde weitergibt. In der vorliegenden Arbeit wird diese Anregung der Polbewegung mithilfe von atmosphärischen Drehimpulsfunktionen modelliert und bis zum Jahr 2100 prognostiziert. Dabei wird besonders auf die zukünftige Entwicklung des Klimas aufgrund von anthropogenem Treibhausgasausstoß Bezug genommen. Die Drehimpulsfunktionen werden mit Luftdruck- und Windgeschwindigkeitsdaten ausgewertet. Diese Daten stammen aus elf unterschiedlichen Klimamodellen des Coupled Model Intercomparison Project (CMIP), die jeweils für fünf Klimaentwicklungsszenarien berechnet wurden. Das Hauptziel ist, eine Prognose für die Veränderung der atmosphärischen Anregung der Polbewegung über das 21. Jahrhundert zu berechnen und zu untersuchen, ob sich die Entwicklung der atmosphärischen Anregung zwischen den Klimaentwicklungsszenarien unterscheidet. Pro Klimaszenario wird aus den elf Modellen eine Multi-Model-Mean (MMM) Zeitreihe der atmosphärischen Drehimpulsfunktionen berechnet. Die atmosphärische Anregung der Polbewegung ist zum größten Teil von Druckveränderungen angetrieben. Weil die Ozeane Unterschiede im Oberflächendruck durch Heben und Senken der Wasseroberfläche ausgleichen, ist die Polbewegung in einer Richtung deutlich stärker gedämpft, was zu einer elliptischen Form ihrer Schwingung führt. Die am stärksten ausgeprägte Periode der atmosphärischen Anregung ist die jährliche. Die Amplitude bewegt sich zwischen 14 und 18 Millibogensekunden, was projiziert auf die Erdoberfläche etwa 50 cm entspricht. Der Vergleich der MMM Zeitreihen zeigt, dass die Amplitude der atmosphärischen Anregung stärker ansteigt, je intensiver der Treibhausgasausstoß für das Klimaszenario angenommen wird. Am Beginn der Zeitreihe unterscheiden sich die Amplituden der Szenarien nur um etwa eine Millibogensekunde, am Ende driften die Szenarien um bis zu drei Millibogensekunden auseinander. Das bedeutet, dass die Atmosphäre die Polbewegung mit fortschreitendem Klimawandel stärker anregt als bei einer treibhausgasarmen Entwicklung.
Bestimmung von Brückenvibrationen mittels bodenbasiertem Radar
Diplomarbeit: Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Durch die Überalterung von Infrastrukturbauten gewinnt die Überwachung dieser immer mehr an Bedeutung. Während des Baubooms in der zweiten Hälfte des 20. Jahrhunderts wurde der Großteil unserer heutigen Infrastruktur errichtet. Heutzutage fließen immer mehr Ressourcen in die Instandsetzung als in den Neubau von Ingenieurbauten. Die meisten Bauwerke befinden sich mittlerweile in einer kritischen Phase ihres Lebenszyklus, um diese noch einige Jahre sicher und ohne zu großen finanziellen Aufwand betreiben zu können, bedarf es einer genauen Überwachung der Infrastruktur. Als einer der Sensoren zur Überwachung kann hierfür ein Ground Based Synthetic Aperture Radar (GBSAR) verwendet werden. Zu Beginn wurden Radarsysteme meist nur an Flugzeugen und Satelliten verwendet, doch im Laufe der letzten Jahrzehnte konnten sich diese, auch auf dem Boden durchsetzen. Heutzutage werden diese Sensoren häufig im Fall von Rutschhängen oder der Überwachung von Minen verwendet und haben sich mittlerweile auch ihren Platz in der Bauwerksüberwachung gesichert. Durch die hochfrequente Messung ist es möglich, die Eigenfrequenzen zu bestimmen und so bereits Schäden zu erkennen, bevor sie mit dem freien Auge sichtbar werden. Der große Vorteil des Radars ist, dass keinerlei Betreten des Bauwerkes notwendig ist, da natürliche Reflektoren ausreichen, um die Verformung in Sichtlinie messen zu können. In dieser Arbeit werden zwei Versuche mittels IBIS-FS an unterschiedlichen Objekten durchgeführt. Der erste Versuch wurde am Messdach des IGMS mit Hilfe eines Verschiebeapparates vollzogen. Hierbei wurde ein Corner Cube auf diesem Verschiebeapparat montiert und eine Messung in zwei unterschiedlichen Distanzen ausgeführt. Beim zweiten Versuch wurden Messungen mit GBSAR an einem realen Brückenbauwerk, der Tiroler Gschnitztalbrücke, durchgeführt. An der Brücke wurden durch zwei LKWs verschiedene Lastfälle realisiert. Neben der Messung mittels GBSAR wurde auch mit einer Robotic Totalstation (RTS), einem Terrestrischer Laserscanner (TLS), einem Distributed Acoustic Sensing (DAS) und einem Beschleunigungssensor gemessen. Aus der Arbeit geht hervor, dass eine Bestimmung der Eigenfrequenz ohne die Montage eines Sensors oder Zieles möglich ist. Auch die zeitliche Auflösung und die Detektion einer Bewegung sind bereits sehr früh möglich, jedoch ist es nicht möglich die Amplitude eindeutig zu bestimmen.
Durch die Überalterung von Infrastrukturbauten gewinnt die Überwachung dieser immer mehr an Bedeutung. Während des Baubooms in der zweiten Hälfte des 20. Jahrhunderts wurde der Großteil unserer heutigen Infrastruktur errichtet. Heutzutage fließen immer mehr Ressourcen in die Instandsetzung als in den Neubau von Ingenieurbauten. Die meisten Bauwerke befinden sich mittlerweile in einer kritischen Phase ihres Lebenszyklus, um diese noch einige Jahre sicher und ohne zu großen finanziellen Aufwand betreiben zu können, bedarf es einer genauen Überwachung der Infrastruktur. Als einer der Sensoren zur Überwachung kann hierfür ein Ground Based Synthetic Aperture Radar (GBSAR) verwendet werden. Zu Beginn wurden Radarsysteme meist nur an Flugzeugen und Satelliten verwendet, doch im Laufe der letzten Jahrzehnte konnten sich diese, auch auf dem Boden durchsetzen. Heutzutage werden diese Sensoren häufig im Fall von Rutschhängen oder der Überwachung von Minen verwendet und haben sich mittlerweile auch ihren Platz in der Bauwerksüberwachung gesichert. Durch die hochfrequente Messung ist es möglich, die Eigenfrequenzen zu bestimmen und so bereits Schäden zu erkennen, bevor sie mit dem freien Auge sichtbar werden. Der große Vorteil des Radars ist, dass keinerlei Betreten des Bauwerkes notwendig ist, da natürliche Reflektoren ausreichen, um die Verformung in Sichtlinie messen zu können. In dieser Arbeit werden zwei Versuche mittels IBIS-FS an unterschiedlichen Objekten durchgeführt. Der erste Versuch wurde am Messdach des IGMS mit Hilfe eines Verschiebeapparates vollzogen. Hierbei wurde ein Corner Cube auf diesem Verschiebeapparat montiert und eine Messung in zwei unterschiedlichen Distanzen ausgeführt. Beim zweiten Versuch wurden Messungen mit GBSAR an einem realen Brückenbauwerk, der Tiroler Gschnitztalbrücke, durchgeführt. An der Brücke wurden durch zwei LKWs verschiedene Lastfälle realisiert. Neben der Messung mittels GBSAR wurde auch mit einer Robotic Totalstation (RTS), einem Terrestrischer Laserscanner (TLS), einem Distributed Acoustic Sensing (DAS) und einem Beschleunigungssensor gemessen. Aus der Arbeit geht hervor, dass eine Bestimmung der Eigenfrequenz ohne die Montage eines Sensors oder Zieles möglich ist. Auch die zeitliche Auflösung und die Detektion einer Bewegung sind bereits sehr früh möglich, jedoch ist es nicht möglich die Amplitude eindeutig zu bestimmen.
Google Decimeter Challenge: Prozessierung von kinematischen Smartphone GNSS Daten
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Ass. Prof. Dipl.-Ing. Dr. Gregor Möller, Univ.Ass. Dipl.-Ing. Dr.
Marcus Franz Wareyka-Glaner
Kurzfassung/Abstract
In dieser Arbeit wird die Prozessierung kinematischer Smartphone-GNSS-Daten mit Hilfe von Precise Point Positioning (PPP) im Rahmen der Google Smartphone Decimeter Challenge 2023 untersucht. Dabei werden verschiedene Smartphone-Modelle und unterschiedliche Prozessierungsmethoden, wie eine reine Codelösung, eine Kalman-gefilterte Codelösung, eine Doppler- und phasengeglättete Codelösung sowie eine kombinierte Code- und Phasenlösung verglichen. Als PPP-Beobachtungsmodell dient das Uncombined-Model, da es im Zusammenhang mit Smartphone-Beobachtungen einige Vorteile bietet. Ziel ist es, die gewählten Ansätze im Hinblick auf die Genauigkeit zu untersuchen und Limitierungen aufzuzeigen. Dabei werden sowohl ganze Messfahrten als auch ausgewählte Streckenabschnitte mit variierenden Umgebungsbedingungen betrachtet. Untersucht wird eine Freeway-Fahrt auf gerader Strecke, eine Freeway-Kreuzung mit Unterführungen und der Halt vor einer Ampel. Die Ergebnisse werden sowohl graphisch als auch statistisch analysiert, indem die ermittelten Lösungstrajektorien mit den Referenztrajektorien eines geodätischen Empfängers verglichen werden. Die Ergebnisse zeigen, dass die Genauigkeit der Positionsbestimmung stark von der gewählten Prozessierungsmethode und den örtlichen Gegebenheiten entlang der Route abhängt. Die Codelösung kann durch die Kalman-Filterung bei nahezu allen untersuchten Szenarien und Smartphones signifikant verbessert werden. Unter einfachen Umgebungsbedingungen kann die Genauigkeit der Lösung durch Hinzunahme der Trägerphasenbeobachtung weiter gesteigert werden. Sind die örtlichen Gegebenheiten jedoch anspruchsvoller, leidet die Trägerphasenverfolgung darunter und die Ergebnisse besitzen eine gesteigerte Abweichung. Die zuverlässigsten Ergebnisse unter komplizierten Bedingungen werden mit der Doppler-geglätteten Codelösung erzielt. Unter einfachen Bedingungen sind die phasengeglättete Codelösung und die kombinierte Code- und Phasenlösung genauer. In Kombination mit einem gut angepassten Kalman-Filter können Abweichungen von unter einem Meter erzielt werden.
In dieser Arbeit wird die Prozessierung kinematischer Smartphone-GNSS-Daten mit Hilfe von Precise Point Positioning (PPP) im Rahmen der Google Smartphone Decimeter Challenge 2023 untersucht. Dabei werden verschiedene Smartphone-Modelle und unterschiedliche Prozessierungsmethoden, wie eine reine Codelösung, eine Kalman-gefilterte Codelösung, eine Doppler- und phasengeglättete Codelösung sowie eine kombinierte Code- und Phasenlösung verglichen. Als PPP-Beobachtungsmodell dient das Uncombined-Model, da es im Zusammenhang mit Smartphone-Beobachtungen einige Vorteile bietet. Ziel ist es, die gewählten Ansätze im Hinblick auf die Genauigkeit zu untersuchen und Limitierungen aufzuzeigen. Dabei werden sowohl ganze Messfahrten als auch ausgewählte Streckenabschnitte mit variierenden Umgebungsbedingungen betrachtet. Untersucht wird eine Freeway-Fahrt auf gerader Strecke, eine Freeway-Kreuzung mit Unterführungen und der Halt vor einer Ampel. Die Ergebnisse werden sowohl graphisch als auch statistisch analysiert, indem die ermittelten Lösungstrajektorien mit den Referenztrajektorien eines geodätischen Empfängers verglichen werden. Die Ergebnisse zeigen, dass die Genauigkeit der Positionsbestimmung stark von der gewählten Prozessierungsmethode und den örtlichen Gegebenheiten entlang der Route abhängt. Die Codelösung kann durch die Kalman-Filterung bei nahezu allen untersuchten Szenarien und Smartphones signifikant verbessert werden. Unter einfachen Umgebungsbedingungen kann die Genauigkeit der Lösung durch Hinzunahme der Trägerphasenbeobachtung weiter gesteigert werden. Sind die örtlichen Gegebenheiten jedoch anspruchsvoller, leidet die Trägerphasenverfolgung darunter und die Ergebnisse besitzen eine gesteigerte Abweichung. Die zuverlässigsten Ergebnisse unter komplizierten Bedingungen werden mit der Doppler-geglätteten Codelösung erzielt. Unter einfachen Bedingungen sind die phasengeglättete Codelösung und die kombinierte Code- und Phasenlösung genauer. In Kombination mit einem gut angepassten Kalman-Filter können Abweichungen von unter einem Meter erzielt werden.
Ableitung des Bruttoinlandprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch Anwendung eines Deep Learning Modells
Institut für Geographie und Raumforschung, Universität Graz, 2023
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Der Begriff Deep Learning beschreibt eine Methode der Datenverarbeitung durch künstliche Intelligenz. Die künstliche Intelligenz ist mittlerweile im Alltag der meisten Menschen präsent, aber auch in der Wissenschaft spielt sie eine immer größer werdende Rolle. Diese Masterarbeit widmet sich der Ableitung des Bruttoinlandsprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch die Anwendung eines Deep Learning Modells. Das Ziel dieser Arbeit ist die Erstellung eines Datensatzes, mit dem ein Deep Learning Modell trainiert werden kann, um das Bruttoinlandsprodukt bestimmter Regionen in Brasilien vorherzusagen. Die Forschungsfragen, die im Zuge dieser Arbeit behandelt werden, beschäftigen sich damit, ob das Modell auf unterschiedliche Testgebiete innerhalb Brasiliens angewandt werden kann und ob ein Zusammenhang zwischen der nächtlichen Beleuchtung und der Wirtschaftskraft einer Region besteht. Der Datensatz, der zur Beantwortung der Forschungsfragen erstellt werden muss, besteht aus Referenzdaten, die in einer Auflösung von 1x1km das BIP enthalten und den Inputdaten des Modells, die in der gleichen geometrischen Auflösung akquiriert werden müssen. Die Referenzdaten des Bruttoinlandsprodukts werden durch eine einkommensbasierte Disaggregation beziehungsweise Aufschlüsselung erstellt. Die Inputdaten hingegen bestehen aus Sentinel-2 und Black Marble Satellitenbildern, sowie aus den Sentinel-2 Bandkombinationen „NDVI“, „NDBI“ und „MNDWI“. Nach der Erstellung des Datensatzes werden unterschiedlichste Parameterkombinationen für das Modell getestet, um ein optimales Ergebnis zu erzielen. Beim Deep Learning Modell handelt es sich um ein Fusionsmodell aus einem Convolutional Neural Network (CNN) und einem Multilayer Perceptron (MLP), welches vom DLR speziell für diesen Einsatz entwickelt und zur Verfügung gestellt wurde. Durch die Anwendung des Vorhersagemodells konnten Ergebnisse für 14 der bevölkerungsreichsten Städte Brasiliens berechnet werden. Darunter Sao Paulo, mit einem Bruttoinlandsprodukt von 687 035 890 brasilianischen Real (R$). Das BIP konnte mit einem Determinationskoeffizienten R² von 0,64 und einer Pearson Korrelation R von 0,8 nachmodelliert werden. Die Genauigkeit der Modellierung variiert jedoch stark zwischen den unterschiedlichen Testgebieten. Es stellt sich heraus, dass die Werte durch die Modellierung geglättet werden und somit Ausreißer in den BIP-Werten verloren gehen. Weiters werden Kacheln, die sich in ruralen Regionen befinden, zu hohe Werte zugewiesen. Der Einfluss der nächtlichen Beleuchtung auf das BIP zeigt sich in der Verbesserung der Performance des Modells durch die Einbindung der Black Marble Daten. Weiterführende Forschung in diesem Bereich wäre eine Disaggregation der BIP-Daten nach Wirtschaftssektoren unter Einbindung von Landbedeckungs- und OpenStreetMap Daten, sowie eine weitere Optimierung des Modells hinsichtlich ruraler Räume.
Der Begriff Deep Learning beschreibt eine Methode der Datenverarbeitung durch künstliche Intelligenz. Die künstliche Intelligenz ist mittlerweile im Alltag der meisten Menschen präsent, aber auch in der Wissenschaft spielt sie eine immer größer werdende Rolle. Diese Masterarbeit widmet sich der Ableitung des Bruttoinlandsprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch die Anwendung eines Deep Learning Modells. Das Ziel dieser Arbeit ist die Erstellung eines Datensatzes, mit dem ein Deep Learning Modell trainiert werden kann, um das Bruttoinlandsprodukt bestimmter Regionen in Brasilien vorherzusagen. Die Forschungsfragen, die im Zuge dieser Arbeit behandelt werden, beschäftigen sich damit, ob das Modell auf unterschiedliche Testgebiete innerhalb Brasiliens angewandt werden kann und ob ein Zusammenhang zwischen der nächtlichen Beleuchtung und der Wirtschaftskraft einer Region besteht. Der Datensatz, der zur Beantwortung der Forschungsfragen erstellt werden muss, besteht aus Referenzdaten, die in einer Auflösung von 1x1km das BIP enthalten und den Inputdaten des Modells, die in der gleichen geometrischen Auflösung akquiriert werden müssen. Die Referenzdaten des Bruttoinlandsprodukts werden durch eine einkommensbasierte Disaggregation beziehungsweise Aufschlüsselung erstellt. Die Inputdaten hingegen bestehen aus Sentinel-2 und Black Marble Satellitenbildern, sowie aus den Sentinel-2 Bandkombinationen „NDVI“, „NDBI“ und „MNDWI“. Nach der Erstellung des Datensatzes werden unterschiedlichste Parameterkombinationen für das Modell getestet, um ein optimales Ergebnis zu erzielen. Beim Deep Learning Modell handelt es sich um ein Fusionsmodell aus einem Convolutional Neural Network (CNN) und einem Multilayer Perceptron (MLP), welches vom DLR speziell für diesen Einsatz entwickelt und zur Verfügung gestellt wurde. Durch die Anwendung des Vorhersagemodells konnten Ergebnisse für 14 der bevölkerungsreichsten Städte Brasiliens berechnet werden. Darunter Sao Paulo, mit einem Bruttoinlandsprodukt von 687 035 890 brasilianischen Real (R$). Das BIP konnte mit einem Determinationskoeffizienten R² von 0,64 und einer Pearson Korrelation R von 0,8 nachmodelliert werden. Die Genauigkeit der Modellierung variiert jedoch stark zwischen den unterschiedlichen Testgebieten. Es stellt sich heraus, dass die Werte durch die Modellierung geglättet werden und somit Ausreißer in den BIP-Werten verloren gehen. Weiters werden Kacheln, die sich in ruralen Regionen befinden, zu hohe Werte zugewiesen. Der Einfluss der nächtlichen Beleuchtung auf das BIP zeigt sich in der Verbesserung der Performance des Modells durch die Einbindung der Black Marble Daten. Weiterführende Forschung in diesem Bereich wäre eine Disaggregation der BIP-Daten nach Wirtschaftssektoren unter Einbindung von Landbedeckungs- und OpenStreetMap Daten, sowie eine weitere Optimierung des Modells hinsichtlich ruraler Räume.
Practical Evaluation of the Leica Geosystems AP20 AutoPole
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Die Erweiterung klassischer Vermessungsinstrumente zu Totalstationen hat sowohl deren Anwendungsbereich als auch die Nutzerbasis erweitert. Innovative Technologien verbessern die Effizienz und potenzielle Genauigkeit von Messdaten und machen diese Multi-Sensor-Systeme zum State-of-the-Art in der modernen Vermessung. Allerdings wirft die erhöhte technische Komplexität auch Fragen zur erreichbaren Genauigkeit und den Grenzen solcher Systeme im praktischen Einsatz auf. Der im Jahr 2022 von Leica Geosystems eingeführte AP20 AutoPole ist ein Beispiel für diesen technologischen Fortschritt. Er ermöglicht die neigungskompensierte Bestimmung von Koordinaten, erweitert die Einsatzmöglichkeiten und vereinfacht gleichzeitig Arbeitsabläufe. Diese Arbeit bewertet das Gesamtsystem des AP20 AutoPoles, beginnend mit einer theoretischen Übersicht seiner Komponenten und der Methodik. Die Untersuchung vergleicht den AP20 AutoPole mit herkömmlichen geodätischen Methoden zur Punktmessung und betrachtet im Anschluss den Initialisierungsprozess des Systems. Verschiedene Bewegungsmuster und deren Auswirkungen auf die Initialisierung werden analysiert. Aufbauend darauf werden schließlich in einem praxisnahen Szenario die Erkenntnisse bewertet.
Die Erweiterung klassischer Vermessungsinstrumente zu Totalstationen hat sowohl deren Anwendungsbereich als auch die Nutzerbasis erweitert. Innovative Technologien verbessern die Effizienz und potenzielle Genauigkeit von Messdaten und machen diese Multi-Sensor-Systeme zum State-of-the-Art in der modernen Vermessung. Allerdings wirft die erhöhte technische Komplexität auch Fragen zur erreichbaren Genauigkeit und den Grenzen solcher Systeme im praktischen Einsatz auf. Der im Jahr 2022 von Leica Geosystems eingeführte AP20 AutoPole ist ein Beispiel für diesen technologischen Fortschritt. Er ermöglicht die neigungskompensierte Bestimmung von Koordinaten, erweitert die Einsatzmöglichkeiten und vereinfacht gleichzeitig Arbeitsabläufe. Diese Arbeit bewertet das Gesamtsystem des AP20 AutoPoles, beginnend mit einer theoretischen Übersicht seiner Komponenten und der Methodik. Die Untersuchung vergleicht den AP20 AutoPole mit herkömmlichen geodätischen Methoden zur Punktmessung und betrachtet im Anschluss den Initialisierungsprozess des Systems. Verschiedene Bewegungsmuster und deren Auswirkungen auf die Initialisierung werden analysiert. Aufbauend darauf werden schließlich in einem praxisnahen Szenario die Erkenntnisse bewertet.
Monitoring of the Pasterze based on multi-temporal high-resolution aerial images in the period 2018-2022
Institut für Geographie und Raumforschung, Universität Graz, 2024
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Die Pasterze, der größte Gletscher Österreichs und der Ostalpen, wird seit 1879 regelmäßig vermessen. Ein wesentlicher Bestandteil war hierbei stets die Erfassung der Gletscherfließgeschwindigkeit, gemessen an fix definierten Punkten. Seit 2015 wurde jedoch keine umfassende Vermessung der Oberflächendynamik der gesamten Pasterzenzunge durchgeführt. Diese Masterarbeit befasst sich daher mit der Analyse der Gletscherfließgeschwindigkeit und Oberflächendynamik der gesamten Pasterzenzunge basierend auf einen multi-temporalen hochauflösenden Luftbilddatensatz für die Jahre 2018 bis 2022. Gleichzeitig wird damit auch die Eignung des zur Verfügung gestellten Datensatzes für das Gletschermonitoring bewiesen. Als Grundlage für die Berechnung der Gletscherfließgeschwindigkeit werden exakt aufeinander ausgerichtete Orthophotos und Digitale Höhenmodelle prozessiert. Dabei wird das Konzept des multi-temporalen Bündelblockausgleichs in Agisoft Metashape angewandt. In weiterer Folge wird darauf basierend mit dem IMCORR Algorithmus die Gletscherfließbewegung berechnet. Um hierbei ein möglichst präzises Ergebnis zu erhalten, werden die IMCORR Ergebnisse durch ein im Rahmen dieser Arbeit erstelltes Python-Skript gefiltert. Der Filterprozess folgt einem räumlich-statistischen Ansatz, der es ermöglicht, einen Großteil der Ausreißer und falschen Messungen automatisch zu entfernen. Diese Fehlmessungen sind auf die sehr herausfordernde und teilweise sehr homogene Gletscheroberfläche zurückzuführen. Basierend auf den gefilterten Daten werden die Gletscherfließgeschwindigkeit und -richtung berechnet und dargestellt. Zusätzlich wird die Fließgeschwindigkeit in Beziehung zum jährlichen Höhenverlust gesetzt, um ein besseres Verständnis der jährlichen Abnahme des Gletscherflusses zu ermöglichen. Die Ergebnisse dieser Arbeit präsentieren die jährliche Gletscherbewegung, die entsprechende Fließrichtung und die jährliche Höhenänderung für den Zeitraum 2018 bis 2022. Es wird festgestellt, dass die Gletscherfließgeschwindigkeit jährlich abnimmt, begleitet von einem gleichzeitigen Rückgang des jährlichen Höhenverlusts. Die mittlere Gletscherfließgeschwindigkeit der Pasterzenzunge beträgt für den Zeitraum 2018-2019 5.42 m a-1, während für den Zeitraum 2021-2022 nur noch 3.53 m a-1 festgestellt werden. Die durchschnittliche Höhenänderung beträgt im Zeitraum 2018-2019 -6.05 m, während im Zeitraum 2021-2022 eine Höhenänderung von lediglich -4.55 m festgestellt wird.
Die Pasterze, der größte Gletscher Österreichs und der Ostalpen, wird seit 1879 regelmäßig vermessen. Ein wesentlicher Bestandteil war hierbei stets die Erfassung der Gletscherfließgeschwindigkeit, gemessen an fix definierten Punkten. Seit 2015 wurde jedoch keine umfassende Vermessung der Oberflächendynamik der gesamten Pasterzenzunge durchgeführt. Diese Masterarbeit befasst sich daher mit der Analyse der Gletscherfließgeschwindigkeit und Oberflächendynamik der gesamten Pasterzenzunge basierend auf einen multi-temporalen hochauflösenden Luftbilddatensatz für die Jahre 2018 bis 2022. Gleichzeitig wird damit auch die Eignung des zur Verfügung gestellten Datensatzes für das Gletschermonitoring bewiesen. Als Grundlage für die Berechnung der Gletscherfließgeschwindigkeit werden exakt aufeinander ausgerichtete Orthophotos und Digitale Höhenmodelle prozessiert. Dabei wird das Konzept des multi-temporalen Bündelblockausgleichs in Agisoft Metashape angewandt. In weiterer Folge wird darauf basierend mit dem IMCORR Algorithmus die Gletscherfließbewegung berechnet. Um hierbei ein möglichst präzises Ergebnis zu erhalten, werden die IMCORR Ergebnisse durch ein im Rahmen dieser Arbeit erstelltes Python-Skript gefiltert. Der Filterprozess folgt einem räumlich-statistischen Ansatz, der es ermöglicht, einen Großteil der Ausreißer und falschen Messungen automatisch zu entfernen. Diese Fehlmessungen sind auf die sehr herausfordernde und teilweise sehr homogene Gletscheroberfläche zurückzuführen. Basierend auf den gefilterten Daten werden die Gletscherfließgeschwindigkeit und -richtung berechnet und dargestellt. Zusätzlich wird die Fließgeschwindigkeit in Beziehung zum jährlichen Höhenverlust gesetzt, um ein besseres Verständnis der jährlichen Abnahme des Gletscherflusses zu ermöglichen. Die Ergebnisse dieser Arbeit präsentieren die jährliche Gletscherbewegung, die entsprechende Fließrichtung und die jährliche Höhenänderung für den Zeitraum 2018 bis 2022. Es wird festgestellt, dass die Gletscherfließgeschwindigkeit jährlich abnimmt, begleitet von einem gleichzeitigen Rückgang des jährlichen Höhenverlusts. Die mittlere Gletscherfließgeschwindigkeit der Pasterzenzunge beträgt für den Zeitraum 2018-2019 5.42 m a-1, während für den Zeitraum 2021-2022 nur noch 3.53 m a-1 festgestellt werden. Die durchschnittliche Höhenänderung beträgt im Zeitraum 2018-2019 -6.05 m, während im Zeitraum 2021-2022 eine Höhenänderung von lediglich -4.55 m festgestellt wird.
Quantifizierung von Vegetationsänderungen als Folge von Thermokarst mit Methoden der Fernerkundung
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
Die arktischen Permafrostgebiete befinden sich in einem schnellen Wandel und sind stark von der Klimaveränderung betroffen. Methoden der Fernerkundung können dabei helfen, diese Landbedeckungsveränderungen besser zu verstehen und zu überwachen. Gemeinsame Merkmale arktischer Permafrostgebiete sind Thermokarstseen und verschwindende Seen. Sie spielen eine wichtige Rolle für die geomorphologische, hydrologische und ökologische Entwicklung arktischer Gebiete. Die Veränderung des Lebensraumes wirkt sich auch auf die lokale Artenvielfalt aus. Die Vertiefung unseres Verständnisses der Prozesse im Zusammenhang mit Entwässerungsereignissen und entwässerten Einzugsgebieten in der arktischen Umwelt ist für zahlreiche Anwendungen (z.B. Landschaftsmodelle) von entscheidender Bedeutung. Diese Arbeit fokusiert auf das Gebiet der Halbinsel Jamal im Norden Russlands, Sibirien. Jamal wird in eine diskontinuierliche und eine kontinuierliche Permafrost-Tundra-Region eingeteilt werden. Jamal ist von verschiedenen Tundra-Vegetationsgemeinschaften, Tauwasserseen, Feuchtgebieten und Flussauen bedeckt. Entwässerte Tauseebecken unterscheiden sich zwischen den Regionen in ihrer Häufigkeit und Größe. Für diese Arbeit wurden mehrere entwässerte Seebecken auf der Jamal-Halbinsel manuell ausgewählt. Dabei wurde ein Nord-Süd-Klimagradient und verschiedene Entwicklungsstadien der entwässerten Seebecken berücksichtigt. Einige trockengelegte Seebecken liegen in der Nähe von Infrastruktur. Menschliche Aktivitäten auf Jamal umfassen nicht nur Gasinfrastrukturprojekte, sondern auch die Rentierhaltung dient als wichtigste traditionelle Landnutzungsform. Entwässerte Seebecken und damit verbundene Landschaftsdynamiken wie Veränderungen der Oberflächenwasserfläche und der Vegetationsbedeckung können aus dem Weltraum überwacht und mit verschiedenen Fernerkundungsindizes beschrieben werden. Die Indizes können aus mehreren Satellitenbildern auf Jahres- und Zwischenjahresebene berechnet werden. Im Detail werden die ausgewählten entwässerten Seebecken auf dem Höhepunkt der Vegetationsperiode (zwischen dem 1. Juli und dem 31. August) und der zwischenjährlichen Landbedeckungsdynamik von 2016 bis heute bewertet. In dieser Arbeit werden multispektrale Bilddaten von Sentinel-2- und Landsat-8-Satelliten verwendet und eine Reihe verschiedener Landbedeckungsmetriken berechnet, wie z.B. den Normalized Difference Vegetation Index (NDVI) und die Tasseled Cap (TC) - Indizes. Die TC Indizes wurden an den entsprechenden Satelliten angepasst und die spektralen Indikatoren für "Brightness", "Greenness" und "Wetness" berechnet. Die Ergebnisse wurden anhand der verschiedenen Standorte verglichen, wobei der Schwerpunkt auf standortspezifischen Faktoren (wie relatives Beckenalter, hydrologische Konnektivität) lag. Darüber hinaus wurden Vergleiche mit Landbedeckungsklassifizierungen durchgeführt, die im Rahmen der ESA-Projekte DUE GlobPermafrost und Permafrost cci entwickelt wurden und auf der Fusion von Sentinel-1- und 2-Daten mithilfe maschinellen Lernens basieren. Diese Ergebnisse sollen helfen das Verständnis der Begrünung entwässerter Seen und der damit verbundenen Veränderung von Flora und Fauna und der einhergehenden Änderung von Biodiversität voranzutreiben.
Die arktischen Permafrostgebiete befinden sich in einem schnellen Wandel und sind stark von der Klimaveränderung betroffen. Methoden der Fernerkundung können dabei helfen, diese Landbedeckungsveränderungen besser zu verstehen und zu überwachen. Gemeinsame Merkmale arktischer Permafrostgebiete sind Thermokarstseen und verschwindende Seen. Sie spielen eine wichtige Rolle für die geomorphologische, hydrologische und ökologische Entwicklung arktischer Gebiete. Die Veränderung des Lebensraumes wirkt sich auch auf die lokale Artenvielfalt aus. Die Vertiefung unseres Verständnisses der Prozesse im Zusammenhang mit Entwässerungsereignissen und entwässerten Einzugsgebieten in der arktischen Umwelt ist für zahlreiche Anwendungen (z.B. Landschaftsmodelle) von entscheidender Bedeutung. Diese Arbeit fokusiert auf das Gebiet der Halbinsel Jamal im Norden Russlands, Sibirien. Jamal wird in eine diskontinuierliche und eine kontinuierliche Permafrost-Tundra-Region eingeteilt werden. Jamal ist von verschiedenen Tundra-Vegetationsgemeinschaften, Tauwasserseen, Feuchtgebieten und Flussauen bedeckt. Entwässerte Tauseebecken unterscheiden sich zwischen den Regionen in ihrer Häufigkeit und Größe. Für diese Arbeit wurden mehrere entwässerte Seebecken auf der Jamal-Halbinsel manuell ausgewählt. Dabei wurde ein Nord-Süd-Klimagradient und verschiedene Entwicklungsstadien der entwässerten Seebecken berücksichtigt. Einige trockengelegte Seebecken liegen in der Nähe von Infrastruktur. Menschliche Aktivitäten auf Jamal umfassen nicht nur Gasinfrastrukturprojekte, sondern auch die Rentierhaltung dient als wichtigste traditionelle Landnutzungsform. Entwässerte Seebecken und damit verbundene Landschaftsdynamiken wie Veränderungen der Oberflächenwasserfläche und der Vegetationsbedeckung können aus dem Weltraum überwacht und mit verschiedenen Fernerkundungsindizes beschrieben werden. Die Indizes können aus mehreren Satellitenbildern auf Jahres- und Zwischenjahresebene berechnet werden. Im Detail werden die ausgewählten entwässerten Seebecken auf dem Höhepunkt der Vegetationsperiode (zwischen dem 1. Juli und dem 31. August) und der zwischenjährlichen Landbedeckungsdynamik von 2016 bis heute bewertet. In dieser Arbeit werden multispektrale Bilddaten von Sentinel-2- und Landsat-8-Satelliten verwendet und eine Reihe verschiedener Landbedeckungsmetriken berechnet, wie z.B. den Normalized Difference Vegetation Index (NDVI) und die Tasseled Cap (TC) - Indizes. Die TC Indizes wurden an den entsprechenden Satelliten angepasst und die spektralen Indikatoren für "Brightness", "Greenness" und "Wetness" berechnet. Die Ergebnisse wurden anhand der verschiedenen Standorte verglichen, wobei der Schwerpunkt auf standortspezifischen Faktoren (wie relatives Beckenalter, hydrologische Konnektivität) lag. Darüber hinaus wurden Vergleiche mit Landbedeckungsklassifizierungen durchgeführt, die im Rahmen der ESA-Projekte DUE GlobPermafrost und Permafrost cci entwickelt wurden und auf der Fusion von Sentinel-1- und 2-Daten mithilfe maschinellen Lernens basieren. Diese Ergebnisse sollen helfen das Verständnis der Begrünung entwässerter Seen und der damit verbundenen Veränderung von Flora und Fauna und der einhergehenden Änderung von Biodiversität voranzutreiben.