- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2025
Abschlussarbeiten 2025
Continental assimilation of satellite-based soil moisture and vegetation conditions in the context of land-atmosphere coupling
Department für Geodäsie und Geoinformation, Forschungsbereich Klima- und Umweltfernerkundung, Technische Universität Wien; Department of Earth and Environmental Sciences, Catholic University Leuven, 2025
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Prof. Gabrielle De Lannoy PhD
Kurzfassung/Abstract
The current wealth of microwave satellite observations and model simulations gives access to global estimates of soil moisture and vegetation. However, both sources of information are of insufficient quality to draw unequivocal conclusions about the short- to long-term variability in the water and carbon cycles over land. CONSOLIDATION will, for the first time, assimilate multiple available microwave-based soil moisture and vegetation products into a land surface model with dynamic vegetation to obtain long-term (1980 onwards), consistent, gap-free and high-resolution (0.1 degree, 3hourly) global land surface estimates and their uncertainties. The resulting climate data records of soil moisture and vegetation biomass will outperform the currently available long-term satellite-only records, because diurnal details will be included and physical constraints between soil moisture and vegetation and all other land surface variables will be ensured. The new datasets will also have better skill than global model-only estimates, which by themselves unsatisfactorily characterize the soil water - plant growth nexus. In short, the project will exploit the synergy of multiple data sources by combining them via data assimilation and by leveraging the leading expertise of two partners on land surface data assimilation (KU Leuven) and satellite-based climate data records (TU Wien).
The current wealth of microwave satellite observations and model simulations gives access to global estimates of soil moisture and vegetation. However, both sources of information are of insufficient quality to draw unequivocal conclusions about the short- to long-term variability in the water and carbon cycles over land. CONSOLIDATION will, for the first time, assimilate multiple available microwave-based soil moisture and vegetation products into a land surface model with dynamic vegetation to obtain long-term (1980 onwards), consistent, gap-free and high-resolution (0.1 degree, 3hourly) global land surface estimates and their uncertainties. The resulting climate data records of soil moisture and vegetation biomass will outperform the currently available long-term satellite-only records, because diurnal details will be included and physical constraints between soil moisture and vegetation and all other land surface variables will be ensured. The new datasets will also have better skill than global model-only estimates, which by themselves unsatisfactorily characterize the soil water - plant growth nexus. In short, the project will exploit the synergy of multiple data sources by combining them via data assimilation and by leveraging the leading expertise of two partners on land surface data assimilation (KU Leuven) and satellite-based climate data records (TU Wien).
Rethinking field-scale geophysics: Quantifying hydraulic conductivity with electrical conductivity
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Climate change significantly impacts landslide development as well as groundwater availability, necessitating improved mitigation strategies and field-scale methods to characterize subsurface hydraulic parameters. This dissertation explores the potential of geophysical methods, particularly induced polarization (IP) and electromagnetic induction (EMI), for enhancing landslide characterization and understanding subsurface hydrological processes. The research addresses the limitations of traditional applied methods and investigates the application of spectral IP (SIP) and EMI in field-scale studies. It also examines the challenges of upscaling laboratory-derived relationships to field conditions and proposes the use of pedotransfer functions (PTFs) within geophysical imaging frameworks as a potential alternative. Moreover, the use of deep learning networks as an alternative to deterministic inversion of geophysical data, with a particular focus on EMI, is investigated. Overall, this dissertation aims to advance geophysical techniques for quantifying subsurface properties, in particular hydraulic conductivity, ultimately contributing to more effective landslide management and hydrogeological catchment characterization, as required for groundwater modeling.
Climate change significantly impacts landslide development as well as groundwater availability, necessitating improved mitigation strategies and field-scale methods to characterize subsurface hydraulic parameters. This dissertation explores the potential of geophysical methods, particularly induced polarization (IP) and electromagnetic induction (EMI), for enhancing landslide characterization and understanding subsurface hydrological processes. The research addresses the limitations of traditional applied methods and investigates the application of spectral IP (SIP) and EMI in field-scale studies. It also examines the challenges of upscaling laboratory-derived relationships to field conditions and proposes the use of pedotransfer functions (PTFs) within geophysical imaging frameworks as a potential alternative. Moreover, the use of deep learning networks as an alternative to deterministic inversion of geophysical data, with a particular focus on EMI, is investigated. Overall, this dissertation aims to advance geophysical techniques for quantifying subsurface properties, in particular hydraulic conductivity, ultimately contributing to more effective landslide management and hydrogeological catchment characterization, as required for groundwater modeling.
Improving Flood Monitoring Capabilities using Synthetic Aperture Radar Data Cubes
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Flooding poses a significant challenge across much of the world. It ranks as a leading natural disaster in terms of damage and the number of people affected. Effective management of floods requires rapid or Near Real-Time (NRT) mapping, primarily using satellite-based earth observation data. Synthetic Aperture Radar (SAR) data is considered the most suitable for flood mapping operations due to its ability to operate in all weather conditions, both day and night, and its skill at distinguishing between open water and land. The Sentinel-1 SAR system has unrivalled temporal and spatial coverage and thus has been tapped for various flood mapping operations. To better harness the vast Sentinel-1 data holdings, most researchers use data cube solutions. Notable in this regard is the TU Wien flood mapping algorithm. This algorithm is based on Bayes Inference that leverages a Sentinel-1 data cube to define the no-flood probability distribution of pixels via harmonic modelling and flood probability from historical water samples reckoned per incidence angle. It contributes to the Copernicus Emergency Management System's (CEMS) Global Flood Mapping (GFM) ensemble workflow being operated in NRT. While working well in most cases, it has issues such as underestimation in flood transition areas and overestimation in agricultural areas. Further, limitations due to SAR-based flood retrievals necessitate the application of exclusion masks. However, over reliance on exclusion masks also presents an issue. As the TU Wien algorithm's novel Bayesian Inference formulation presents opportunities for improvement, this thesis aims further to improve it in the context of global NRT operations. To do this, we systematically analysed the algorithm performance and Bayesian Inference components for improvement. First, we compared the performance of change detection algorithms in the northern Philippines as a study area. We tested four well-known change detection algorithms that rely on time-series SAR inputs against reference data from Sentinel Asia and optical imagery. We tested parameterizations such as no-flood estimates or references and threshold determination methods. The TU Wien algorithm was also varied by checking the effect of its low sensitivity masking. Our results suggest that the Bayesian Inference used for the TU Wien algorithm is superior to the other tested algorithms due to its stable performance regardless of parameterization. We then proposed an alternative to non-informative priors using Height Above Nearest Drainage (HAND) to derive spatially varying priors. The HAND data is used as an input to a two-parameter sigmoid function to generate the priors. We optimized and tested this new formulation of priors on five test events, comparing the HAND-based prior versus the original non-informed priors using CEMS rapid mapping results. Overall, the proposed HAND prior improved the flood mapping results by reducing false negatives, with the added benefit of removing dependence on an external HAND exclusion mask. Further, we explored the use of the exponential filter to estimate a no-flood reference probability and replace the harmonic model. This filter is a promising alternative because it accounts for the most recent backscatter observations, coupled with its recursive formulation, which makes it viable for NRT computation. We compared this filter and its parameterizations for flood mapping performance on four flood events in Europe covered by CEMS rapid activation and three sites in Asia covered by Sentinel Asia flood mapping activations. We then proposed a novel time series assessment of false positive rates to avert the pitfall of overfitting for flooded scenarios. From the time-series assessments, we were able to analyse the causes of overestimation at no-flood scenarios by referencing ERA-5 data. We found that well-known causes of low backscatter, such as frost, dry soil conditions, and lesser-studied agriculture effects, trigger higher FPR at scale. In all cases, the exponential filter showed reduced FP. However, improvement to the exponential filter method is needed as prolonged floods in an area result in poorly estimated no-food references and, thus, poor flood mapping performance. We concluded that the exponential filter is an excellent alternative to the harmonic model. In conclusion, we have established the TU Wien algorithm using the Sentinel-1 data cube as a robust method compared with other change detection algorithms. Further, we have shown improvements in the TU Wien algorithm from incremental changes to its Bayesian Inference framework. These improvements are being (and will be applied) to the TU Wien workflow under the CEMS GFM, thus impacting a true fully automated near-real-time global flood mapping operation.
Flooding poses a significant challenge across much of the world. It ranks as a leading natural disaster in terms of damage and the number of people affected. Effective management of floods requires rapid or Near Real-Time (NRT) mapping, primarily using satellite-based earth observation data. Synthetic Aperture Radar (SAR) data is considered the most suitable for flood mapping operations due to its ability to operate in all weather conditions, both day and night, and its skill at distinguishing between open water and land. The Sentinel-1 SAR system has unrivalled temporal and spatial coverage and thus has been tapped for various flood mapping operations. To better harness the vast Sentinel-1 data holdings, most researchers use data cube solutions. Notable in this regard is the TU Wien flood mapping algorithm. This algorithm is based on Bayes Inference that leverages a Sentinel-1 data cube to define the no-flood probability distribution of pixels via harmonic modelling and flood probability from historical water samples reckoned per incidence angle. It contributes to the Copernicus Emergency Management System's (CEMS) Global Flood Mapping (GFM) ensemble workflow being operated in NRT. While working well in most cases, it has issues such as underestimation in flood transition areas and overestimation in agricultural areas. Further, limitations due to SAR-based flood retrievals necessitate the application of exclusion masks. However, over reliance on exclusion masks also presents an issue. As the TU Wien algorithm's novel Bayesian Inference formulation presents opportunities for improvement, this thesis aims further to improve it in the context of global NRT operations. To do this, we systematically analysed the algorithm performance and Bayesian Inference components for improvement. First, we compared the performance of change detection algorithms in the northern Philippines as a study area. We tested four well-known change detection algorithms that rely on time-series SAR inputs against reference data from Sentinel Asia and optical imagery. We tested parameterizations such as no-flood estimates or references and threshold determination methods. The TU Wien algorithm was also varied by checking the effect of its low sensitivity masking. Our results suggest that the Bayesian Inference used for the TU Wien algorithm is superior to the other tested algorithms due to its stable performance regardless of parameterization. We then proposed an alternative to non-informative priors using Height Above Nearest Drainage (HAND) to derive spatially varying priors. The HAND data is used as an input to a two-parameter sigmoid function to generate the priors. We optimized and tested this new formulation of priors on five test events, comparing the HAND-based prior versus the original non-informed priors using CEMS rapid mapping results. Overall, the proposed HAND prior improved the flood mapping results by reducing false negatives, with the added benefit of removing dependence on an external HAND exclusion mask. Further, we explored the use of the exponential filter to estimate a no-flood reference probability and replace the harmonic model. This filter is a promising alternative because it accounts for the most recent backscatter observations, coupled with its recursive formulation, which makes it viable for NRT computation. We compared this filter and its parameterizations for flood mapping performance on four flood events in Europe covered by CEMS rapid activation and three sites in Asia covered by Sentinel Asia flood mapping activations. We then proposed a novel time series assessment of false positive rates to avert the pitfall of overfitting for flooded scenarios. From the time-series assessments, we were able to analyse the causes of overestimation at no-flood scenarios by referencing ERA-5 data. We found that well-known causes of low backscatter, such as frost, dry soil conditions, and lesser-studied agriculture effects, trigger higher FPR at scale. In all cases, the exponential filter showed reduced FP. However, improvement to the exponential filter method is needed as prolonged floods in an area result in poorly estimated no-food references and, thus, poor flood mapping performance. We concluded that the exponential filter is an excellent alternative to the harmonic model. In conclusion, we have established the TU Wien algorithm using the Sentinel-1 data cube as a robust method compared with other change detection algorithms. Further, we have shown improvements in the TU Wien algorithm from incremental changes to its Bayesian Inference framework. These improvements are being (and will be applied) to the TU Wien workflow under the CEMS GFM, thus impacting a true fully automated near-real-time global flood mapping operation.
Opportunities with VLBI transmitters on Galileo satellites
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Geodätische Very Long Baseline Interferometry (VLBI) ist ein geodätisches Weltraumverfahren, welches auf der gleichzeitigen Beobachtung von Signalen extragalaktischer Radioquellen (meist Quasare) mit mehreren über die Erde verteilten Radioteleskopen basiert. VLBI ist das einzige Verfahren zur Bestimmung der Orientierung der Erde im Weltraum und zur Realisierung des himmelsfesten Referenzrahmens. Sie trägt auch zur Bestimmung des terrestrischen Referenzrahmens bei, der aus Beobachtungen verschiedener geodätischer Weltraumverfahren kombiniert wird. Derzeit beobachten VLBI Stationen ausschließlich natürliche, Milliarden von Lichtjahren entfernte, Radioquellen. Zukünftig sollen auch Satelliten mit speziellen VLBI Transmittern ausgestattet werden, um auch diese in VLBI Beobachtungen einzubeziehen. In dieser Arbeit werden die Möglichkeiten von VLBI Beobachtungen zu VLBI Transmittern auf Galileo Satelliten untersucht. Die Studien basieren auf Monte-Carlo-Simulationen unter der Annahme, dass ein oder mehrere Galileo Satelliten mit einem VLBI Transmitter ausgestattet sind. Eine Studie untersucht die Bestimmung der Koordinaten der VLBI Stationen aus VLBI Beobachtungen zu Galileo Satelliten mit dem Ziel, die Verbindung zwischen dynamischen und kinematischen Referenzrahmen zu bewerten. Die Ergebnisse zeigen, dass mindestens zwei, besser drei Galileo Satelliten mit einem VLBI Transmitter ausgestattet sein sollten, wobei die besten Ergebnisse erzielt werden, wenn alle Satelliten mit VLBI Transmittern in derselben Bahn platziert sind. Die Stationskoordinaten können mit einer Genauigkeit im Zentimeterbereich oder besser aus 24-stündigen VLBI Sessions bestimmt werden. Dies unterstreicht die Möglichkeiten und Chancen mit dem neuen Beobachtungstyp. Weiters wird die Sensitivität von VLBI Beobachtungen zu Satelliten gegenüber der Satellitenposition in einem lokalen Satellitenbahnsystem und des Erdrotationswinkels mit Hilfe von Dilution of Precision (DOP) Faktoren untersucht. Diese Faktoren können bei der Planung von VLBI Beobachtungen als Kriterien zur Auswahl des am besten geeigneten Scan für die Bestimmung relevanter Parameter dienen. Schließlich wird die Bestimmung der Umlaufbahn eines Galileo Satelliten unter Verwendung von VLBI Beobachtungen zu Galileo Satelliten untersucht. Dies erfolgt einerseits durch die Bestimmung der kinematischen Position des Satelliten im lokalen Satellitenbahnsystem für kurze Bahnbögen und andererseits durch die Bestimmung der sechs Keplerelemente. Die Rektaszension des aufsteigenden Knotens n ist in diesem Zusammenhang besonders relevant, da sie direkt aus VLBI Beobachtungen zu Satelliten bestimmt werden kann. Die Ergebnisse zeigen, dass die absolute Orientierung der Satellitenbahn um die z-Achse, welche n entspricht, mit einer Genauigkeit von 40 μas bestimmt werden kann. Dies entspricht einer Bogenlänge von 0.6 cm in der Höhe der Galileo Bahn. Die Ergebnisse der Arbeit zeigen, dass die Ausstattung eines oder mehrerer Galileo Satelliten der nächsten Generation mit einem VLBI Transmitter die Möglichkeiten der Weltraumgeodäsie deutlich verbessern und erweitern wird. Außerdem sind die Untersuchungen und Erfahrungen aus dieser Arbeit sehr wertvoll für die kommende Genesis Mission der Europäischen Weltraumorganisation, welche mit einem VLBI Transmitter ausgestattet sein wird.
Geodätische Very Long Baseline Interferometry (VLBI) ist ein geodätisches Weltraumverfahren, welches auf der gleichzeitigen Beobachtung von Signalen extragalaktischer Radioquellen (meist Quasare) mit mehreren über die Erde verteilten Radioteleskopen basiert. VLBI ist das einzige Verfahren zur Bestimmung der Orientierung der Erde im Weltraum und zur Realisierung des himmelsfesten Referenzrahmens. Sie trägt auch zur Bestimmung des terrestrischen Referenzrahmens bei, der aus Beobachtungen verschiedener geodätischer Weltraumverfahren kombiniert wird. Derzeit beobachten VLBI Stationen ausschließlich natürliche, Milliarden von Lichtjahren entfernte, Radioquellen. Zukünftig sollen auch Satelliten mit speziellen VLBI Transmittern ausgestattet werden, um auch diese in VLBI Beobachtungen einzubeziehen. In dieser Arbeit werden die Möglichkeiten von VLBI Beobachtungen zu VLBI Transmittern auf Galileo Satelliten untersucht. Die Studien basieren auf Monte-Carlo-Simulationen unter der Annahme, dass ein oder mehrere Galileo Satelliten mit einem VLBI Transmitter ausgestattet sind. Eine Studie untersucht die Bestimmung der Koordinaten der VLBI Stationen aus VLBI Beobachtungen zu Galileo Satelliten mit dem Ziel, die Verbindung zwischen dynamischen und kinematischen Referenzrahmen zu bewerten. Die Ergebnisse zeigen, dass mindestens zwei, besser drei Galileo Satelliten mit einem VLBI Transmitter ausgestattet sein sollten, wobei die besten Ergebnisse erzielt werden, wenn alle Satelliten mit VLBI Transmittern in derselben Bahn platziert sind. Die Stationskoordinaten können mit einer Genauigkeit im Zentimeterbereich oder besser aus 24-stündigen VLBI Sessions bestimmt werden. Dies unterstreicht die Möglichkeiten und Chancen mit dem neuen Beobachtungstyp. Weiters wird die Sensitivität von VLBI Beobachtungen zu Satelliten gegenüber der Satellitenposition in einem lokalen Satellitenbahnsystem und des Erdrotationswinkels mit Hilfe von Dilution of Precision (DOP) Faktoren untersucht. Diese Faktoren können bei der Planung von VLBI Beobachtungen als Kriterien zur Auswahl des am besten geeigneten Scan für die Bestimmung relevanter Parameter dienen. Schließlich wird die Bestimmung der Umlaufbahn eines Galileo Satelliten unter Verwendung von VLBI Beobachtungen zu Galileo Satelliten untersucht. Dies erfolgt einerseits durch die Bestimmung der kinematischen Position des Satelliten im lokalen Satellitenbahnsystem für kurze Bahnbögen und andererseits durch die Bestimmung der sechs Keplerelemente. Die Rektaszension des aufsteigenden Knotens n ist in diesem Zusammenhang besonders relevant, da sie direkt aus VLBI Beobachtungen zu Satelliten bestimmt werden kann. Die Ergebnisse zeigen, dass die absolute Orientierung der Satellitenbahn um die z-Achse, welche n entspricht, mit einer Genauigkeit von 40 μas bestimmt werden kann. Dies entspricht einer Bogenlänge von 0.6 cm in der Höhe der Galileo Bahn. Die Ergebnisse der Arbeit zeigen, dass die Ausstattung eines oder mehrerer Galileo Satelliten der nächsten Generation mit einem VLBI Transmitter die Möglichkeiten der Weltraumgeodäsie deutlich verbessern und erweitern wird. Außerdem sind die Untersuchungen und Erfahrungen aus dieser Arbeit sehr wertvoll für die kommende Genesis Mission der Europäischen Weltraumorganisation, welche mit einem VLBI Transmitter ausgestattet sein wird.
Kombinierte Oberflächen- und Untergrundprospektion mittels Punktwolken für geophysikalische archäologische Untersuchungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dipl.-Geophys. Immo Trinks PhD
Kurzfassung/Abstract
The integration of diverse point cloud sources – such as Terrestrial Laserscanning (TLS), Image Based Modelling (IBM), and Ground Penetrating Radar (GPR) – enables the creation of comprehensive 3D models of archaeological sites, imaging both surface and subsurface structures. Each data type captures distinct information: TLS provides detailed geometry, photogrammetry offers texture and overall structure, and GPR reveals subsurface features. Merging these data sets into a unified point cloud improves the visualisation and facilitates the topographic correction of GPR data, GPR anomaly detection, and digital twin creation, which are essential for archaeological research and cultural heritage preservation. The proposed workflow optimises and georeferences TLS data while ensuring global consistency across multiple scans. Global reference is established by using Global Navigation Satellite System (GNSS) data of distinct features and airborne drone measurements. Comparisons to transform parameters using the geo-located IBM data are conducted and consequently preferred due to visual consistency. The resulting integrated 3D models not only enhance the understanding of the investigated cultural heritage sites but also improve the accuracy of subsurface and surface mapping by correlating overlapping structures from different sensing modalities. This project also demonstrates an automated framework, in which all data are treated as point clouds and merged following precise referencing. A dedicated C++ tool facilitates the optimisation process, and the integration is performed within a Geographic Information System (GIS) framework called Nubigon, suited for the handling of very large data sets. This type of system is pivotal in ensuring that both high-resolution surface details and subsurface anomalies are accurately represented, thereby supporting more effective conservation and research efforts. The custom developed tool is set to be published as open source software, therefore facilitating free access and the possibility of contribution by a broader user base. This encourages transparency and accessibility of software used for the specific purpose of aligning multiple point clouds and optimising the underlying pose graph. GPR data revealed subsurface structures and features within the manor grounds. Anomalies caused by buried walls and foundations of a suspected orangery were discovered beneath the meadow of a terrace adjacent to the building complex. These 3D point cloud data sets and contained structures have been jointly visualized using Nubigon, which overlays IBM surface data with GPR subsurface data to provide a comprehensive representation.
The integration of diverse point cloud sources – such as Terrestrial Laserscanning (TLS), Image Based Modelling (IBM), and Ground Penetrating Radar (GPR) – enables the creation of comprehensive 3D models of archaeological sites, imaging both surface and subsurface structures. Each data type captures distinct information: TLS provides detailed geometry, photogrammetry offers texture and overall structure, and GPR reveals subsurface features. Merging these data sets into a unified point cloud improves the visualisation and facilitates the topographic correction of GPR data, GPR anomaly detection, and digital twin creation, which are essential for archaeological research and cultural heritage preservation. The proposed workflow optimises and georeferences TLS data while ensuring global consistency across multiple scans. Global reference is established by using Global Navigation Satellite System (GNSS) data of distinct features and airborne drone measurements. Comparisons to transform parameters using the geo-located IBM data are conducted and consequently preferred due to visual consistency. The resulting integrated 3D models not only enhance the understanding of the investigated cultural heritage sites but also improve the accuracy of subsurface and surface mapping by correlating overlapping structures from different sensing modalities. This project also demonstrates an automated framework, in which all data are treated as point clouds and merged following precise referencing. A dedicated C++ tool facilitates the optimisation process, and the integration is performed within a Geographic Information System (GIS) framework called Nubigon, suited for the handling of very large data sets. This type of system is pivotal in ensuring that both high-resolution surface details and subsurface anomalies are accurately represented, thereby supporting more effective conservation and research efforts. The custom developed tool is set to be published as open source software, therefore facilitating free access and the possibility of contribution by a broader user base. This encourages transparency and accessibility of software used for the specific purpose of aligning multiple point clouds and optimising the underlying pose graph. GPR data revealed subsurface structures and features within the manor grounds. Anomalies caused by buried walls and foundations of a suspected orangery were discovered beneath the meadow of a terrace adjacent to the building complex. These 3D point cloud data sets and contained structures have been jointly visualized using Nubigon, which overlays IBM surface data with GPR subsurface data to provide a comprehensive representation.
Entwicklung einer Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Das Ziel dieser Arbeit ist es, eine Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning (TLS) zu entwickeln. Im Vergleich zur klassischen punktbasierten Deformationsanalyse ist die flächenhafte Deformationsanalyse jedoch noch weniger verbreitet und im Hinblick auf die Qualitätsinformationen für die Ergebnisse mit mehr Einschränkungen verbunden, weil das stochastische Modell bei TLS-Messungen noch unvollständig ist. Die Vorgehensweise soll also methodisch korrekt zeigen, wie die Überwachung einer Steinsatzwand mit TLS trotzdem gelingt. Dafür werden nach dem Stand der Technik und Forschung die methodischen Grundlagen für die Vorgehensweise erarbeitet und für die Struktur der Arbeit, die vier Phasen der Vorgehensweise definiert. In Phase 1 wird die Überwachungsaufgabe analysiert und geplant, in Phase 2 das Referenzsystem mit einem geodätischen Netz realisiert, in der Phase 3 die TLS-Messungen und die Auswertungen vorgenommen und in der Phase 4 schließlich die TLS-Deformationsanalyse durchgeführt. Als Teil der Vorgehensweise wird vorab das TLS-Instrument in Anlehnung an die ISO 17123-9:2018 (E) 2018 geprüft und für einsatztauglich befunden. Dann folgt der erste praktische Entwicklungsschritt der Vorgehensweise bei der Überwachung von einzelnen Steinen unter Laborbedingungen. Als Kontrolle wird eine punkbasierte Deformationsanalyse durchgeführt. Beim Vergleich von M3C2, Feature-Matching und virtuellen Targets, stellt sich die letztgenannte Methode mit ihrer Robustheit und einer hohen Qualität der Ergebnisse, die am besten für die Vorgehensweise geeignete Methode heraus. Auf diesen Erkenntnissen aufbauend gelingt dann auch die Überwachung einer Steinsatzwand mit TLS am Kitzsteinhorn. Die Aufgabe konnte klar definiert, ein Referenzsystem als Referenzrahmen realisiert und eine neue Nullepoche mit TLS-Messungen geschaffen werden. Auf dieser Basis wurden vergangene Epochen dann erfolgreich mit einer Stabilbereichsmethode in das stabile Referenzsystem transformiert. Daraufhin gelang die TLS-Deformationsanalyse mit virtuellen Targets und es konnten maßgebliche Bewegungen, wenn auch ohne zugehörige Qualitätsangaben, festgestellt werden. Dabei wurde außerdem die Gletscherschmelze als mögliche Ursache für die Bewegungen identifiziert. Die entwickelte Vorgehensweise zur Überwachung von Steinsatzwänden mit TLS wird schließlich in einem Flussdiagramm dargestellt und die einzelnen Prozessschritte darin beschrieben. Außerdem wird eine objektive Bewertung der Vorgehensweise anhand von methodischen Elementen der Ingenieurgeodäsie vorgenommen.
Das Ziel dieser Arbeit ist es, eine Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning (TLS) zu entwickeln. Im Vergleich zur klassischen punktbasierten Deformationsanalyse ist die flächenhafte Deformationsanalyse jedoch noch weniger verbreitet und im Hinblick auf die Qualitätsinformationen für die Ergebnisse mit mehr Einschränkungen verbunden, weil das stochastische Modell bei TLS-Messungen noch unvollständig ist. Die Vorgehensweise soll also methodisch korrekt zeigen, wie die Überwachung einer Steinsatzwand mit TLS trotzdem gelingt. Dafür werden nach dem Stand der Technik und Forschung die methodischen Grundlagen für die Vorgehensweise erarbeitet und für die Struktur der Arbeit, die vier Phasen der Vorgehensweise definiert. In Phase 1 wird die Überwachungsaufgabe analysiert und geplant, in Phase 2 das Referenzsystem mit einem geodätischen Netz realisiert, in der Phase 3 die TLS-Messungen und die Auswertungen vorgenommen und in der Phase 4 schließlich die TLS-Deformationsanalyse durchgeführt. Als Teil der Vorgehensweise wird vorab das TLS-Instrument in Anlehnung an die ISO 17123-9:2018 (E) 2018 geprüft und für einsatztauglich befunden. Dann folgt der erste praktische Entwicklungsschritt der Vorgehensweise bei der Überwachung von einzelnen Steinen unter Laborbedingungen. Als Kontrolle wird eine punkbasierte Deformationsanalyse durchgeführt. Beim Vergleich von M3C2, Feature-Matching und virtuellen Targets, stellt sich die letztgenannte Methode mit ihrer Robustheit und einer hohen Qualität der Ergebnisse, die am besten für die Vorgehensweise geeignete Methode heraus. Auf diesen Erkenntnissen aufbauend gelingt dann auch die Überwachung einer Steinsatzwand mit TLS am Kitzsteinhorn. Die Aufgabe konnte klar definiert, ein Referenzsystem als Referenzrahmen realisiert und eine neue Nullepoche mit TLS-Messungen geschaffen werden. Auf dieser Basis wurden vergangene Epochen dann erfolgreich mit einer Stabilbereichsmethode in das stabile Referenzsystem transformiert. Daraufhin gelang die TLS-Deformationsanalyse mit virtuellen Targets und es konnten maßgebliche Bewegungen, wenn auch ohne zugehörige Qualitätsangaben, festgestellt werden. Dabei wurde außerdem die Gletscherschmelze als mögliche Ursache für die Bewegungen identifiziert. Die entwickelte Vorgehensweise zur Überwachung von Steinsatzwänden mit TLS wird schließlich in einem Flussdiagramm dargestellt und die einzelnen Prozessschritte darin beschrieben. Außerdem wird eine objektive Bewertung der Vorgehensweise anhand von methodischen Elementen der Ingenieurgeodäsie vorgenommen.
Assessment of deadwood biomass for the biosphere reserve Rohrach
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Totholz spielt eine entscheidende Rolle in Waldökosystemen, da es die Biodiversität fördert, den Nährstoffkreislauf unterstützt und Kohlenstoff speichert. Trotz seiner Bedeutung bleiben die automatisierte Erkennung und Messung von Totholz eine Herausforderung, insbesondere in naturbelassenen Wäldern mit dichter Vegetation und überlappenden Stämmen. In dieser Arbeit werden vier Methoden zur Erfassung von Totholz im Naturwaldreservat Rohrach verglichen: manuelle Feldmessungen, "Line Interset" Methode, eine bereits entwickelte UAV-basierte Laserscanning-Methode (ULS) und ein neu entwickelter Algorithmus für terrestrisches Laserscanning (TLS). Der TLS-Ansatz nutzt hochauflösende Punktwolken, um liegendes Totholz zu detektieren. Dabei werden potenzielle Stämme anhand geometrischer Merkmale wie Linearität, Oberflächenorientierung und räumlicher Kontinuität identifiziert. Anschließend werden Polynomfunktionen genutzt, um Durchmesser, Länge und Volumen der Segmente zu berechnen. Drei Probeflächen mit einem Radius von 12 Metern wurden untersucht, um die Methoden unter unterschiedlichen Waldbedingungen zu evaluieren. Die ULS-Methode erwies sich als effizient für großflächige Kartierungen, war jedoch weniger effektiv bei der Erkennung kleinerer oder verdeckter Stämme. Der TLS-Ansatz lieferte detailliertere Messungen, hatte jedoch Schwierigkeiten in Gebieten mit sehr dichtem Unterwuchs und überlappenden Strukturen. Manuelle Messungen, obwohl präzise, waren zeitaufwändig und für größere Flächen weniger praktikabel. Die Ergebnisse zeigen, dass jede Methode ihre eigenen Stärken und Schwächen hat. Eine Kombination von ULS- und TLS-Daten könnte eine umfassendere Lösung bieten, indem ULS für großflächige Erfassungen und TLS für detaillierte Analysen genutzt wird. Diese Arbeit leistet einen Beitrag zur Weiterentwicklung von Methoden zur Totholzerkennung und liefert wertvolle Einblicke für das Monitoring von Biodiversität und das Waldmanagement.
Totholz spielt eine entscheidende Rolle in Waldökosystemen, da es die Biodiversität fördert, den Nährstoffkreislauf unterstützt und Kohlenstoff speichert. Trotz seiner Bedeutung bleiben die automatisierte Erkennung und Messung von Totholz eine Herausforderung, insbesondere in naturbelassenen Wäldern mit dichter Vegetation und überlappenden Stämmen. In dieser Arbeit werden vier Methoden zur Erfassung von Totholz im Naturwaldreservat Rohrach verglichen: manuelle Feldmessungen, "Line Interset" Methode, eine bereits entwickelte UAV-basierte Laserscanning-Methode (ULS) und ein neu entwickelter Algorithmus für terrestrisches Laserscanning (TLS). Der TLS-Ansatz nutzt hochauflösende Punktwolken, um liegendes Totholz zu detektieren. Dabei werden potenzielle Stämme anhand geometrischer Merkmale wie Linearität, Oberflächenorientierung und räumlicher Kontinuität identifiziert. Anschließend werden Polynomfunktionen genutzt, um Durchmesser, Länge und Volumen der Segmente zu berechnen. Drei Probeflächen mit einem Radius von 12 Metern wurden untersucht, um die Methoden unter unterschiedlichen Waldbedingungen zu evaluieren. Die ULS-Methode erwies sich als effizient für großflächige Kartierungen, war jedoch weniger effektiv bei der Erkennung kleinerer oder verdeckter Stämme. Der TLS-Ansatz lieferte detailliertere Messungen, hatte jedoch Schwierigkeiten in Gebieten mit sehr dichtem Unterwuchs und überlappenden Strukturen. Manuelle Messungen, obwohl präzise, waren zeitaufwändig und für größere Flächen weniger praktikabel. Die Ergebnisse zeigen, dass jede Methode ihre eigenen Stärken und Schwächen hat. Eine Kombination von ULS- und TLS-Daten könnte eine umfassendere Lösung bieten, indem ULS für großflächige Erfassungen und TLS für detaillierte Analysen genutzt wird. Diese Arbeit leistet einen Beitrag zur Weiterentwicklung von Methoden zur Totholzerkennung und liefert wertvolle Einblicke für das Monitoring von Biodiversität und das Waldmanagement.
Analyse der Litoralzonen von Thermokarstseen durch kombinierte Nutzung von SAR- und multispektralen Satellitendaten
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
Thermokarstseen, welche in Permafrostgebieten häufig vorkommen, spielen eine wichtige Rolle bei den Treibhausgasemissionen. Die Methanemissionen werden durch das Ausmaß der Makrophytenvegetation in der Litoralzone eines Sees beeinflusst. In dieser Studie werden jene Faktoren untersucht, welche die Ausdehnung der Makrophyten in Thermokarstseen beeinflussen. Der Schwerpunkt liegt dabei auf Fernerkundungstechniken, einschließlich der Verwendung von Synthetic Aperture Radar-Daten von Sentinel-1 und optischen Multispektraldaten von Sentinel-2. Im Mittelpunkt der Analyse steht der Circumarctic Landcover Units (CALU) Datensatz, der eine Einheit für flaches, mit Makrophyten bewachsenes Wasser enthält. Zwei modifizierte Versionen der CALU wurden erstellt, indem die ursprünglich verwendeten Daten mit Sentinel-1- und -2-Daten kombiniert wurden, die zu unterschiedlichen Zeitpunkten erfasst wurden. Die geänderten Versionen wurden mit der ursprünglichen CALU verglichen, um die Auswirkungen der unterschiedlichen Erfassung auf die Makrophytenklassifizierung zu bewerten. Der Anteil der flachen Fläche pro See wurde aus einem Zwischenprodukt der CALU-Erstellung abgeleitet. Die geänderten Versionen der CALU zeigten ein geringeres Vorkommen von Makrophyten als die ursprüngliche Version. Die wichtigsten Merkmale, von denen angenommen wurde, dass sie das Auftreten von Makrophyten beeinflussen, wurden mit dem Anteil der Makrophyten pro See verglichen. Dazu zählen die Seefläche, der Anteil der Litoralzone am See, Breiten- und Längengrad, der Anteil an bodennahem Eis und die Entfernung zur Küste. Die Ergebnisse der Analyse zeigten, dass der Makrophytenanteil am häufigsten mit der Seefläche und dem Anteil des Flachwassers zusammenhing, wobei die höchste Makrophytenbedeckung in Seen mit einer Fläche zwischen 1500 und 20.000 m2 mit einer durchschnittlichen Bedeckung von 50 % gefunden wurde. Obwohl die Menge des grundfesten Eises pro See auch von der Flachwasserfläche pro See abhängt, konnte kein direkter Zusammenhang mit dem Anteil der Makrophyten festgestellt werden. Ein Random-Forest-Modell, das auf alle Untersuchungsgebiete angewandt wurde, zeigte starke Vorhersagefähigkeiten für die Seefläche und den Anteil an flachem Wasser, wobei die Gesamtfläche des Sees als wichtigster Prädiktor ermittelt wurde. Bei der Anwendung auf einzelne Untersuchungsgebiete zeigte das Modell eine regionale Variabilität, wobei die kreuzvalidierten R2-Werte in den einzelnen Gebieten durchgängig höher waren als beim verallgemeinerten Modell. Dies deutet darauf hin, dass das verallgemeinerte Modell die lokalen Umweltfaktoren nicht vollständig berücksichtigen konnte. Die Ergebnisse dieser Studie tragen zu einem besseren Verständnis der treibenden Kräfte hinter der Verteilung von Makrophyten in arktischen Thermokarstseen bei. Sie unterstreichen das Potenzial der Fernerkundung zur Schätzung der Makrophytenvegetation und zeigen die Anwendbarkeit von Random Forest-Modellen für solche Studien.
Thermokarstseen, welche in Permafrostgebieten häufig vorkommen, spielen eine wichtige Rolle bei den Treibhausgasemissionen. Die Methanemissionen werden durch das Ausmaß der Makrophytenvegetation in der Litoralzone eines Sees beeinflusst. In dieser Studie werden jene Faktoren untersucht, welche die Ausdehnung der Makrophyten in Thermokarstseen beeinflussen. Der Schwerpunkt liegt dabei auf Fernerkundungstechniken, einschließlich der Verwendung von Synthetic Aperture Radar-Daten von Sentinel-1 und optischen Multispektraldaten von Sentinel-2. Im Mittelpunkt der Analyse steht der Circumarctic Landcover Units (CALU) Datensatz, der eine Einheit für flaches, mit Makrophyten bewachsenes Wasser enthält. Zwei modifizierte Versionen der CALU wurden erstellt, indem die ursprünglich verwendeten Daten mit Sentinel-1- und -2-Daten kombiniert wurden, die zu unterschiedlichen Zeitpunkten erfasst wurden. Die geänderten Versionen wurden mit der ursprünglichen CALU verglichen, um die Auswirkungen der unterschiedlichen Erfassung auf die Makrophytenklassifizierung zu bewerten. Der Anteil der flachen Fläche pro See wurde aus einem Zwischenprodukt der CALU-Erstellung abgeleitet. Die geänderten Versionen der CALU zeigten ein geringeres Vorkommen von Makrophyten als die ursprüngliche Version. Die wichtigsten Merkmale, von denen angenommen wurde, dass sie das Auftreten von Makrophyten beeinflussen, wurden mit dem Anteil der Makrophyten pro See verglichen. Dazu zählen die Seefläche, der Anteil der Litoralzone am See, Breiten- und Längengrad, der Anteil an bodennahem Eis und die Entfernung zur Küste. Die Ergebnisse der Analyse zeigten, dass der Makrophytenanteil am häufigsten mit der Seefläche und dem Anteil des Flachwassers zusammenhing, wobei die höchste Makrophytenbedeckung in Seen mit einer Fläche zwischen 1500 und 20.000 m2 mit einer durchschnittlichen Bedeckung von 50 % gefunden wurde. Obwohl die Menge des grundfesten Eises pro See auch von der Flachwasserfläche pro See abhängt, konnte kein direkter Zusammenhang mit dem Anteil der Makrophyten festgestellt werden. Ein Random-Forest-Modell, das auf alle Untersuchungsgebiete angewandt wurde, zeigte starke Vorhersagefähigkeiten für die Seefläche und den Anteil an flachem Wasser, wobei die Gesamtfläche des Sees als wichtigster Prädiktor ermittelt wurde. Bei der Anwendung auf einzelne Untersuchungsgebiete zeigte das Modell eine regionale Variabilität, wobei die kreuzvalidierten R2-Werte in den einzelnen Gebieten durchgängig höher waren als beim verallgemeinerten Modell. Dies deutet darauf hin, dass das verallgemeinerte Modell die lokalen Umweltfaktoren nicht vollständig berücksichtigen konnte. Die Ergebnisse dieser Studie tragen zu einem besseren Verständnis der treibenden Kräfte hinter der Verteilung von Makrophyten in arktischen Thermokarstseen bei. Sie unterstreichen das Potenzial der Fernerkundung zur Schätzung der Makrophytenvegetation und zeigen die Anwendbarkeit von Random Forest-Modellen für solche Studien.
Groundwater exploration at the Hochschwab using Magnetotelluric: an investigation of open-source approaches for data processing
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Die Magnetotellurik (MT) ist eine passive geophysikalische Methode zur Messung von Schwankungen der natürlichen elektrischen und magnetischen Felder der Erde. Zeitreihen des magnetischen Feldes werden in drei orthogonalen Komponenten (x, y, z) mit Induktionsspulen gemessen, während Zeitreihen des elektrischen Feldes in zwei orthogonalen Komponenten (x, y) mit nicht polarisierbaren Elektroden gemessen werden. Durch die Prozessierung der gemessenen Zeitreihen können Informationen über die Verteilung des spezifischen elektrischen Widerstandes im Untergrund gewonnen werden. Diese Auswertung wird üblicherweise mit kommerzieller Software durchgeführt. Kommerzielle Softwares sind jedoch oft teuer und können nicht modifiziert werden, so dass sie für den akademischen Gebrauch nicht geeignet sind. Das Ziel dieser Arbeit ist es, einen Open-Source-Workflow für die MT- Zeitreihenprozessierung zu finden, der für Lehr- und Forschungsaktivitäten an der TU Wien geeignet ist. Zu diesem Zweck evaluiere ich verschiedene Open-Source- Codes, ihre Vorteile und Grenzen. Diese Arbeit gliedert sich in drei Hauptteile: (1) Literaturrecherche zu den verfügbaren Open-Source-Algorithmen, (2) die Verwendung und Evaluierung der verschiedenen Bibliotheken und der Vergleich der erzielten Ergebnisse mit einer kommerziellen Software, und (3) Erfassung, Verarbeitung und Interpretation von exemplarischen Datensätzen. Zur Illustration der Methodik für die Visualisierung und Verarbeitung der Daten wurden zwischen 2022 und 2024 MT-Sondierungen an drei verschiedenen Standorten in Österreich durchgeführt: dem Nationalpark Neusiedler See-Seewinkel, dem Hydrologischen Freilandlabor (HOAL) in Petzenkirchen und dem Hochschwab-Massiv. Zunächst untersuche ich MT-Sondierungen im Seewinkel, einem Standort mit vernachlässigbarer Infrastruktur, und im HOAL, einer urbanen Umgebung, um die Quellen anthropogenen Rauschs zu identifizieren und zu verstehen. Zweitens analysiere ich natürliche Signalschwankungen im AMT- Deadband während Tag und Nacht, um ihren Einfluss auf die Datenqualität zu bewerten. Drittens wende ich den vorgeschlagenen Workflow auf vier Sondierungen am Hochschwab an, um den spezifischen elektrischen Widerstand des Untergrundes bis zu einer Tiefe von ca. 3 km zu bestimmen und so die Tiefe des Grundwasserspiegels abzugrenzen. Die Ergebnisse verdeutlichen, wie wichtig es ist, die MT-Rohdaten sowohl im Zeit- als auch im Frequenzbereich zu untersuchen, um die Quellen von Rauschen, Ausreißern und fehlerhaften Messungen zu erkennen und zu verstehen. In dieser Hinsicht konnte ich im Rahmen dieser Arbeit auch die Protokolle für die Feldarbeit verbessern, um MT-Daten mit höherer Qualität zu sammeln. Anthropogenes Rauschen beeinträchtigt die Qualität der MT-Daten und die Interpretation der Ergebnisse erheblich. Die Notch-Filterung von Stromleitungs- (50 Hz) und Eisenbahnsignalen (16,7 Hz) und deren harmonischen Signalen sowie die Festlegung von Schwellenwerten für die Kohärenz verbessern die Impedanzschätzung erheblich. Für eine beispielhafte MT-Sondierung am Hochschwab wurden numerische Modelle mit dem im Rahmen dieser Arbeit implementierten Vorwärtslöser getestet. Der Grundwasserspiegel wurde in einer Tiefe von etwa 1200 m mit einem spezifischen elektrischen Widerstand des Aquifers von 300-400 Ωm geschätzt. Diese Ergebnisse zeigen die Anwendbarkeit der MT-Methode und des vorgeschlagenen Open-Source-workflows für die Grundwasserexploration. Es sind jedoch weitere Analysen, einschließlich Dimensionalitätsanalyse, Topografiekorrektur und Inversion, erforderlich, um die Grundwassergeometrie vollständig zu verstehen und die Tiefe des Grundwasserspiegels genau zu schätzen.
Die Magnetotellurik (MT) ist eine passive geophysikalische Methode zur Messung von Schwankungen der natürlichen elektrischen und magnetischen Felder der Erde. Zeitreihen des magnetischen Feldes werden in drei orthogonalen Komponenten (x, y, z) mit Induktionsspulen gemessen, während Zeitreihen des elektrischen Feldes in zwei orthogonalen Komponenten (x, y) mit nicht polarisierbaren Elektroden gemessen werden. Durch die Prozessierung der gemessenen Zeitreihen können Informationen über die Verteilung des spezifischen elektrischen Widerstandes im Untergrund gewonnen werden. Diese Auswertung wird üblicherweise mit kommerzieller Software durchgeführt. Kommerzielle Softwares sind jedoch oft teuer und können nicht modifiziert werden, so dass sie für den akademischen Gebrauch nicht geeignet sind. Das Ziel dieser Arbeit ist es, einen Open-Source-Workflow für die MT- Zeitreihenprozessierung zu finden, der für Lehr- und Forschungsaktivitäten an der TU Wien geeignet ist. Zu diesem Zweck evaluiere ich verschiedene Open-Source- Codes, ihre Vorteile und Grenzen. Diese Arbeit gliedert sich in drei Hauptteile: (1) Literaturrecherche zu den verfügbaren Open-Source-Algorithmen, (2) die Verwendung und Evaluierung der verschiedenen Bibliotheken und der Vergleich der erzielten Ergebnisse mit einer kommerziellen Software, und (3) Erfassung, Verarbeitung und Interpretation von exemplarischen Datensätzen. Zur Illustration der Methodik für die Visualisierung und Verarbeitung der Daten wurden zwischen 2022 und 2024 MT-Sondierungen an drei verschiedenen Standorten in Österreich durchgeführt: dem Nationalpark Neusiedler See-Seewinkel, dem Hydrologischen Freilandlabor (HOAL) in Petzenkirchen und dem Hochschwab-Massiv. Zunächst untersuche ich MT-Sondierungen im Seewinkel, einem Standort mit vernachlässigbarer Infrastruktur, und im HOAL, einer urbanen Umgebung, um die Quellen anthropogenen Rauschs zu identifizieren und zu verstehen. Zweitens analysiere ich natürliche Signalschwankungen im AMT- Deadband während Tag und Nacht, um ihren Einfluss auf die Datenqualität zu bewerten. Drittens wende ich den vorgeschlagenen Workflow auf vier Sondierungen am Hochschwab an, um den spezifischen elektrischen Widerstand des Untergrundes bis zu einer Tiefe von ca. 3 km zu bestimmen und so die Tiefe des Grundwasserspiegels abzugrenzen. Die Ergebnisse verdeutlichen, wie wichtig es ist, die MT-Rohdaten sowohl im Zeit- als auch im Frequenzbereich zu untersuchen, um die Quellen von Rauschen, Ausreißern und fehlerhaften Messungen zu erkennen und zu verstehen. In dieser Hinsicht konnte ich im Rahmen dieser Arbeit auch die Protokolle für die Feldarbeit verbessern, um MT-Daten mit höherer Qualität zu sammeln. Anthropogenes Rauschen beeinträchtigt die Qualität der MT-Daten und die Interpretation der Ergebnisse erheblich. Die Notch-Filterung von Stromleitungs- (50 Hz) und Eisenbahnsignalen (16,7 Hz) und deren harmonischen Signalen sowie die Festlegung von Schwellenwerten für die Kohärenz verbessern die Impedanzschätzung erheblich. Für eine beispielhafte MT-Sondierung am Hochschwab wurden numerische Modelle mit dem im Rahmen dieser Arbeit implementierten Vorwärtslöser getestet. Der Grundwasserspiegel wurde in einer Tiefe von etwa 1200 m mit einem spezifischen elektrischen Widerstand des Aquifers von 300-400 Ωm geschätzt. Diese Ergebnisse zeigen die Anwendbarkeit der MT-Methode und des vorgeschlagenen Open-Source-workflows für die Grundwasserexploration. Es sind jedoch weitere Analysen, einschließlich Dimensionalitätsanalyse, Topografiekorrektur und Inversion, erforderlich, um die Grundwassergeometrie vollständig zu verstehen und die Tiefe des Grundwasserspiegels genau zu schätzen.
Wellenhöhenbestimmung mittels Low-Cost-Inertialsensorik
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Philipp Berglez
Kurzfassung/Abstract
Boote bewirken durch den von ihnen verursachten Wellenschlag einen nicht unerheblichen Energieeintrag in die Uferzone eines Gewässers. Am Wörthersee soll im Rahmen des interdisziplinären Forschungsprojekts WAMOS (Wave Monitoring System based on GNSS/INS Integration) untersucht werden, wie sich Bootswellen auf die Wasserpflanzenvegetation und damit auf die Wasserqualität auswirken. Diese Masterarbeit ist eingebettet in das WAMOS-Forschungsprojekt und geht der Frage nach, ob ein auf Low-Cost-Inertialsensorik basierendes Bojenmesssystem geeignet ist, die Wellenhöhen dieser Bootswellen zu bestimmen. Das eigens hierzu konzipierte Messsystem kombiniert Bojen mit je einer inertialen Messeinheit und ist in der Lage, die Orientierung und Vertikalbewegung des Sensors zu erfassen. Dazu wurde ein Strapdown-Algorithmus entwickelt, dem ein drehwinkelbasierter Attitude-Kalman-Filter zugrunde liegt. Durch regressionsbasierte Trendbereinigung ist der Algorithmus imstande, Wellenhöhen aus der Integration der inertialen Messdaten mit einer adäquaten Genauigkeit zu bestimmen. Als Verifikation der Wellenhöhenbestimmung wurden die aus der Strapdown-Integration resultierenden Wellenhöhen mit den Referenzdaten aus dem Tracking einer Boje mittels einer landseitig stationierten Totalstation verglichen. Hieraus zeigten sich Übereinstimmungen im Subzentimeterbereich sowohl in der reinen Wasserspiegelauslenkung als auch bei den daraus detektierten Wellenhöhen. Mit den prozessierten Wellenhöhen werden Auswertungen zum Bootsverkehr vorgenommen. Aus der Zeitsynchronisation der Messdaten mehrerer Messbojen eines Bojentestfeldes werden Aussagen über die Wellenausbreitung und Wellenrichtung getroffen. Gegenstand der Untersuchungen sind auch spektrale Analysen mithilfe der Wavelet-Transformation, welche die bootsinduzierten Wellen im Zeit-Frequenz-Bereich sichtbar machen können. Dabei heben sich die Wellen einzelner Bootsfahrten als Wellenpakete mit einer vom nieder- in den höherfrequenten Spektralbereich wandernden Leistungsdichte aus dem Umgebungsrauschen ab. Darüber hinaus werden Ansätze vorgestellt, wie die Trennung von boots- und windinduzierten Wellen realisiert werden kann. Damit leistet diese Arbeit einen Beitrag dazu, das Verständnis über die ufernahen Wellenprozesse am Wörthersee zu vertiefen und deren Auswirkungen auf das Gewässerökosystem besser zu verstehen.
Boote bewirken durch den von ihnen verursachten Wellenschlag einen nicht unerheblichen Energieeintrag in die Uferzone eines Gewässers. Am Wörthersee soll im Rahmen des interdisziplinären Forschungsprojekts WAMOS (Wave Monitoring System based on GNSS/INS Integration) untersucht werden, wie sich Bootswellen auf die Wasserpflanzenvegetation und damit auf die Wasserqualität auswirken. Diese Masterarbeit ist eingebettet in das WAMOS-Forschungsprojekt und geht der Frage nach, ob ein auf Low-Cost-Inertialsensorik basierendes Bojenmesssystem geeignet ist, die Wellenhöhen dieser Bootswellen zu bestimmen. Das eigens hierzu konzipierte Messsystem kombiniert Bojen mit je einer inertialen Messeinheit und ist in der Lage, die Orientierung und Vertikalbewegung des Sensors zu erfassen. Dazu wurde ein Strapdown-Algorithmus entwickelt, dem ein drehwinkelbasierter Attitude-Kalman-Filter zugrunde liegt. Durch regressionsbasierte Trendbereinigung ist der Algorithmus imstande, Wellenhöhen aus der Integration der inertialen Messdaten mit einer adäquaten Genauigkeit zu bestimmen. Als Verifikation der Wellenhöhenbestimmung wurden die aus der Strapdown-Integration resultierenden Wellenhöhen mit den Referenzdaten aus dem Tracking einer Boje mittels einer landseitig stationierten Totalstation verglichen. Hieraus zeigten sich Übereinstimmungen im Subzentimeterbereich sowohl in der reinen Wasserspiegelauslenkung als auch bei den daraus detektierten Wellenhöhen. Mit den prozessierten Wellenhöhen werden Auswertungen zum Bootsverkehr vorgenommen. Aus der Zeitsynchronisation der Messdaten mehrerer Messbojen eines Bojentestfeldes werden Aussagen über die Wellenausbreitung und Wellenrichtung getroffen. Gegenstand der Untersuchungen sind auch spektrale Analysen mithilfe der Wavelet-Transformation, welche die bootsinduzierten Wellen im Zeit-Frequenz-Bereich sichtbar machen können. Dabei heben sich die Wellen einzelner Bootsfahrten als Wellenpakete mit einer vom nieder- in den höherfrequenten Spektralbereich wandernden Leistungsdichte aus dem Umgebungsrauschen ab. Darüber hinaus werden Ansätze vorgestellt, wie die Trennung von boots- und windinduzierten Wellen realisiert werden kann. Damit leistet diese Arbeit einen Beitrag dazu, das Verständnis über die ufernahen Wellenprozesse am Wörthersee zu vertiefen und deren Auswirkungen auf das Gewässerökosystem besser zu verstehen.
Exploring the potential of five satellite-derived soil moisture products for simulating long term irrigation datasets using the SM Delta approach
Department für Geodäsie und Geoinformation, Forschungsbereich Klima- und Umweltfernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Dr. Pierre Laluet MSc
Kurzfassung/Abstract
Irrigation accounts for approximately 70 % of global freshwater withdrawals, significantly impacting the water cycle through reduced streamflow and groundwater tables and increased evapotranspiration. Accurate long-term estimates of irrigation water use (IWU) are essential for improving climate model simulations. However, in situ irrigation data are extremely rare on a global scale, and statistical surveys, as well as irrigation simulated by models, are too uncertain to provide reliable estimates. Satellite-derived soil moisture (SM) data offer a promising alternative approach for monitoring long-term IWU globally. This thesis builds on the Soil Moisture (SM) Delta method, which estimates IWU by calculating the differences between satellite and modelled SM data. The approach is based on the fact that satellite-based SM theoretically contains an irrigation signal, whereas model-based SM lacks such a signal if irrigation is not modelled. The methodology is used to assess the ability of five satellite-based SM products to retrieve long-term irrigation estimates. 15-year IWU datasets have been produced over the Ebro Basin (86,000 km2) and the Murray-Darling Basin (1,000,000 km2) using coarse-scale (0.25°) SM data, and validated against in situ IWU data from an irrigation district in the Ebro Basin and four irrigation districts in the Murray-Darling Basin. Validation of the IWU estimates against in situ IWU data from the irrigation district in the Ebro Basin showed a significant correlation when using the ESA CCI COMBINED product (R=0.75), which also yielded the lowest Root Mean Square Deviation (RMSD=22.84 mm/month), showing the best performance over this basin. In the Murray-Darling Basin, validation results varied among the four irrigation districts, with ESA CCI ACTIVE performing best in three irrigation districts (R=0.40, RMSD=21.84, bias=4.01 mm/month on average) and ESA CCI PASSIVE in one district (R=0.64, RMSD=19.70 mm/month, bias=0.83 mm/month). In terms of overall performance, ESA CCI COMBINED proved to be the most reliable product with a good balance between low RMSD (22.01 mm/month on average) and the highest correlation (R=0.45 on average) in the four irrigation districts. All products show an underestimation of IWU in the Ebro Basin, which could be improved by including evapotranspiration in the algorithm. Furthermore, when compared with studies obtaining high-resolution IWU estimates, our coarse-resolution method performed comparably well in the Ebro Basin. These large-scale, long-term IWU datasets are an important step towards better accounting for the impacts of irrigation in climatic and hydrological modelling and can improve water resource management.
Irrigation accounts for approximately 70 % of global freshwater withdrawals, significantly impacting the water cycle through reduced streamflow and groundwater tables and increased evapotranspiration. Accurate long-term estimates of irrigation water use (IWU) are essential for improving climate model simulations. However, in situ irrigation data are extremely rare on a global scale, and statistical surveys, as well as irrigation simulated by models, are too uncertain to provide reliable estimates. Satellite-derived soil moisture (SM) data offer a promising alternative approach for monitoring long-term IWU globally. This thesis builds on the Soil Moisture (SM) Delta method, which estimates IWU by calculating the differences between satellite and modelled SM data. The approach is based on the fact that satellite-based SM theoretically contains an irrigation signal, whereas model-based SM lacks such a signal if irrigation is not modelled. The methodology is used to assess the ability of five satellite-based SM products to retrieve long-term irrigation estimates. 15-year IWU datasets have been produced over the Ebro Basin (86,000 km2) and the Murray-Darling Basin (1,000,000 km2) using coarse-scale (0.25°) SM data, and validated against in situ IWU data from an irrigation district in the Ebro Basin and four irrigation districts in the Murray-Darling Basin. Validation of the IWU estimates against in situ IWU data from the irrigation district in the Ebro Basin showed a significant correlation when using the ESA CCI COMBINED product (R=0.75), which also yielded the lowest Root Mean Square Deviation (RMSD=22.84 mm/month), showing the best performance over this basin. In the Murray-Darling Basin, validation results varied among the four irrigation districts, with ESA CCI ACTIVE performing best in three irrigation districts (R=0.40, RMSD=21.84, bias=4.01 mm/month on average) and ESA CCI PASSIVE in one district (R=0.64, RMSD=19.70 mm/month, bias=0.83 mm/month). In terms of overall performance, ESA CCI COMBINED proved to be the most reliable product with a good balance between low RMSD (22.01 mm/month on average) and the highest correlation (R=0.45 on average) in the four irrigation districts. All products show an underestimation of IWU in the Ebro Basin, which could be improved by including evapotranspiration in the algorithm. Furthermore, when compared with studies obtaining high-resolution IWU estimates, our coarse-resolution method performed comparably well in the Ebro Basin. These large-scale, long-term IWU datasets are an important step towards better accounting for the impacts of irrigation in climatic and hydrological modelling and can improve water resource management.
Assessing forest parameters through the evaluation of smartphone-based measurement techniques
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
The growing need for accessible and cost-effective methods in forest inventories has driven interest in utilizing smartphone-based technologies. This thesis examines the potential of six smartphone applications in assessing key forest parameters, namely tree height and diameter at breast height (DBH), and compares their performance against established methods such as terrestrial laser scanning (TLS) and manual measurements. The thesis is motivated by the demand for scalable, affordable, and user-friendly tools capable of supporting both professional forest management and citizen science initiatives. Field data were collected in a diverse forested area, where the selected applications were tested under real-world conditions to evaluate their measurement accuracy, usability, and efficiency. TLS and in-situ measurements using a measuring tape served as the reference for data validation, ensuring a robust benchmark for comparison. Particular attention was paid to identifying the strengths and limitations of the applications, including error sources related to environmental conditions and user experience. Furthermore, the thesis explored whether these smartphone-based solutions could achieve comparable or faster measurement times than traditional TLS methods while maintaining acceptable accuracy levels. Additionally, a simulation of errors was conducted to evaluate their detectability using real measurement data, offering recommendations for workflow adjustments to minimize errors. The results indicate that smartphone applications offer a promising alternative for forest inventories, particularly in scenarios where affordability and portability are critical. The average root mean square error (RMSE) across all tested applications was 2.3 cm for DBH and 1.75 m for tree height, demonstrating a competitive level of accuracy. Notably, the maximal reduction of measurement errors for DBH for Geo-Quest was achieved when the tree occupied approximately 2/3 of the smartphone screen during measurement. The analysis also highlighted opportunities for optimization in application design, including the integration of advanced error correction algorithms and more intuitive user interfaces. This research contributes to the growing body of knowledge on leveraging mobile technologies in forestry and provides practical recommendations for enhancing the reliability and efficiency of smartphone-based measurement tools. By bridging the gap between professional-grade equipment and accessible technologies, this thesis underscores the potential of smartphones to democratize forest data collection and foster greater public engagement in environmental monitoring.
The growing need for accessible and cost-effective methods in forest inventories has driven interest in utilizing smartphone-based technologies. This thesis examines the potential of six smartphone applications in assessing key forest parameters, namely tree height and diameter at breast height (DBH), and compares their performance against established methods such as terrestrial laser scanning (TLS) and manual measurements. The thesis is motivated by the demand for scalable, affordable, and user-friendly tools capable of supporting both professional forest management and citizen science initiatives. Field data were collected in a diverse forested area, where the selected applications were tested under real-world conditions to evaluate their measurement accuracy, usability, and efficiency. TLS and in-situ measurements using a measuring tape served as the reference for data validation, ensuring a robust benchmark for comparison. Particular attention was paid to identifying the strengths and limitations of the applications, including error sources related to environmental conditions and user experience. Furthermore, the thesis explored whether these smartphone-based solutions could achieve comparable or faster measurement times than traditional TLS methods while maintaining acceptable accuracy levels. Additionally, a simulation of errors was conducted to evaluate their detectability using real measurement data, offering recommendations for workflow adjustments to minimize errors. The results indicate that smartphone applications offer a promising alternative for forest inventories, particularly in scenarios where affordability and portability are critical. The average root mean square error (RMSE) across all tested applications was 2.3 cm for DBH and 1.75 m for tree height, demonstrating a competitive level of accuracy. Notably, the maximal reduction of measurement errors for DBH for Geo-Quest was achieved when the tree occupied approximately 2/3 of the smartphone screen during measurement. The analysis also highlighted opportunities for optimization in application design, including the integration of advanced error correction algorithms and more intuitive user interfaces. This research contributes to the growing body of knowledge on leveraging mobile technologies in forestry and provides practical recommendations for enhancing the reliability and efficiency of smartphone-based measurement tools. By bridging the gap between professional-grade equipment and accessible technologies, this thesis underscores the potential of smartphones to democratize forest data collection and foster greater public engagement in environmental monitoring.
Colour map design for crisis maps
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Andrea Binn M.Eng.
Kurzfassung/Abstract
The role of maps in disaster management phases and their importance have already been well established. Timely response and accurate communication are crucial in a crisis; hence the crisis map design needs to suit the purpose. Crisis events often require immediate actions, hence, the users' ability to correctly interpret and process map information under exogenous stressors and time pressure is limited. Producing a simulation of a crisis in lab conditions could help identify design guidelines that would allow efficient and accurate responses. An experiment has been designed to assess the impact of colour by analysing users’ inputs from answering the questions about six maps that have been created using two colour palettes consisting of calming or pastel (blues, greens, purples) and arousing colours (oranges, reds, yellows) under different levels of induced stress. The results consist of time response, accuracy, and qualitative survey, providing insights into the contextual role of colour. Over 40 participants engaged in the experiment representing the general public, possessing different technical backgrounds, and varying in age, education and map reading skills. The experiment was conducted in person in Southeast Europe; hence the participants have a homogeneous cultural background. The meaning of colours is therefore limited to Western cultures. Evaluating the time response results of the control group and stress-exposed groups showed significance for maps with lower complexity and were in favour of arousing colours. On the other hand, the accuracy was slightly higher for the arousing colours, however, without significant values. The participants mainly preferred pastel colour palettes, even though the preference was not fully positively reflected in the results. It is recommended to repeat a similar study with a larger participants group and compare the general trend.
The role of maps in disaster management phases and their importance have already been well established. Timely response and accurate communication are crucial in a crisis; hence the crisis map design needs to suit the purpose. Crisis events often require immediate actions, hence, the users' ability to correctly interpret and process map information under exogenous stressors and time pressure is limited. Producing a simulation of a crisis in lab conditions could help identify design guidelines that would allow efficient and accurate responses. An experiment has been designed to assess the impact of colour by analysing users’ inputs from answering the questions about six maps that have been created using two colour palettes consisting of calming or pastel (blues, greens, purples) and arousing colours (oranges, reds, yellows) under different levels of induced stress. The results consist of time response, accuracy, and qualitative survey, providing insights into the contextual role of colour. Over 40 participants engaged in the experiment representing the general public, possessing different technical backgrounds, and varying in age, education and map reading skills. The experiment was conducted in person in Southeast Europe; hence the participants have a homogeneous cultural background. The meaning of colours is therefore limited to Western cultures. Evaluating the time response results of the control group and stress-exposed groups showed significance for maps with lower complexity and were in favour of arousing colours. On the other hand, the accuracy was slightly higher for the arousing colours, however, without significant values. The participants mainly preferred pastel colour palettes, even though the preference was not fully positively reflected in the results. It is recommended to repeat a similar study with a larger participants group and compare the general trend.
Evaluierung von unterschiedlichen Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum
Department für Geodäsie und Geoinformation, Forschungsbereich Kartographie, Technische Universität Wien, 2025
Betreuer: Dipl.‑Ing. Dr. Florian Ledermann, Univ-Ass. Ester Scheck MA
Kurzfassung/Abstract
Die vorliegende Diplomarbeit beschäftigt sich mit der Evaluierung unterschiedlicher Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum Wiens. Das Ziel der Arbeit bestand darin, die Genauigkeit und Effizienz von fünf Erhebungsmethoden zu vergleichen: die manuelle Zählung vor Ort (Ground-Truth-Daten), die GIS-gestützte Analyse der Flächenmehrzweckkarte der Stadt Wien, die Dokumentation des Parkschemas vor Ort, die Zählung anhand von 2D-Luftbildern sowie die Zählung in der 3D-Ansicht von Google Maps. Als Untersuchungsgebiet wurden Teile des 8. und 19. Wiener Gemeindebezirks ausgewählt, da sie unterschiedliche urbane Strukturen aufweisen. Die Methodik umfasste die Nutzung von QGIS und Python zur Analyse der GIS-Daten, die Erstellung eines Parkschemas zur systematischen Kategorisierung und die Hochrechnung von Parkplätzen basierend auf Straßenlängen und Parkplatztypen. Es wurden TeilnehmerInnen eingesetzt, die die Parkplätze in den Luftbildern zählten, sowie die Dokumentation des Parkschemas durchführten. Die Ergebnisse der einzelnen Methoden wurden ausgewertet und miteinander verglichen, um ihre jeweilige Genauigkeit und Anwendbarkeit zu bewerten. Die Ground-Truth-Daten dienten als Referenz für den Vergleich der anderen Methoden und wurden als tatsächliche Anzahl der Parkplätze betrachtet. Im Vergleich zu den anderen Methoden erzielte die 3D-Ansicht die geringsten Abweichungen (durchschnittlich 19,71% und Median 6,06%). Während die 2D-Luftbildzählung mit einer durchschnittlichen Abweichung von 24,90% und einem Median von 9,52% leicht dahinter lag, zeigte die GIS-Methode die größten Abweichungen (durchschnittlich 29,54% und Median 17,66%). Die Anzahl an Parkplätzen wurde auch anhand des dokumentierten Parkschemas hochgerechnet. Hier hing die Genauigkeit der Ergebnisse stark von der Hochrechnungsmethode ab. Die Arbeit liefert wichtige Einblicke in die Vor- und Nachteile verschiedener Methoden zur Parkplatzerhebung und präsentiert praktische Verbesserungsmöglichkeiten, die in spezifischen Anwendungsbereichen wie der Stadtplanung hilfreich sein können.
Die vorliegende Diplomarbeit beschäftigt sich mit der Evaluierung unterschiedlicher Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum Wiens. Das Ziel der Arbeit bestand darin, die Genauigkeit und Effizienz von fünf Erhebungsmethoden zu vergleichen: die manuelle Zählung vor Ort (Ground-Truth-Daten), die GIS-gestützte Analyse der Flächenmehrzweckkarte der Stadt Wien, die Dokumentation des Parkschemas vor Ort, die Zählung anhand von 2D-Luftbildern sowie die Zählung in der 3D-Ansicht von Google Maps. Als Untersuchungsgebiet wurden Teile des 8. und 19. Wiener Gemeindebezirks ausgewählt, da sie unterschiedliche urbane Strukturen aufweisen. Die Methodik umfasste die Nutzung von QGIS und Python zur Analyse der GIS-Daten, die Erstellung eines Parkschemas zur systematischen Kategorisierung und die Hochrechnung von Parkplätzen basierend auf Straßenlängen und Parkplatztypen. Es wurden TeilnehmerInnen eingesetzt, die die Parkplätze in den Luftbildern zählten, sowie die Dokumentation des Parkschemas durchführten. Die Ergebnisse der einzelnen Methoden wurden ausgewertet und miteinander verglichen, um ihre jeweilige Genauigkeit und Anwendbarkeit zu bewerten. Die Ground-Truth-Daten dienten als Referenz für den Vergleich der anderen Methoden und wurden als tatsächliche Anzahl der Parkplätze betrachtet. Im Vergleich zu den anderen Methoden erzielte die 3D-Ansicht die geringsten Abweichungen (durchschnittlich 19,71% und Median 6,06%). Während die 2D-Luftbildzählung mit einer durchschnittlichen Abweichung von 24,90% und einem Median von 9,52% leicht dahinter lag, zeigte die GIS-Methode die größten Abweichungen (durchschnittlich 29,54% und Median 17,66%). Die Anzahl an Parkplätzen wurde auch anhand des dokumentierten Parkschemas hochgerechnet. Hier hing die Genauigkeit der Ergebnisse stark von der Hochrechnungsmethode ab. Die Arbeit liefert wichtige Einblicke in die Vor- und Nachteile verschiedener Methoden zur Parkplatzerhebung und präsentiert praktische Verbesserungsmöglichkeiten, die in spezifischen Anwendungsbereichen wie der Stadtplanung hilfreich sein können.
Assessment of reed structure based on ULS data
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
The reed belt surrounding Neusiedler See is the largest Phragmites Australis (Common Reed) reed belt in Central Europe, spanning approximately 180 square kilometres. Most of the area is protected as part of the Neusiedler See-Seewinkel National Park. Reduced reed harvesting in recent years, due to warmer winters, has led to the formation of aging and degrading reed stands. Fire management has been proposed as a method to rejuvenate reed stands by eliminating the broken reed layer. To evaluate this method, Land Burgenland conducted a controlled fire experiment on 9 January 2024, accompanied by UAV-based LiDAR and RGB data acquisition before, immediately and several months post-fire. This thesis estimates reed parameters and the structural influence of fire management by computation of topographic models. Further analysis included the vertical point distribution to assess reed parameters, such as the thickness of the broken reed layer and reed density. In-situ data collected by the University of Vienna and BOKU Vienna supported further analysis. A reduction in the thickness of the broken reed layer was quantified using difference DTMs. Validation of the broken reed layer reduction was performed using In-Situ data, collected prior to the fire experiment. In addition, fire-affected areas were successfully quantified, providing further planning data for future fire management campaigns. Reed density assessment was performed using normalized point density values above a height threshold of 100 cm, in an attempt to distinguish dense and sparse reed patches. The absence of In-situ validation data for dense and sparse patches limits the certainty of these classifications. The potential of UAV LiDAR systems for assessing and monitoring reed parameters has been demonstrated.
The reed belt surrounding Neusiedler See is the largest Phragmites Australis (Common Reed) reed belt in Central Europe, spanning approximately 180 square kilometres. Most of the area is protected as part of the Neusiedler See-Seewinkel National Park. Reduced reed harvesting in recent years, due to warmer winters, has led to the formation of aging and degrading reed stands. Fire management has been proposed as a method to rejuvenate reed stands by eliminating the broken reed layer. To evaluate this method, Land Burgenland conducted a controlled fire experiment on 9 January 2024, accompanied by UAV-based LiDAR and RGB data acquisition before, immediately and several months post-fire. This thesis estimates reed parameters and the structural influence of fire management by computation of topographic models. Further analysis included the vertical point distribution to assess reed parameters, such as the thickness of the broken reed layer and reed density. In-situ data collected by the University of Vienna and BOKU Vienna supported further analysis. A reduction in the thickness of the broken reed layer was quantified using difference DTMs. Validation of the broken reed layer reduction was performed using In-Situ data, collected prior to the fire experiment. In addition, fire-affected areas were successfully quantified, providing further planning data for future fire management campaigns. Reed density assessment was performed using normalized point density values above a height threshold of 100 cm, in an attempt to distinguish dense and sparse reed patches. The absence of In-situ validation data for dense and sparse patches limits the certainty of these classifications. The potential of UAV LiDAR systems for assessing and monitoring reed parameters has been demonstrated.
Kombination von Fernerkundung und Crowdsourcing zur Unterstützung der EU-Verordnung zu entwaldungsfreien Lieferketten
Institut für Geographie und Raumforschung, Universität Graz, 2025
Betreuer: Ass.-Prof. Mag. Dr. Manuela Hirschmugl
Kurzfassung/Abstract
Die Wälder erfüllen viele sozioökonomische Funktionen wie die Kohlenstoffbindung zur Minderung des Klimawandels und die Bereitstellung nachhaltiger Rohstoffe, sie dienen als Hotspots für die Biodiversität und bieten Schutz vor Naturgefahren und dienen auch als Lebensraum für indigene Bevölkerungen. Laut der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) gingen in den letzten 30 Jahren etwa 420 Millionen Hektar Wald verloren. Schätzungen zufolge ist die landwirtschaftliche Expansion für fast 90 % des weltweiten Waldverlustes aufgrund der Abholzung verantwortlich, wobei ein Großteil der Landwirtschaftsflächen aus umgewandelten Wäldern stammt. Dieser rasche Rückgang der Waldökosysteme erfordert sofortiges Handeln zu ihrem Schutz und die Entwicklung von Ansätzen für nachhaltige Forstwirtschaft und Landwirtschaft. Die Europäische Union ist ein bedeutender Importeur von Produkten, Rohstoffen oder anderen Gütern, die mit Abholzung in Verbindung stehen. Die Europäische Kommission hat dieses Problem erkannt und einen Vorschlag zur Beendigung der Abholzungsursachen vorgelegt. Um dieses Problem anzugehen, wurde ein Rechtsrahmen auf der Grundlage obligatorischer Sorgfaltspflichten für Unternehmen, die risikobehaftete Güter oder deren abgeleitete Produkte auf dem EU-Markt platzieren, vorgeschlagen. Dieser Rechtsrahmen erfordert eine systematische Überwachung, um den Anbau dieser Produkte und die Abholzung tropischer Wälder zu verfolgen. Eine objektive Rückverfolgbarkeit von der Produktion des Materials im Ursprungsland bis hin zum Kunden ist notwendig, um überprüfen zu können, ob die Vorschriften eingehalten wurden oder nicht.
Die Wälder erfüllen viele sozioökonomische Funktionen wie die Kohlenstoffbindung zur Minderung des Klimawandels und die Bereitstellung nachhaltiger Rohstoffe, sie dienen als Hotspots für die Biodiversität und bieten Schutz vor Naturgefahren und dienen auch als Lebensraum für indigene Bevölkerungen. Laut der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) gingen in den letzten 30 Jahren etwa 420 Millionen Hektar Wald verloren. Schätzungen zufolge ist die landwirtschaftliche Expansion für fast 90 % des weltweiten Waldverlustes aufgrund der Abholzung verantwortlich, wobei ein Großteil der Landwirtschaftsflächen aus umgewandelten Wäldern stammt. Dieser rasche Rückgang der Waldökosysteme erfordert sofortiges Handeln zu ihrem Schutz und die Entwicklung von Ansätzen für nachhaltige Forstwirtschaft und Landwirtschaft. Die Europäische Union ist ein bedeutender Importeur von Produkten, Rohstoffen oder anderen Gütern, die mit Abholzung in Verbindung stehen. Die Europäische Kommission hat dieses Problem erkannt und einen Vorschlag zur Beendigung der Abholzungsursachen vorgelegt. Um dieses Problem anzugehen, wurde ein Rechtsrahmen auf der Grundlage obligatorischer Sorgfaltspflichten für Unternehmen, die risikobehaftete Güter oder deren abgeleitete Produkte auf dem EU-Markt platzieren, vorgeschlagen. Dieser Rechtsrahmen erfordert eine systematische Überwachung, um den Anbau dieser Produkte und die Abholzung tropischer Wälder zu verfolgen. Eine objektive Rückverfolgbarkeit von der Produktion des Materials im Ursprungsland bis hin zum Kunden ist notwendig, um überprüfen zu können, ob die Vorschriften eingehalten wurden oder nicht.
