- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2023
Abschlussarbeiten 2023
Assessment of soil moisture derived from radar satellite data in the Arctic for the purpose of permafrost studies
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch, Dr. Birgit Heim
Kurzfassung/Abstract
Das Tiefland der Arktischen Tundra ist zu einem großen Teil von Permafrost unterlagert, der als wesentliche Klimavariable gilt. Beobachtungen zeigen, dass sich dieses Gebiet in den letzten Jahrzehnten fast viermal schneller erwärmt hat als der Rest der Welt. Durch die Abgeschiedenheit großer Teile der Arktis, können vor Ort kaum Bodendaten erhoben werden, weshalb Satellitendaten hier von entscheidender Bedeutung sind. Daten über die Bodenfeuchte sind essenziell für Anwendungen im Zusammenhang mit Permafrost, insbesondere für Modellierungs- und Flux-Up-Scaling-Studien. Daten des aktiven C-Band-Mikrowellen-Fernerkundungsinstruments Advanced Scatterometer (ASCAT) werden seit 2008 verwendet, um ein grob aufgelöstes (25 km) Bodenfeuchteprodukt (Surface Soil Moisture, SSM) in nahezu Echtzeit zu erzeugen. Die Herausforderungen für die Ableitung von SSM aus Radardaten, die mit dem spezifischen Charakter der Arktis zusammenhängen, sind z.B. gefrorener Boden, Landschaftsheterogenität oder saisonale Schwankungen. In der vorliegenden Arbeit wurden solche typischerweise erwarteten Einflüsse für durch C-Band-Rückstreuung abgeleitete SSM in der Arktis untersucht. Auf der Grundlage eines Vergleichs mit den Ergebnissen eines Landoberflächenmodells und Untersuchungen von C-Band-SAR-Daten mit feinerer Auflösung konnten Rückstreuungsabweichungen festgestellt werden, die eher auf die Oberflächenrauhigkeit als auf tatsächliche SSM-Variationen zurückzuführen sind. Der Einfluss von Wasseroberflächen bildete, zusammen mit Untersuchungen von in-situ-Bodenfeuchtedaten und meteorologischen Daten, die Grundlage, um Vorsichtsmaßnahmen für die Verwendung des Satellitenprodukts sowie dessen Verbesserungen vorzuschlagen. Der potenzielle systematische Fehler lässt sich durch den Seeanteil erklären und zu einem großen Teil auf den Wind zurückführen. Daher wird eine Korrektur mittels meteorologischer Daten für seenreiche Gebiete vorgeschlagen. Die Verwendung von Daten mit höherer räumlicher Auflösung als sie derzeit für operative globale SSM verfügbar ist, ist in Permafrostumgebungen im Tiefland erforderlich. Es gibt in der Tundra starke Schwankungen der Bodenfeuchte im Satellitenprodukt über den Sommer, was auf die Anwendbarkeit der zeitlichen Entwicklung von C-Band-Rückstreuprodukten der Bodenfeuchte hindeutet. Messungen der Bodentemperatur deuten jedoch auf eine weitere Fehlerquelle, einen Einfluss der Temperaturschwankungen in der ersten Sommerhälfte hin.
Das Tiefland der Arktischen Tundra ist zu einem großen Teil von Permafrost unterlagert, der als wesentliche Klimavariable gilt. Beobachtungen zeigen, dass sich dieses Gebiet in den letzten Jahrzehnten fast viermal schneller erwärmt hat als der Rest der Welt. Durch die Abgeschiedenheit großer Teile der Arktis, können vor Ort kaum Bodendaten erhoben werden, weshalb Satellitendaten hier von entscheidender Bedeutung sind. Daten über die Bodenfeuchte sind essenziell für Anwendungen im Zusammenhang mit Permafrost, insbesondere für Modellierungs- und Flux-Up-Scaling-Studien. Daten des aktiven C-Band-Mikrowellen-Fernerkundungsinstruments Advanced Scatterometer (ASCAT) werden seit 2008 verwendet, um ein grob aufgelöstes (25 km) Bodenfeuchteprodukt (Surface Soil Moisture, SSM) in nahezu Echtzeit zu erzeugen. Die Herausforderungen für die Ableitung von SSM aus Radardaten, die mit dem spezifischen Charakter der Arktis zusammenhängen, sind z.B. gefrorener Boden, Landschaftsheterogenität oder saisonale Schwankungen. In der vorliegenden Arbeit wurden solche typischerweise erwarteten Einflüsse für durch C-Band-Rückstreuung abgeleitete SSM in der Arktis untersucht. Auf der Grundlage eines Vergleichs mit den Ergebnissen eines Landoberflächenmodells und Untersuchungen von C-Band-SAR-Daten mit feinerer Auflösung konnten Rückstreuungsabweichungen festgestellt werden, die eher auf die Oberflächenrauhigkeit als auf tatsächliche SSM-Variationen zurückzuführen sind. Der Einfluss von Wasseroberflächen bildete, zusammen mit Untersuchungen von in-situ-Bodenfeuchtedaten und meteorologischen Daten, die Grundlage, um Vorsichtsmaßnahmen für die Verwendung des Satellitenprodukts sowie dessen Verbesserungen vorzuschlagen. Der potenzielle systematische Fehler lässt sich durch den Seeanteil erklären und zu einem großen Teil auf den Wind zurückführen. Daher wird eine Korrektur mittels meteorologischer Daten für seenreiche Gebiete vorgeschlagen. Die Verwendung von Daten mit höherer räumlicher Auflösung als sie derzeit für operative globale SSM verfügbar ist, ist in Permafrostumgebungen im Tiefland erforderlich. Es gibt in der Tundra starke Schwankungen der Bodenfeuchte im Satellitenprodukt über den Sommer, was auf die Anwendbarkeit der zeitlichen Entwicklung von C-Band-Rückstreuprodukten der Bodenfeuchte hindeutet. Messungen der Bodentemperatur deuten jedoch auf eine weitere Fehlerquelle, einen Einfluss der Temperaturschwankungen in der ersten Sommerhälfte hin.
The joint inversion of seismic refraction and electrical resistivity data: A quantitative approach to estimate hydrogeological parameters in an imaging framework
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2023
Betreuer: Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Im Rahmen von unweltbezogenen bzw. ingenieurtechnischen Untersuchungen werden die Eigenschaften des Untergrunds traditionell mit direkten Messmethoden erfasst. Jedoch sind die gewonnenen Daten in ihrer räumlichen Auflösung begrenzt, da direkte Untersuchungen meist nur punktuell durchgeführt werden können (z.B. in Bohrlöchern). Im Gegensatz dazu sind geophysikalische Methoden in der Lage, Informationen über die Beschaffenheit des Untergrunds in nicht-invasiver Weise und mit hoher räumlicher und zeitlicher Auflösung zu bestimmen, und haben sich daher als geeignete Ergänzung von direkten Methoden erwiesen. Die elektrische Widerstandstomographie (electrical resistivity tomography; ERT) und die seismische Refraktionstomographie (seismic refraction tomography; SRT) sind in der Lage Veränderungen der hydrogeologischen bzw. chemischen Eigenschaften des Untergrunds zu detektieren und werden daher häufig für oberflächennahe Untersuchungen eingesetzt. Die Kombination diese komplementären geophysikalischen Methoden ist ein gängiger Ansatz, um den Einfluss von Unsicherheiten bzw. Fehler im Zusammenhang mit der Datenerfassung, -verarbeitung und -inversion auf die Ergebnisse zu vermindern. Das sorgfältige Prozessieren der geophysikalischen Daten ist von zentraler Bedeutung, um verlässliche Modelle der Untergrundeigenschaften zu erhalten. Insbesondere die Prozessierung von ERT-Datensätzen kann basierend auf etablierten Richtlinien und Algorithmen weitestgehend automatisiert werden. Im Gegensatz dazu handelt es sich bei der Prozessierung von SRT-Daten um einen interaktiven Vorgang, der maßgeblich von der Erfahrung der auswertenden Person beeinflusst wird und zudem oftmals den Einsatz von kommerziellen Softwarelösungen erfordert. Dementsprechend besteht begründeter Bedarf an der Entwicklung von lizenzfreien bzw. open-source Lösungen, die transparente und automatisierte Abläufe im Zusammenhang mit der Prozessierung von SRT-Daten ermöglichen. Bei der Inversion von geophysikalischen Daten handelt es sich um ein mehrdeutiges Problem, wodurch insbesondere die Interpretation der Inversionsergebnisse mit Unsicherheiten behaftet sein kann, die zusätzlich verstärkt werden, wenn die geophysikalischen Parameter in andere Größen umgerechnet werden (z.B. die von direkten Methoden erfassten Untergrundeigenschaften). In dieser Hinsicht ist eine verbesserte Interpretation durch die Kombination komplementärer Inversionsergebnisse möglich, jedoch setzt dies voraus, dass die durch unabhängige Inversionen erhaltenen Untergrundmodelle in sich konsistent sind. Um diese Nachteile zu beheben, hat sich die petrophysikalisch gekoppelte Inversion (petrophysical joint inversion; PJI) von ERT- und SRT-Daten als ein geeignetes Verfahren erwiesen, welches die direkte quantitative Bestimmung der relevanten Untergrundeigenschaften (z.B. hydrogeologische Parameter) ermöglicht. Jedoch erfordert die Anwendung solcher PJI-Verfahren eine adäquate Parametrisierung des zugrundeliegenden petrophysikalischen Modells, die wiederum von Unsicherheiten betroffen sein kann. Daher untersucht diese Arbeit die Möglichkeit, strukturelle und petrophysikalische Randbedingungen in der petrophysikalisch gekoppelten Inversion zu berücksichtigen, um konsistente Untergrundmodelle zu erhalten. Bei einem hohen Anteil von tonigen Sedimenten oder organischem Material ist es essentiell, dass das dem PJI-Verfahren zugrundeliegende petrophysikalische Modell den Einfluss der Oberflächenleitfähigkeit auf die beobachteten elektrischen Eigenschaften des Untergrunds berücksichtigt. Wird dieser Einfluss bei der PJI vernachlässigt, führt dies zu einer fehlerhaften quantitativen Bestimmung der hydrogeologischen Untergrundeigenschaften. Dementsprechend wird in dieser Arbeit das eingesetzte PJI-Verfahren erweitert, um den Einfluss der Oberflächenleitfähigkeit im Zuge der Inversion, d.h., bei der Parameterschätzung, zu berücksichtigen. Dieses modifizierte PJI-Verfahren quantifiziert die Oberflächenleitfähigkeit basierend auf ERT-Daten, die bei einer niedrigen und einer hohen Frequenz gemessen werden. Die im Rahmen dieser Arbeit erzielten Resultate lassen sich wie folgt zusammenfassen: (i) Entwicklung einer Softwarelösung für die Modellierung und Prozessierung von SRT-Daten basierend auf open-source python-Bibliotheken; (ii) die Verwendung eines Porositätsmodells als Randbedingung in der PJI kompensiert einen etwaigen geringen Kontrast in den physikalischen Eigenschaften verschiedener Untergrundmaterialien und kann darüber hinaus als zeitliche Randbedingung fungieren; (iii) der frequenzabhängige Effekt der Oberflächenleitfähigkeit kann im Zuge der PJI basierend auf Leitfähigkeitsmessungen bei einer hohen und einer niedrigen Frequenz berücksichtigt werden; (iv) das erweitertete PJI-Verfahren ermöglicht die quantitative Bestimmung hydrogeologischer Parameter (insbesondere Wassergehalt und hyrdaulische Leitfähigkeit) in unterschiedlichen Untersuchungsgebieten, z.B. gefrorener Untergrund in alpinen Regionen, Deponien, Hangrutschungen und ungestörte natürliche Sedimente; (v) das verwendete PJI-Verfahren kann sowohl hinsichtlich der zu invertierenden Datensätze als auch der Zielparameter individuell angepasst werden, wodurch zukünftige Erweiterungen basierend auf weiteren geophysikalischen Methoden und petrophysikalischen Beziehungen möglich sind.
Im Rahmen von unweltbezogenen bzw. ingenieurtechnischen Untersuchungen werden die Eigenschaften des Untergrunds traditionell mit direkten Messmethoden erfasst. Jedoch sind die gewonnenen Daten in ihrer räumlichen Auflösung begrenzt, da direkte Untersuchungen meist nur punktuell durchgeführt werden können (z.B. in Bohrlöchern). Im Gegensatz dazu sind geophysikalische Methoden in der Lage, Informationen über die Beschaffenheit des Untergrunds in nicht-invasiver Weise und mit hoher räumlicher und zeitlicher Auflösung zu bestimmen, und haben sich daher als geeignete Ergänzung von direkten Methoden erwiesen. Die elektrische Widerstandstomographie (electrical resistivity tomography; ERT) und die seismische Refraktionstomographie (seismic refraction tomography; SRT) sind in der Lage Veränderungen der hydrogeologischen bzw. chemischen Eigenschaften des Untergrunds zu detektieren und werden daher häufig für oberflächennahe Untersuchungen eingesetzt. Die Kombination diese komplementären geophysikalischen Methoden ist ein gängiger Ansatz, um den Einfluss von Unsicherheiten bzw. Fehler im Zusammenhang mit der Datenerfassung, -verarbeitung und -inversion auf die Ergebnisse zu vermindern. Das sorgfältige Prozessieren der geophysikalischen Daten ist von zentraler Bedeutung, um verlässliche Modelle der Untergrundeigenschaften zu erhalten. Insbesondere die Prozessierung von ERT-Datensätzen kann basierend auf etablierten Richtlinien und Algorithmen weitestgehend automatisiert werden. Im Gegensatz dazu handelt es sich bei der Prozessierung von SRT-Daten um einen interaktiven Vorgang, der maßgeblich von der Erfahrung der auswertenden Person beeinflusst wird und zudem oftmals den Einsatz von kommerziellen Softwarelösungen erfordert. Dementsprechend besteht begründeter Bedarf an der Entwicklung von lizenzfreien bzw. open-source Lösungen, die transparente und automatisierte Abläufe im Zusammenhang mit der Prozessierung von SRT-Daten ermöglichen. Bei der Inversion von geophysikalischen Daten handelt es sich um ein mehrdeutiges Problem, wodurch insbesondere die Interpretation der Inversionsergebnisse mit Unsicherheiten behaftet sein kann, die zusätzlich verstärkt werden, wenn die geophysikalischen Parameter in andere Größen umgerechnet werden (z.B. die von direkten Methoden erfassten Untergrundeigenschaften). In dieser Hinsicht ist eine verbesserte Interpretation durch die Kombination komplementärer Inversionsergebnisse möglich, jedoch setzt dies voraus, dass die durch unabhängige Inversionen erhaltenen Untergrundmodelle in sich konsistent sind. Um diese Nachteile zu beheben, hat sich die petrophysikalisch gekoppelte Inversion (petrophysical joint inversion; PJI) von ERT- und SRT-Daten als ein geeignetes Verfahren erwiesen, welches die direkte quantitative Bestimmung der relevanten Untergrundeigenschaften (z.B. hydrogeologische Parameter) ermöglicht. Jedoch erfordert die Anwendung solcher PJI-Verfahren eine adäquate Parametrisierung des zugrundeliegenden petrophysikalischen Modells, die wiederum von Unsicherheiten betroffen sein kann. Daher untersucht diese Arbeit die Möglichkeit, strukturelle und petrophysikalische Randbedingungen in der petrophysikalisch gekoppelten Inversion zu berücksichtigen, um konsistente Untergrundmodelle zu erhalten. Bei einem hohen Anteil von tonigen Sedimenten oder organischem Material ist es essentiell, dass das dem PJI-Verfahren zugrundeliegende petrophysikalische Modell den Einfluss der Oberflächenleitfähigkeit auf die beobachteten elektrischen Eigenschaften des Untergrunds berücksichtigt. Wird dieser Einfluss bei der PJI vernachlässigt, führt dies zu einer fehlerhaften quantitativen Bestimmung der hydrogeologischen Untergrundeigenschaften. Dementsprechend wird in dieser Arbeit das eingesetzte PJI-Verfahren erweitert, um den Einfluss der Oberflächenleitfähigkeit im Zuge der Inversion, d.h., bei der Parameterschätzung, zu berücksichtigen. Dieses modifizierte PJI-Verfahren quantifiziert die Oberflächenleitfähigkeit basierend auf ERT-Daten, die bei einer niedrigen und einer hohen Frequenz gemessen werden. Die im Rahmen dieser Arbeit erzielten Resultate lassen sich wie folgt zusammenfassen: (i) Entwicklung einer Softwarelösung für die Modellierung und Prozessierung von SRT-Daten basierend auf open-source python-Bibliotheken; (ii) die Verwendung eines Porositätsmodells als Randbedingung in der PJI kompensiert einen etwaigen geringen Kontrast in den physikalischen Eigenschaften verschiedener Untergrundmaterialien und kann darüber hinaus als zeitliche Randbedingung fungieren; (iii) der frequenzabhängige Effekt der Oberflächenleitfähigkeit kann im Zuge der PJI basierend auf Leitfähigkeitsmessungen bei einer hohen und einer niedrigen Frequenz berücksichtigt werden; (iv) das erweitertete PJI-Verfahren ermöglicht die quantitative Bestimmung hydrogeologischer Parameter (insbesondere Wassergehalt und hyrdaulische Leitfähigkeit) in unterschiedlichen Untersuchungsgebieten, z.B. gefrorener Untergrund in alpinen Regionen, Deponien, Hangrutschungen und ungestörte natürliche Sedimente; (v) das verwendete PJI-Verfahren kann sowohl hinsichtlich der zu invertierenden Datensätze als auch der Zielparameter individuell angepasst werden, wodurch zukünftige Erweiterungen basierend auf weiteren geophysikalischen Methoden und petrophysikalischen Beziehungen möglich sind.
Please Follow the Signs: Considering Existing Navigational Aids in Indoor Navigation Services
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Die Navigation in großen öffentlichen Gebäuden stellt für Menschen eine besondere Herausforderung dar. Aus diesem Grund wurden externe Darstellungen der Umgebung entwickelt, wie beispielsweise Navigationshilfen wie Schilder und Grundrisse sowie mobile Navigationsdienste. Diese wurden konzipiert, um die Orientierung in Gebäuden zu erleichtern und die Wahrnehmung zu entlasten. Derzeit arbeiten diese Systeme unabhängig voneinander. Untersuchungen deuten darauf hin, dass bestehende Navigationshilfen, die auf kodierten räumlichen Beziehungen basieren, als semantische Orientierungspunkte dienen können und das Erlernen von räumlichem Wissen erleichtern, während mobile Navigationsdienste das räumliche Lernen beeinträchtigen. Diese Dissertation befasst sich mit den Herausforderungen der Navigation in Innenräumen und des räumlichen Lernens, indem bestehende Navigationshilfen in Navigationsdienste integriert werden. Um das Navigationsverhalten von Menschen in Innenräumen und die Einflussfaktoren an Entscheidungspunkten besser zu verstehen, wurde ein exploratives Experiment mit menschlichen Teilnehmern durchgeführt. Die Ergebnisse dieses Experiments liefern einen systematischen Überblick über die Taktiken zur Entscheidungsfindung bei der innerräumlichen Navigation. Zudem tragen sie zur Weiterentwicklung der bestehenden Orientierungstheorie bei und bieten praktische Informationen für das Architekturdesign, das Gebäudemanagement und das Design von Navigationssystemen in Innenräumen. Basierend auf diesen Erkenntnissen wurde ein vollständig automatisiertes algorithmisches Framework namens ISIGNS (Indoor Sign InteGrated Navigation System) vorgeschlagen, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren, wobei der Fokus auf Schildern und ihrer Semantik liegt. Die Implementierung von ISIGNS ist äußerst anwendbar, da sie lediglich einen Navigationsgraphen und einen Zeichendatensatz erfordert, der aus den meisten räumlichen Datenbanken für Innenräume abgeleitet werden kann. In einem In-situ-Experiment, bei dem ISIGNS mit menschlichen Teilnehmern evaluiert wurde, zeigte sich das Potenzial, das Navigationserlebnis zu bereichern und die Benutzerfreundlichkeit zu verbessern. Darüber hinaus konnte der vorgeschlagene Ansatz das räumliche Lernen der Teilnehmer signifikant verbessern, insbesondere hinsichtlich des Erwerbs von Wissen über Orientierungspunkte und des Überblicks über eine räumliche Umgebung. Durch die explizite Einbeziehung der Semantik von Schildern lenkt ISIGNS die Aufmerksamkeit auf die Umgebung und nutzt die semantische Natur von Schildern, was zu einer verbesserten räumlichen Wissensbildung führt. Insgesamt trägt diese Dissertation zu unserem Verständnis des menschlichen Orientierungsverhaltens bei der innerräumlichen Navigation bei. Sie untersucht die Faktoren, die die Entscheidungsfindung beeinflussen, und liefert wichtige Erkenntnisse über die Auswirkungen verschiedener Umweltinformationsquellen auf den Erwerb räumlichen Wissens. Der vorgeschlagene ISIGNS-Rahmen stellt eine äußerst wirksame Lösung dar, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren. Dadurch wird nicht nur das Navigationserlebnis verbessert, sondern auch das räumliche Lernen gefördert.
Die Navigation in großen öffentlichen Gebäuden stellt für Menschen eine besondere Herausforderung dar. Aus diesem Grund wurden externe Darstellungen der Umgebung entwickelt, wie beispielsweise Navigationshilfen wie Schilder und Grundrisse sowie mobile Navigationsdienste. Diese wurden konzipiert, um die Orientierung in Gebäuden zu erleichtern und die Wahrnehmung zu entlasten. Derzeit arbeiten diese Systeme unabhängig voneinander. Untersuchungen deuten darauf hin, dass bestehende Navigationshilfen, die auf kodierten räumlichen Beziehungen basieren, als semantische Orientierungspunkte dienen können und das Erlernen von räumlichem Wissen erleichtern, während mobile Navigationsdienste das räumliche Lernen beeinträchtigen. Diese Dissertation befasst sich mit den Herausforderungen der Navigation in Innenräumen und des räumlichen Lernens, indem bestehende Navigationshilfen in Navigationsdienste integriert werden. Um das Navigationsverhalten von Menschen in Innenräumen und die Einflussfaktoren an Entscheidungspunkten besser zu verstehen, wurde ein exploratives Experiment mit menschlichen Teilnehmern durchgeführt. Die Ergebnisse dieses Experiments liefern einen systematischen Überblick über die Taktiken zur Entscheidungsfindung bei der innerräumlichen Navigation. Zudem tragen sie zur Weiterentwicklung der bestehenden Orientierungstheorie bei und bieten praktische Informationen für das Architekturdesign, das Gebäudemanagement und das Design von Navigationssystemen in Innenräumen. Basierend auf diesen Erkenntnissen wurde ein vollständig automatisiertes algorithmisches Framework namens ISIGNS (Indoor Sign InteGrated Navigation System) vorgeschlagen, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren, wobei der Fokus auf Schildern und ihrer Semantik liegt. Die Implementierung von ISIGNS ist äußerst anwendbar, da sie lediglich einen Navigationsgraphen und einen Zeichendatensatz erfordert, der aus den meisten räumlichen Datenbanken für Innenräume abgeleitet werden kann. In einem In-situ-Experiment, bei dem ISIGNS mit menschlichen Teilnehmern evaluiert wurde, zeigte sich das Potenzial, das Navigationserlebnis zu bereichern und die Benutzerfreundlichkeit zu verbessern. Darüber hinaus konnte der vorgeschlagene Ansatz das räumliche Lernen der Teilnehmer signifikant verbessern, insbesondere hinsichtlich des Erwerbs von Wissen über Orientierungspunkte und des Überblicks über eine räumliche Umgebung. Durch die explizite Einbeziehung der Semantik von Schildern lenkt ISIGNS die Aufmerksamkeit auf die Umgebung und nutzt die semantische Natur von Schildern, was zu einer verbesserten räumlichen Wissensbildung führt. Insgesamt trägt diese Dissertation zu unserem Verständnis des menschlichen Orientierungsverhaltens bei der innerräumlichen Navigation bei. Sie untersucht die Faktoren, die die Entscheidungsfindung beeinflussen, und liefert wichtige Erkenntnisse über die Auswirkungen verschiedener Umweltinformationsquellen auf den Erwerb räumlichen Wissens. Der vorgeschlagene ISIGNS-Rahmen stellt eine äußerst wirksame Lösung dar, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren. Dadurch wird nicht nur das Navigationserlebnis verbessert, sondern auch das räumliche Lernen gefördert.
Zuglokalisierung im alpinen Raum unter Anwendung des GALILEO High Accuracy Service
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Im Sinne der Sicherheit, Planbarkeit und Kundenorientierung ist es für ein Eisenbahnunternehmen unerlässlich die Standorte seiner Triebfahrzeuge detailliert zu kennen und zu verfolgen. Die ÖBB Infrastruktur, als größtes Eisenbahninfrastrukturunternehmen Österreichs, setzen hierfür bereits heute, neben terrestrischen Methoden, auch GNSS-Verfahren ein. Im Rahmen des Projektes Greenlight wird die Zuglokalisierung durch das differenzielle Messverfahren RTK unterstützt. Nicht zuletzt deswegen ist die ÖBB Infrastruktur Teil und Mitgründer des größten privaten österreichischen RTK-Netzbetreibers EPOSA. RTK-Messungen liefern hochpräzise Echtzeit-Positionsdaten, haben jedoch den Nachteil, dass das Betreiben eines solchen Referenznetzes Computer-, Netzwerk- und GNSS-Hardwareressourcen voraussetzt. Darüber hinaus decken diese Netze zumeist nur das Gebiet innerhalb der Landesgrenzen ab. Mit der Methode der präzisen Einzelpunktbestimmung (PPP) können Referenznetze und deren Unannehmlichkeiten weitgehend außer Acht gelassen werden, sofern man gewisse Einschränkungen in der Positionierungsgenauigkeit und zeitlichen Verfügbarkeit hinnehmen kann. Für die Anwendbarkeit des PPP werden jedoch präzise Informationen über Satellitenuhren- und Bahnfehler, aber auch andere Abweichungen benötigt. Am 24. Jänner 2023 wurde Phase 1 des Galileo High Accuracy Services (HAS) gestartet. Dieser ist in der Lage die benötigten Korrekturen direkt über das Satellitensignal zu übermitteln, wobei für die generelle Durchführbarkeit mindestens einer und für die rasche Durchführbarkeit mindestens vier das HAS-Signal aussendende Galileo-Satelliten sichtbar sein müssen. Im Zuge dieser Arbeit werden mittels Multi-GNSS-1-Frequenzbeobachtungen (GPS und GLONASS) von auf Triebfahrzeugen fixierten u-blox Empfängern und Simulationen des GIPSIE Signalsimulators potenzielle Sichtbarkeiten von Galileo-Satelliten auf topographisch anspruchsvollen Strecken analysiert. Des Weiteren werden am Ende der Arbeit PPP-Lösungen basierend auf u-blox Beobachtungen hinsichtlich ihrer erzielten Genauigkeiten bzw. Abweichungen bei der Zuglokalisierung untersucht.
Im Sinne der Sicherheit, Planbarkeit und Kundenorientierung ist es für ein Eisenbahnunternehmen unerlässlich die Standorte seiner Triebfahrzeuge detailliert zu kennen und zu verfolgen. Die ÖBB Infrastruktur, als größtes Eisenbahninfrastrukturunternehmen Österreichs, setzen hierfür bereits heute, neben terrestrischen Methoden, auch GNSS-Verfahren ein. Im Rahmen des Projektes Greenlight wird die Zuglokalisierung durch das differenzielle Messverfahren RTK unterstützt. Nicht zuletzt deswegen ist die ÖBB Infrastruktur Teil und Mitgründer des größten privaten österreichischen RTK-Netzbetreibers EPOSA. RTK-Messungen liefern hochpräzise Echtzeit-Positionsdaten, haben jedoch den Nachteil, dass das Betreiben eines solchen Referenznetzes Computer-, Netzwerk- und GNSS-Hardwareressourcen voraussetzt. Darüber hinaus decken diese Netze zumeist nur das Gebiet innerhalb der Landesgrenzen ab. Mit der Methode der präzisen Einzelpunktbestimmung (PPP) können Referenznetze und deren Unannehmlichkeiten weitgehend außer Acht gelassen werden, sofern man gewisse Einschränkungen in der Positionierungsgenauigkeit und zeitlichen Verfügbarkeit hinnehmen kann. Für die Anwendbarkeit des PPP werden jedoch präzise Informationen über Satellitenuhren- und Bahnfehler, aber auch andere Abweichungen benötigt. Am 24. Jänner 2023 wurde Phase 1 des Galileo High Accuracy Services (HAS) gestartet. Dieser ist in der Lage die benötigten Korrekturen direkt über das Satellitensignal zu übermitteln, wobei für die generelle Durchführbarkeit mindestens einer und für die rasche Durchführbarkeit mindestens vier das HAS-Signal aussendende Galileo-Satelliten sichtbar sein müssen. Im Zuge dieser Arbeit werden mittels Multi-GNSS-1-Frequenzbeobachtungen (GPS und GLONASS) von auf Triebfahrzeugen fixierten u-blox Empfängern und Simulationen des GIPSIE Signalsimulators potenzielle Sichtbarkeiten von Galileo-Satelliten auf topographisch anspruchsvollen Strecken analysiert. Des Weiteren werden am Ende der Arbeit PPP-Lösungen basierend auf u-blox Beobachtungen hinsichtlich ihrer erzielten Genauigkeiten bzw. Abweichungen bei der Zuglokalisierung untersucht.
Automation of scan process for shape determination - using robot arm and triangulation scanner
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die rasante Entwicklung von Laserscannern hat in den letzten Jahren neue Forschungsgebiete erschlossen. Laserscanning liefert durch berührungslose Abtastung von Oberflächen die Grundlage für die Rekonstruktion von Objekten deren Form nicht verfügbar, verloren oder verweigert ist. Auf Roboterarmen montierte Laserscanner ermöglichen die automatisierte Erfassung von Punktwolken für die anschließende Formbestimmung und Rekonstruktion von Objekten. In dieser Arbeit wird ein automatisierter Scanvorgang für die Erfassung dichter Punktwolken vorgestellt, welcher die Oberflächenrekonstruktion und Posenbestimmung von Objekten mit Hilfe eines Roboterarms und eines getrackten Triangulationsscanners ermöglicht. Mit dieser Arbeit werden zwei Ziele verfolgt. In erster Linie wurde eine Methode entwickelt, die Objekte automatisiert erkennt, Robotertrajektorien für eine dichte Punktwolkenerfassung erzeugt und deren Oberfläche rekonstruiert. Das Scansystem verfährt zunächst rasterförmig einen vordefinierten Bereich ab, um das Objekt im Sinne einer groben Punktwolke zu detektieren. Auf deren Basis wurden Robotertrajektorien generiert, welche die Abtastung auf optimaler Scandistanz gewährleisten, was zu einer dichten Punktwolke des Objekts führt. Das Verfahren wurde auf fünf Testobjekte angewandt, welche erfolgreich in Form eines 3D-Drucks rekonstruiert wurden. Der Vergleich von originalen und rekonstruierten Objekten zeigt durchschnittliche Abweichungen von weniger als 1 mm für das gewählte Setup. Es wird eine Schrumpfung des 3D-Drucks aufgrund der Abkühlung des Materials angenommen, was zu einer Verkleinerung des Objekts führt. Im Durchschnitt sind die 3D-gedruckten Objekte um bis zu 2 % kleiner als die Originalobjekte. Eine Größenabweichung wird aufgrund der Schrumpfung des 3D-Drucks angenommen. Das zweite Ziel dieser Arbeit war die automatisierte Posen-Bestimmung von Holzwerkstücken in einem übergeordneten Koordinatensystem auf Basis der entwickelten Methode. Die Definition eines lokalen Objektkoordinatensystems ermöglicht die Bestimmung der Transformationsparameter in Bezug auf dieses übergeordnete System. Die Roboterpfade wurden für Fräs- und Bohroperationen an die Lage des Werkstücks angepasst. Im Zuge einer Messkampagne erreichte die automatisierte Lagebestimmung des Objekts eine Genauigkeit unter 2 mm in Bezug auf das übergeordnete Koordinatensystem. In Hinblick auf die Durchführung von Fräs- und Bohroperationen wurde dies als ausreichend genau angesehen.
Die rasante Entwicklung von Laserscannern hat in den letzten Jahren neue Forschungsgebiete erschlossen. Laserscanning liefert durch berührungslose Abtastung von Oberflächen die Grundlage für die Rekonstruktion von Objekten deren Form nicht verfügbar, verloren oder verweigert ist. Auf Roboterarmen montierte Laserscanner ermöglichen die automatisierte Erfassung von Punktwolken für die anschließende Formbestimmung und Rekonstruktion von Objekten. In dieser Arbeit wird ein automatisierter Scanvorgang für die Erfassung dichter Punktwolken vorgestellt, welcher die Oberflächenrekonstruktion und Posenbestimmung von Objekten mit Hilfe eines Roboterarms und eines getrackten Triangulationsscanners ermöglicht. Mit dieser Arbeit werden zwei Ziele verfolgt. In erster Linie wurde eine Methode entwickelt, die Objekte automatisiert erkennt, Robotertrajektorien für eine dichte Punktwolkenerfassung erzeugt und deren Oberfläche rekonstruiert. Das Scansystem verfährt zunächst rasterförmig einen vordefinierten Bereich ab, um das Objekt im Sinne einer groben Punktwolke zu detektieren. Auf deren Basis wurden Robotertrajektorien generiert, welche die Abtastung auf optimaler Scandistanz gewährleisten, was zu einer dichten Punktwolke des Objekts führt. Das Verfahren wurde auf fünf Testobjekte angewandt, welche erfolgreich in Form eines 3D-Drucks rekonstruiert wurden. Der Vergleich von originalen und rekonstruierten Objekten zeigt durchschnittliche Abweichungen von weniger als 1 mm für das gewählte Setup. Es wird eine Schrumpfung des 3D-Drucks aufgrund der Abkühlung des Materials angenommen, was zu einer Verkleinerung des Objekts führt. Im Durchschnitt sind die 3D-gedruckten Objekte um bis zu 2 % kleiner als die Originalobjekte. Eine Größenabweichung wird aufgrund der Schrumpfung des 3D-Drucks angenommen. Das zweite Ziel dieser Arbeit war die automatisierte Posen-Bestimmung von Holzwerkstücken in einem übergeordneten Koordinatensystem auf Basis der entwickelten Methode. Die Definition eines lokalen Objektkoordinatensystems ermöglicht die Bestimmung der Transformationsparameter in Bezug auf dieses übergeordnete System. Die Roboterpfade wurden für Fräs- und Bohroperationen an die Lage des Werkstücks angepasst. Im Zuge einer Messkampagne erreichte die automatisierte Lagebestimmung des Objekts eine Genauigkeit unter 2 mm in Bezug auf das übergeordnete Koordinatensystem. In Hinblick auf die Durchführung von Fräs- und Bohroperationen wurde dies als ausreichend genau angesehen.
Vergleich von GNSS-RTK Positionierungen auf Basis verschiedener RTCM 3.x Korrekturdatenströme
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Klaus Gutlederer
Kurzfassung/Abstract
Unter Verwendung von RTK-Echtzeitkinematik-GNSS-Methoden kann eine hohe Genauigkeit in Lage und Höhe erreicht werden. Das Ziel dieser Masterarbeit war die Bewertung von GNSS-RTK-Positionierungsdiensten basierend auf RTCM 3.x-Korrekturströmen. Die Messungen wurden mit dem EPOSA GNSS Service durchgeführt, das verschiedene landesweite Datenkorrektur-Streams anbietet. Die Messungen wurden in verschiedenen Koordinatenreferenzsystemen wie dem International Terrestrial Reference Frame (ITRF), dem European Terrestrial Reference Frame (ETRF) und dem Militär-Geographischen Institut (MGI), dem nationalen Koordinatenreferenzsystem Österreichs, durchgeführt. EPOSA bietet zwei Arten von RTCM 3.1-Korrekturströmen; ein Strom unterstützt einzelne meridionale Zonen, die andere versorgt das gesamte österreichische Staatsgebiet. Auf der anderen Seite nutzt die Österreichische Bundesbahn als Partner von EPOSA einen anderen Korrekturstrom, der am besten an den Bereich in Gleisnähe angepasst ist. Die Messungen wurden in Wien auf dem Dach des TU Wien Campus und in der Nähe von Bahngleisen durchgeführt. Die Ergebnisse zeigten, dass durch den Einsatz von RTK-Echtzeitkinematikverfahren je nach Anwendung hochgenaue Positionen erreicht werden können. Um die über Jahre durch Eisenbahnvermessungen gewonnenen Koordinaten wiederherzustellen, muss der kürzlich erstellte Infra-Grid-Korrekturstrom angewendet werden. Zur Wiederherstellung der vom BEV herausgegebenen Landeskoordinaten sollten die regulären Eposa Grid Services verwendet werden. Andererseits haben die Messungen mit Eposa ETRF89-Diensten und Eposa ITRF 2014-Diensten gezeigt, dass sowohl in der Horizontalen als auch in der Höhe einige cm-Genauigkeit erreicht werden kann. Wie angenommen zeigte sich ein Unterschied von etwa 40 cm zwischen den Koordinatenlösungen von ITRF2014 und ETRF89 aufgrund der Plattenbewegung und des Unterschieds in den Referenzepochen.
Unter Verwendung von RTK-Echtzeitkinematik-GNSS-Methoden kann eine hohe Genauigkeit in Lage und Höhe erreicht werden. Das Ziel dieser Masterarbeit war die Bewertung von GNSS-RTK-Positionierungsdiensten basierend auf RTCM 3.x-Korrekturströmen. Die Messungen wurden mit dem EPOSA GNSS Service durchgeführt, das verschiedene landesweite Datenkorrektur-Streams anbietet. Die Messungen wurden in verschiedenen Koordinatenreferenzsystemen wie dem International Terrestrial Reference Frame (ITRF), dem European Terrestrial Reference Frame (ETRF) und dem Militär-Geographischen Institut (MGI), dem nationalen Koordinatenreferenzsystem Österreichs, durchgeführt. EPOSA bietet zwei Arten von RTCM 3.1-Korrekturströmen; ein Strom unterstützt einzelne meridionale Zonen, die andere versorgt das gesamte österreichische Staatsgebiet. Auf der anderen Seite nutzt die Österreichische Bundesbahn als Partner von EPOSA einen anderen Korrekturstrom, der am besten an den Bereich in Gleisnähe angepasst ist. Die Messungen wurden in Wien auf dem Dach des TU Wien Campus und in der Nähe von Bahngleisen durchgeführt. Die Ergebnisse zeigten, dass durch den Einsatz von RTK-Echtzeitkinematikverfahren je nach Anwendung hochgenaue Positionen erreicht werden können. Um die über Jahre durch Eisenbahnvermessungen gewonnenen Koordinaten wiederherzustellen, muss der kürzlich erstellte Infra-Grid-Korrekturstrom angewendet werden. Zur Wiederherstellung der vom BEV herausgegebenen Landeskoordinaten sollten die regulären Eposa Grid Services verwendet werden. Andererseits haben die Messungen mit Eposa ETRF89-Diensten und Eposa ITRF 2014-Diensten gezeigt, dass sowohl in der Horizontalen als auch in der Höhe einige cm-Genauigkeit erreicht werden kann. Wie angenommen zeigte sich ein Unterschied von etwa 40 cm zwischen den Koordinatenlösungen von ITRF2014 und ETRF89 aufgrund der Plattenbewegung und des Unterschieds in den Referenzepochen.
Auswertung von X-Band-Doppler-Wetterradardaten basierend auf stationsbasierten Niederschlagsmessungen im Zentralraum der Steiermark
Institut für Geographie und Raumforschung, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dr. Wolfgang Schöner
Kurzfassung/Abstract
Das dual-polarimetrische X-Band-Doppler-Wetterradar WR2100 von Furuno sammelt seit Sommer 2019 hochauflösende Daten in der Zentralregion der Steiermark. Das Wetterradar ist im Zentrum von Graz installiert und misst verschiedene Parameter (z.B. Reflektivität sowie verschiedene dual-polarimetrische Größen) in einem Gebiet von 30 km. Um die Radardaten als Niederschlagsmessungen zu verwenden, wird die Niederschlagsmenge (R [mm/h]) anhand der Reflektivität (Z [mm^6/m^3]) auf der Grundlage der empirischen Beziehung Z=aR^b geschätzt. Allerdings unterliegen Wetterradarmessungen dem Einfluss von Strahlblockaden, Clutter und Dämpfung des Radarstrahls. Diese beeinträchtigen die Qualität der Reflektivitätsmessungen. Insbesondere bei X-Band-Radaren mit kurzwelligen Signalen ist die Dämpfung eine starke Unsicherheitsquelle. Im Rahmen dieser Masterarbeit wurde eine Prozessierungskette für die Furuno WR2100-Daten implementiert. Die Prozessierung der Daten dient dazu, Clutter zu entfernen und die Dämpfung zu korrigieren, um Fehler bei der Niederschlagsschätzung zu reduzieren. Die Implementierung der Datenverarbeitung basiert hauptsächlich auf Funktionen, die von den offenen Python-Bibliotheken wradlib und WRaINfo bereitgestellt werden. Clutter wird mit Hilfe einer Fuzzy-Echoklassifizierung identifiziert. Für die Dämpfungskorrektur wurde die Methode, die auch in der proprietären Furuno WR2100-Software verwendet wird, neu implementiert und mit der komplexeren ZPHI-Methode verglichen. Die quantitativen Niederschlagsdaten wurden dann mit sechs verschiedenen Z-R-Relationen berechnet und mit stationsbasierten Messungen verglichen. Die Analyse umfasst dabei sowohl konvektive als auch stratiforme Niederschlagsereignisse. Die Ergebnisse zeigen, dass eine systematische Überschätzung der Radardaten im Vergleich zu den Messungen am Boden vorliegt. Die Analyse der beiden Dämpfungskorrektur-Methoden ergab, dass die ZPHI-Methode leicht besser abschnitt. Für gute Ergebnisse der Dämpfungskorrektur ist eine hohe Genauigkeit der phidp Messungen erforderlich, da beide Methoden davon abhängen. Es wurde ein signifikanter Unterschied zwischen den Ergebnissen der verschiedenen Z-R-Beziehungen festgestellt.
Das dual-polarimetrische X-Band-Doppler-Wetterradar WR2100 von Furuno sammelt seit Sommer 2019 hochauflösende Daten in der Zentralregion der Steiermark. Das Wetterradar ist im Zentrum von Graz installiert und misst verschiedene Parameter (z.B. Reflektivität sowie verschiedene dual-polarimetrische Größen) in einem Gebiet von 30 km. Um die Radardaten als Niederschlagsmessungen zu verwenden, wird die Niederschlagsmenge (R [mm/h]) anhand der Reflektivität (Z [mm^6/m^3]) auf der Grundlage der empirischen Beziehung Z=aR^b geschätzt. Allerdings unterliegen Wetterradarmessungen dem Einfluss von Strahlblockaden, Clutter und Dämpfung des Radarstrahls. Diese beeinträchtigen die Qualität der Reflektivitätsmessungen. Insbesondere bei X-Band-Radaren mit kurzwelligen Signalen ist die Dämpfung eine starke Unsicherheitsquelle. Im Rahmen dieser Masterarbeit wurde eine Prozessierungskette für die Furuno WR2100-Daten implementiert. Die Prozessierung der Daten dient dazu, Clutter zu entfernen und die Dämpfung zu korrigieren, um Fehler bei der Niederschlagsschätzung zu reduzieren. Die Implementierung der Datenverarbeitung basiert hauptsächlich auf Funktionen, die von den offenen Python-Bibliotheken wradlib und WRaINfo bereitgestellt werden. Clutter wird mit Hilfe einer Fuzzy-Echoklassifizierung identifiziert. Für die Dämpfungskorrektur wurde die Methode, die auch in der proprietären Furuno WR2100-Software verwendet wird, neu implementiert und mit der komplexeren ZPHI-Methode verglichen. Die quantitativen Niederschlagsdaten wurden dann mit sechs verschiedenen Z-R-Relationen berechnet und mit stationsbasierten Messungen verglichen. Die Analyse umfasst dabei sowohl konvektive als auch stratiforme Niederschlagsereignisse. Die Ergebnisse zeigen, dass eine systematische Überschätzung der Radardaten im Vergleich zu den Messungen am Boden vorliegt. Die Analyse der beiden Dämpfungskorrektur-Methoden ergab, dass die ZPHI-Methode leicht besser abschnitt. Für gute Ergebnisse der Dämpfungskorrektur ist eine hohe Genauigkeit der phidp Messungen erforderlich, da beide Methoden davon abhängen. Es wurde ein signifikanter Unterschied zwischen den Ergebnissen der verschiedenen Z-R-Beziehungen festgestellt.
Graphdatenbanken zur Netzwerkberechnung von EVU
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, welche Möglichkeiten Graphdatenbanken zur Netzwerkberechnung von Energieversorgungsunternehmen bieten und welche Schritte für eine Überführung der Daten aus einer relationalen Datenbank in eine Graphdatenbank notwendig sind. Zur Beantwortung der Forschungsfrage wurde ein qualitativer Vergleich zu den Datenbanksystemen erstens relationale Datenbanken und zweitens Graphdatenbanken durchgeführt, welcher dann bezogen auf den Anwendungsfall von Energieversorgungsunternehmen beurteilt wurde. Es wurde ein Datenmodell für die Überführung der Daten, welche in der Größe ausgewählter Ortsnetze vorliegen, aus einer relationalen Datenbank in die Graphdatenbank Neo4j erstellt. Voraussetzung dafür war eine saubere Topologie im relationalen Datenbanksystem. Der qualitative Vergleich zeigte, dass beide Systeme Vor- und Nachteile haben, welche stark vom Anwendungsfall abhängen. Jedenfalls eignen sich Graphdatenbanken für Abfragen zu Netzwerkberechnungen, was die Einfachheit der Abfragen im Implementierungsteil der Arbeit belegt.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, welche Möglichkeiten Graphdatenbanken zur Netzwerkberechnung von Energieversorgungsunternehmen bieten und welche Schritte für eine Überführung der Daten aus einer relationalen Datenbank in eine Graphdatenbank notwendig sind. Zur Beantwortung der Forschungsfrage wurde ein qualitativer Vergleich zu den Datenbanksystemen erstens relationale Datenbanken und zweitens Graphdatenbanken durchgeführt, welcher dann bezogen auf den Anwendungsfall von Energieversorgungsunternehmen beurteilt wurde. Es wurde ein Datenmodell für die Überführung der Daten, welche in der Größe ausgewählter Ortsnetze vorliegen, aus einer relationalen Datenbank in die Graphdatenbank Neo4j erstellt. Voraussetzung dafür war eine saubere Topologie im relationalen Datenbanksystem. Der qualitative Vergleich zeigte, dass beide Systeme Vor- und Nachteile haben, welche stark vom Anwendungsfall abhängen. Jedenfalls eignen sich Graphdatenbanken für Abfragen zu Netzwerkberechnungen, was die Einfachheit der Abfragen im Implementierungsteil der Arbeit belegt.
Trennbarkeitsanalyse und Klassifikation von Baumarten mit Sentinel-2 Zeitreihendaten
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2023
Betreuer: Univ.-Prof.i.R. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Forstwirtschaftliche Entscheidungen sind abhängig von detaillierten und aktuellen Informationen über Waldbedeckung und vorhandene Ressourcen. Die Sentinel-2 Mission ermöglicht eine großräumige und dennoch kosteneffiziente Anwendung der Fernerkundung auf diesem Gebiet. Die hohe Wiederholrate unterstützt die Zeitreihenanalyse, die dazu beiträgt, die Trennbarkeit von Baumarten zu verbessern. In Kombination mit nichtparametrischen Machine-Learning-Algorithmen, die vieldimensionale multitemporale Daten verarbeiten können, sind verbesserte Klassifizierungsgenauigkeiten von ehemals schwer trennbaren Landbedeckungen möglich. Ziel dieser Masterarbeit ist die Trennbarkeit von Baumarten mit Sentinel-2 Zeitreihendaten zu untersuchen und eine Klassifizierung mit dem Random Forest Algorithmus durchzuführen. Um die Trennbarkeitsanalyse an die Funktionsweise des gewählten Klassifikators anzupassen, wurde ein selten verwendetes Trennbarkeitsmaß, basierend auf dem Isolation Forest Algorithmus, eingesetzt. Für eine optimale Auswahl an Features zu Klassifizierung, wurde ein iteratives Verfahren auf der Grundlage von Random Forest Importance Maßen und dem Pearson-Korrelationskoeffizienten angewendet. Mit der Kombination von verschiedenen Auswahlen an Features und Parametern des Klassifizierungsalgorithmus wurden sechs Klassifikationen erstellt. Die Qualität der Resultate wurde mit einer flächenbasierten Validierung mit unabhängig erstellten Validierungsdaten beurteilt. Die Ergebnisse dieser Arbeit sprechen für den Einsatz von Zeitreihendaten. Allerdings zeigt sich, dass eine optimale Auswahl gegenüber der Verwendung aller verfügbaren Features vorzuziehen ist. Trennbarkeitsanalyse und Validierung zeigen außerdem, dass Daten aus heterogenen und ungleichmäßig dichten Wäldern mit verschiedenen Baumarten in unterschiedlichen Entwicklungsstadien selbst für überlegene Klassifikatoren eine Herausforderung darstellen.
Forstwirtschaftliche Entscheidungen sind abhängig von detaillierten und aktuellen Informationen über Waldbedeckung und vorhandene Ressourcen. Die Sentinel-2 Mission ermöglicht eine großräumige und dennoch kosteneffiziente Anwendung der Fernerkundung auf diesem Gebiet. Die hohe Wiederholrate unterstützt die Zeitreihenanalyse, die dazu beiträgt, die Trennbarkeit von Baumarten zu verbessern. In Kombination mit nichtparametrischen Machine-Learning-Algorithmen, die vieldimensionale multitemporale Daten verarbeiten können, sind verbesserte Klassifizierungsgenauigkeiten von ehemals schwer trennbaren Landbedeckungen möglich. Ziel dieser Masterarbeit ist die Trennbarkeit von Baumarten mit Sentinel-2 Zeitreihendaten zu untersuchen und eine Klassifizierung mit dem Random Forest Algorithmus durchzuführen. Um die Trennbarkeitsanalyse an die Funktionsweise des gewählten Klassifikators anzupassen, wurde ein selten verwendetes Trennbarkeitsmaß, basierend auf dem Isolation Forest Algorithmus, eingesetzt. Für eine optimale Auswahl an Features zu Klassifizierung, wurde ein iteratives Verfahren auf der Grundlage von Random Forest Importance Maßen und dem Pearson-Korrelationskoeffizienten angewendet. Mit der Kombination von verschiedenen Auswahlen an Features und Parametern des Klassifizierungsalgorithmus wurden sechs Klassifikationen erstellt. Die Qualität der Resultate wurde mit einer flächenbasierten Validierung mit unabhängig erstellten Validierungsdaten beurteilt. Die Ergebnisse dieser Arbeit sprechen für den Einsatz von Zeitreihendaten. Allerdings zeigt sich, dass eine optimale Auswahl gegenüber der Verwendung aller verfügbaren Features vorzuziehen ist. Trennbarkeitsanalyse und Validierung zeigen außerdem, dass Daten aus heterogenen und ungleichmäßig dichten Wäldern mit verschiedenen Baumarten in unterschiedlichen Entwicklungsstadien selbst für überlegene Klassifikatoren eine Herausforderung darstellen.
Unsicherheitsanalyse der TLS-Distanzabweichungen verursacht durch Material und Auftreffwinkel
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Finn Linzer MSc
Kurzfassung/Abstract
Terrestrische Laserscanner (TLS) finden immer häufiger Anwendung im Bereich der Ingenieurgeodäsie. Die mit modernen TLS erreichbare 3D-Punktgenauigkeit liegt im niedrigen Millimeterbereich. Zudem geben Hersteller Präzisionen für die Distanzmessung an, die bis in den Submillimeterbereich reichen. Dies treibt dazu an, vermutete systematische Effekte zu untersuchen, welche die Unsicherheit von TLS-Entfernungsmessungen beeinflussen könnten. Die Markteinführung von geodätischen Multistationen - Kombinationsinstrumente aus Totalstation (TS) und TLS - ermöglicht einen neuen Ansatz zur Genauigkeitsüberprüfung von TLS-Distanzmessungen, insbesondere in Bezug auf das zu scannende Material und den Einfallswinkel zwischen Laserstrahl und Objekt. Eine solche, als ROSIAM bezeichnete, Methode zur Durchführung und Auswertung von TLS-Distanzmessungen wurde vom Forschungsbereich für Ingenieurgeodäsie der TU Wien entwickelt. Das Grundprinzip ist der direkte Vergleich von TLS-Distanzen und Referenzdistanzen, welche mit einem Instrument höherer Genauigkeit ermittelt wurden. Ziel dieser Arbeit ist es, die Unsicherheitsquellen der ROSIAM-Methode zu bestimmen und zu quantifizieren sowie ein umfassendes Unsicherheitsbudget für die abgeleiteten Differenzen von TLS-Distanzen und Referenzdistanzen zu erstellen. Die Varianz-Kovarianz-Fortpflanzung und die Monte-Carlo-Simulation werden als Berechnungsmethoden eingesetzt, um die gemeinsame Auswirkung aller Unsicherheitseinflüsse auf die Distanzdifferenzen zu bestimmen. Ein wesentlicher Schritt dazu ist die Entwicklung eines Modells zur Netztransformation, welches einen funktionalen räumlichen Zusammenhang zwischen den Messgrößen des terrestrischen Laserscanners und jenen des Referenzinstruments herstellt. Die Instrumente können dabei beliebig zueinander positioniert und orientiert sein. In dieser Arbeit werden die Unsicherheiten von Distanzdifferenzen für Einfallswinkel von 0 bis 60 gon und für sieben verschiedene Materialien bestimmt. Zwischen allen Materialien wurden signifikante Unterschiede bei den Distanzdifferenzen für jeweils einen Großteil der untersuchten Einfallswinkel festgestellt. Dies lässt den Schluss zu, dass den vorliegenden Distanzdifferenzen systematische Effekte zugrunde liegen. Es wurde auch festgestellt, dass keine signifikanten Unterschiede in den Unsicherheiten der Distanzdifferenzen bezüglich Material und Einfallswinkel vorliegen. Daher kann ein einheitlicher Wert von 0.2mm als Standardunsicherheit für die Distanzdifferenzen verwendet werden. Die Anwendung dieser Standardunsicherheit ist jedoch auf die ROSIAM-Methode, die untersuchten Materialien und den Bereich der untersuchten Einfallswinkel zu beschränken. Die Ergebnisse zeigen insgesamt, dass die ROSIAM-Methode geeignet ist, um vermutete systematische Effekte bei TLS-Distanzmessungen von Multistationen zu untersuchen.
Terrestrische Laserscanner (TLS) finden immer häufiger Anwendung im Bereich der Ingenieurgeodäsie. Die mit modernen TLS erreichbare 3D-Punktgenauigkeit liegt im niedrigen Millimeterbereich. Zudem geben Hersteller Präzisionen für die Distanzmessung an, die bis in den Submillimeterbereich reichen. Dies treibt dazu an, vermutete systematische Effekte zu untersuchen, welche die Unsicherheit von TLS-Entfernungsmessungen beeinflussen könnten. Die Markteinführung von geodätischen Multistationen - Kombinationsinstrumente aus Totalstation (TS) und TLS - ermöglicht einen neuen Ansatz zur Genauigkeitsüberprüfung von TLS-Distanzmessungen, insbesondere in Bezug auf das zu scannende Material und den Einfallswinkel zwischen Laserstrahl und Objekt. Eine solche, als ROSIAM bezeichnete, Methode zur Durchführung und Auswertung von TLS-Distanzmessungen wurde vom Forschungsbereich für Ingenieurgeodäsie der TU Wien entwickelt. Das Grundprinzip ist der direkte Vergleich von TLS-Distanzen und Referenzdistanzen, welche mit einem Instrument höherer Genauigkeit ermittelt wurden. Ziel dieser Arbeit ist es, die Unsicherheitsquellen der ROSIAM-Methode zu bestimmen und zu quantifizieren sowie ein umfassendes Unsicherheitsbudget für die abgeleiteten Differenzen von TLS-Distanzen und Referenzdistanzen zu erstellen. Die Varianz-Kovarianz-Fortpflanzung und die Monte-Carlo-Simulation werden als Berechnungsmethoden eingesetzt, um die gemeinsame Auswirkung aller Unsicherheitseinflüsse auf die Distanzdifferenzen zu bestimmen. Ein wesentlicher Schritt dazu ist die Entwicklung eines Modells zur Netztransformation, welches einen funktionalen räumlichen Zusammenhang zwischen den Messgrößen des terrestrischen Laserscanners und jenen des Referenzinstruments herstellt. Die Instrumente können dabei beliebig zueinander positioniert und orientiert sein. In dieser Arbeit werden die Unsicherheiten von Distanzdifferenzen für Einfallswinkel von 0 bis 60 gon und für sieben verschiedene Materialien bestimmt. Zwischen allen Materialien wurden signifikante Unterschiede bei den Distanzdifferenzen für jeweils einen Großteil der untersuchten Einfallswinkel festgestellt. Dies lässt den Schluss zu, dass den vorliegenden Distanzdifferenzen systematische Effekte zugrunde liegen. Es wurde auch festgestellt, dass keine signifikanten Unterschiede in den Unsicherheiten der Distanzdifferenzen bezüglich Material und Einfallswinkel vorliegen. Daher kann ein einheitlicher Wert von 0.2mm als Standardunsicherheit für die Distanzdifferenzen verwendet werden. Die Anwendung dieser Standardunsicherheit ist jedoch auf die ROSIAM-Methode, die untersuchten Materialien und den Bereich der untersuchten Einfallswinkel zu beschränken. Die Ergebnisse zeigen insgesamt, dass die ROSIAM-Methode geeignet ist, um vermutete systematische Effekte bei TLS-Distanzmessungen von Multistationen zu untersuchen.
Baugesetze der österreichischen Bundesländer und ihre Auswirkungen auf den Kataster
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
In dieser Arbeit werden mögliche Auswirkungen der verschiedenen österreichischen Baugesetze auf den Kataster untersucht. Dazu wird - um den Umfang dieser Arbeit zu beschränken - grundsätzlich von einem einfachen Neubauprojekt (Einfamilienhaus im Bauland) ausgegangen und speziell dahingehend die einzelnen Landesgesetze analysiert. Daraus werden für den Beispielfall bundesländerspezifische Prozessabläufe betreffend die Vermessung im Bauverfahren abgeleitet. In weiterer Folge werden qualitative Auswirkungen analysiert und auf die Unterschiede in den Prozessabläufen sowie auf unterschiedliche Definitionen und Anforderungen näher eingegangen. Quantitative Auswirkungen werden durch eine grobe Analyse der Regionaldaten des Bundesamtes für Eich- und Vermessungswesen abgeschätzt und dargestellt. Durch Interviews mit einzelnen Ingenieurkonsulenten für Vermessungswesen (IKV) sowie einer österreichweiten Umfrage, an der hauptsächlich Architekten und IKVs teilgenommen haben, wird das Bewusstsein für Vermessungsverpflichtungen in den jeweiligen Landesbaugesetzen im Allgemeinen und die aus ihrer Sicht möglichen Konflikt- und Verbesserungsmöglichkeiten zwischen Vermessungs- und Bauwesen im Speziellen näher beleuchtet. Abschließend wird eine Reihe von Verbesserungsmöglichkeiten in den Landesbaugesetzen betreffend die Vermessung aufgezeigt. Die Ergebnisse dieser Arbeit zeigen, dass die Landesbaugesetze Auswirkungen auf den Kataster in Bezug auf die technische Qualität haben können, rechtliche Auswirkungen sind durch die hierarchische Unterordnung der Landesgesetze unter die im Bundesrecht stehenden Gesetze des Katasters ausgeschlossen. Durch eine klare Definition von Vermessungspflichten im Bauverfahren sowie einheitliche Begriffsdefinitionen und Anforderungen könnte die Katasterqualität erhöht werden.
In dieser Arbeit werden mögliche Auswirkungen der verschiedenen österreichischen Baugesetze auf den Kataster untersucht. Dazu wird - um den Umfang dieser Arbeit zu beschränken - grundsätzlich von einem einfachen Neubauprojekt (Einfamilienhaus im Bauland) ausgegangen und speziell dahingehend die einzelnen Landesgesetze analysiert. Daraus werden für den Beispielfall bundesländerspezifische Prozessabläufe betreffend die Vermessung im Bauverfahren abgeleitet. In weiterer Folge werden qualitative Auswirkungen analysiert und auf die Unterschiede in den Prozessabläufen sowie auf unterschiedliche Definitionen und Anforderungen näher eingegangen. Quantitative Auswirkungen werden durch eine grobe Analyse der Regionaldaten des Bundesamtes für Eich- und Vermessungswesen abgeschätzt und dargestellt. Durch Interviews mit einzelnen Ingenieurkonsulenten für Vermessungswesen (IKV) sowie einer österreichweiten Umfrage, an der hauptsächlich Architekten und IKVs teilgenommen haben, wird das Bewusstsein für Vermessungsverpflichtungen in den jeweiligen Landesbaugesetzen im Allgemeinen und die aus ihrer Sicht möglichen Konflikt- und Verbesserungsmöglichkeiten zwischen Vermessungs- und Bauwesen im Speziellen näher beleuchtet. Abschließend wird eine Reihe von Verbesserungsmöglichkeiten in den Landesbaugesetzen betreffend die Vermessung aufgezeigt. Die Ergebnisse dieser Arbeit zeigen, dass die Landesbaugesetze Auswirkungen auf den Kataster in Bezug auf die technische Qualität haben können, rechtliche Auswirkungen sind durch die hierarchische Unterordnung der Landesgesetze unter die im Bundesrecht stehenden Gesetze des Katasters ausgeschlossen. Durch eine klare Definition von Vermessungspflichten im Bauverfahren sowie einheitliche Begriffsdefinitionen und Anforderungen könnte die Katasterqualität erhöht werden.
Ist deine Stadt einfach zu navigieren? Eigenschaften des Straßennetzes und deren Einfluss auf den Navigationserfolg
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc, Bartosz Mazurkiewicz MSc
Kurzfassung/Abstract
Wayfinding is an everyday human task when navigating through a city and the routes which are taken are always embedded into a street network. Hence, whenever wayfinding studies are conducted, they are influenced by the underlying network. This thesis investigates what street network properties impact the navigation success when using Free Choice Navigation as navigation paradigm. The street network properties characterise the neighbourhood, which surrounds a route from a starting point to a destination. Six different approaches are discussed, on how to define this neighbourhood. The chosen approach contrasts with the prevailing choice of geometric or administrative study areas and the focus is rather on the street network itself. It ensures that all nodes, that could be passed when navigating from A to B under the condition that the final path length is below a certain allowed maximum length, are within the area. After the definition of the neighbourhood area, 34 street network properties are discussed and computed. By using Principal Component Regression, the relation between 30 of those properties and the navigation success rate is investigated. The analysis is conducted for three cities: Vienna, Mexico City and Djibouti City. It is found that the ratio between the allowed detour and the mean segment length within the neighbourhood area impacts the success rate and is positively correlated with it. In addition, the city type of the cities where the routes are located seems to have an impact. The results suggest that Vienna appears to be more navigable than Mexico City, because the investigated neighbourhoods have a lower mean segment length. Furthermore, Vienna seems more navigable than Djibouti City, because the investigated routes are longer on average.
Wayfinding is an everyday human task when navigating through a city and the routes which are taken are always embedded into a street network. Hence, whenever wayfinding studies are conducted, they are influenced by the underlying network. This thesis investigates what street network properties impact the navigation success when using Free Choice Navigation as navigation paradigm. The street network properties characterise the neighbourhood, which surrounds a route from a starting point to a destination. Six different approaches are discussed, on how to define this neighbourhood. The chosen approach contrasts with the prevailing choice of geometric or administrative study areas and the focus is rather on the street network itself. It ensures that all nodes, that could be passed when navigating from A to B under the condition that the final path length is below a certain allowed maximum length, are within the area. After the definition of the neighbourhood area, 34 street network properties are discussed and computed. By using Principal Component Regression, the relation between 30 of those properties and the navigation success rate is investigated. The analysis is conducted for three cities: Vienna, Mexico City and Djibouti City. It is found that the ratio between the allowed detour and the mean segment length within the neighbourhood area impacts the success rate and is positively correlated with it. In addition, the city type of the cities where the routes are located seems to have an impact. The results suggest that Vienna appears to be more navigable than Mexico City, because the investigated neighbourhoods have a lower mean segment length. Furthermore, Vienna seems more navigable than Djibouti City, because the investigated routes are longer on average.
Identification of the Driving Dynamics of a Skid‐Steered Mobile Robot Based on Geodetic Measurements
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die Fahrdynamik von antriebsgelenkten Fahrzeugen ist aufgrund der inhärenten Notwendigkeit des Traktionsverlusts für kurvenförmige Bewegungen, was zu komplexen Reifen-Boden- Interaktionen führt, schwer zu modellieren. Jedoch sind solche Fahrzeuge aufgrund ihrer robusten, kostengünstigen und wartungsarmen Konstruktion sowie ihrer hervorragenden Geländetauglichkeit gut geeignet für automatisierte Roboter. Eine mögliche Anwendung solcher Roboter ist zum Beispiel Mobile Mapping. Dieses kann von einem präzisen Modell der Fahrdynamik für genauere Zustandsschätzungen zur Georeferenzierung von Messungen und Navigation, als auch für die Systemsteuerung profitieren. Systemidentifikation ist ein Bereich der angewandten Mathematik, der Modelle dynamischer Systeme auf Basis von gemessenen Eingangs- und Ausgangsdaten des Systems schätzt. Der SINDY-Algorithmus (Sparse Identification of Nonlinear DYnamics) ist eine Methode, die sparse Regression verwendet, um interpretierbare und kompakte Modelle zu identifizieren, die einen Kompromiss aus Modellkomplexität und Prädiktionsgenauigkeit darstellen. In dieser Arbeit wurde die Eignung des SINDY-Algorithmus für die Systemidentifikation der Fahrdynamik des Clearpath Husky A200 auf Basis geodätischer Messungen getestet. Der Husky A200 ist ein mittelgroßer Roboter für Forschung und Entwicklung und stellt ein Beispiel für ein antriebsgelenktes Roboterfahrzeug dar, welches sich gut für Aufgaben wie Mobile Mapping eignet. Ein Messaufbau mit zwei Lasertrackern zur Datenerfassung wurde erstellt, der die Probleme der Zeitsynchronisation der verschiedenen Systemkomponenten und des Aufrechterhaltens einer ununterbrochenen Sichtlinie zwischen den Lasertrackern und ihrem Zielpunkt während des Fahrens löst. Eine Abfolge von Vorverarbeitungsschritten zur Berechnung der Eingangsdaten für die Systemidentifikation wurde etabliert. Zeitsynchronisation, Posen-Berechnung und Interpolation sowie Zustandsvektor-Berechnung und Transformation wurden dabei durchgeführt. Die Systemidentifikation mit SINDY wurde erfolgreich durchgeführt, wobei die Integralschreibweise von SINDY und ein umfangreiches Hyperparameter-Tuning eingesetzt wurden. Die Unsicherheit der Positionsschätzung des besten Modells betrug nach einer Integrationszeit von 5 Sekunden 14 cm und die Unsicherheit des Kurswinkels betrug 4,7◦. Diese Ergebnisse zeigen die Eignung von durch SINDY identifizierter Modelle für bestimmte Anwendungen der Zustandsschätzung. Potenzielle Schwächen und Verbesserungsmöglichkeiten des vorgestellten Messaufbaus und der Methodik wurden identifiziert und diskutiert.
Die Fahrdynamik von antriebsgelenkten Fahrzeugen ist aufgrund der inhärenten Notwendigkeit des Traktionsverlusts für kurvenförmige Bewegungen, was zu komplexen Reifen-Boden- Interaktionen führt, schwer zu modellieren. Jedoch sind solche Fahrzeuge aufgrund ihrer robusten, kostengünstigen und wartungsarmen Konstruktion sowie ihrer hervorragenden Geländetauglichkeit gut geeignet für automatisierte Roboter. Eine mögliche Anwendung solcher Roboter ist zum Beispiel Mobile Mapping. Dieses kann von einem präzisen Modell der Fahrdynamik für genauere Zustandsschätzungen zur Georeferenzierung von Messungen und Navigation, als auch für die Systemsteuerung profitieren. Systemidentifikation ist ein Bereich der angewandten Mathematik, der Modelle dynamischer Systeme auf Basis von gemessenen Eingangs- und Ausgangsdaten des Systems schätzt. Der SINDY-Algorithmus (Sparse Identification of Nonlinear DYnamics) ist eine Methode, die sparse Regression verwendet, um interpretierbare und kompakte Modelle zu identifizieren, die einen Kompromiss aus Modellkomplexität und Prädiktionsgenauigkeit darstellen. In dieser Arbeit wurde die Eignung des SINDY-Algorithmus für die Systemidentifikation der Fahrdynamik des Clearpath Husky A200 auf Basis geodätischer Messungen getestet. Der Husky A200 ist ein mittelgroßer Roboter für Forschung und Entwicklung und stellt ein Beispiel für ein antriebsgelenktes Roboterfahrzeug dar, welches sich gut für Aufgaben wie Mobile Mapping eignet. Ein Messaufbau mit zwei Lasertrackern zur Datenerfassung wurde erstellt, der die Probleme der Zeitsynchronisation der verschiedenen Systemkomponenten und des Aufrechterhaltens einer ununterbrochenen Sichtlinie zwischen den Lasertrackern und ihrem Zielpunkt während des Fahrens löst. Eine Abfolge von Vorverarbeitungsschritten zur Berechnung der Eingangsdaten für die Systemidentifikation wurde etabliert. Zeitsynchronisation, Posen-Berechnung und Interpolation sowie Zustandsvektor-Berechnung und Transformation wurden dabei durchgeführt. Die Systemidentifikation mit SINDY wurde erfolgreich durchgeführt, wobei die Integralschreibweise von SINDY und ein umfangreiches Hyperparameter-Tuning eingesetzt wurden. Die Unsicherheit der Positionsschätzung des besten Modells betrug nach einer Integrationszeit von 5 Sekunden 14 cm und die Unsicherheit des Kurswinkels betrug 4,7◦. Diese Ergebnisse zeigen die Eignung von durch SINDY identifizierter Modelle für bestimmte Anwendungen der Zustandsschätzung. Potenzielle Schwächen und Verbesserungsmöglichkeiten des vorgestellten Messaufbaus und der Methodik wurden identifiziert und diskutiert.
Untersuchung von 3D-Konfigurationen für Bildgebungsverfahren der Spektralen Induzierten Polarisation
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2023
Betreuer: Prof. Dr. Adrian Flores-Orozco, Prof. Dr. Andrew Binley
Kurzfassung/Abstract
3D-Verfahren der Induzierten Polarisation (IP) werden gewöhnlich unter Verwendung paralleler 2D-Elektrodenlinien mit Messungen innerhalb der einzelnen Linien durchgeführt. Die Anwendung solcher Messkonfigurationen führt jedoch zu einer verringerten Auflösung zwischen den Linien, was besonders im Falle heterogen verteilter elektrischer Eigenschaften im Untergrund, wie z.B. in Deponien, kritisch ist. Um derartige Probleme zu vermeiden, untersuchen wir im Rahmen dieser Arbeit, wie 3D-Konfigurationen die Auflösung bei Messungen der Spektralen IP verbessern können. Genauer gesagt wurde untersucht, wie gut verschiedene 2D- und 3D-Elektrodenkonfigurationen bei Verfahren der Einzel- und Multi-Frequenz IP die elektrischen Eigenschaften des Untergrundes wiedergeben können. Dazu wurden zuerst die Unterschiede zwischen parallelen 2D-Linien und zwei 3D-Konfigurationen mithilfe einer numerischen Modellierung herausgearbeitet. Als 3D-Konfigurationen wurden eine Grid-Konfiguration, bei der die Elektroden in einem quadratischen Raster angeordnet wurden, sowie eine Kreis-Konfiguration, bei der die Elektroden in vier konzentrischen Kreisen angeordnet wurden, getestet. Um die Konfigurationen unter richtigen Feldbedingungen zu testen, wurden Messungen mit den 2D- und 3D-Konfigurationen im nächsten Schritt in zwei Deponien durchgeführt. Sowohl die Ergebnisse der numerischen Modellierung als auch die Ergebnisse der Feldmessungen zeigen, dass sich bei Messungen mit den parallelen 2D-Linien Artefakte und eine verringerte Auflösung im resultierenden 3D-Modell bilden, besonders im Falle polarisierbarer Anomalien. Im Gegensatz dazu zeigen die Ergebnisse der numerischen Modellierung und der Felddaten, dass 3D-Konfigurationen IP-Anomalien gut detektieren können und so zu einer Verbesserung der Abschätzung der räumlichen Verbreitung von Müll beitragen. Weiters zeigen die Ergebnisse, dass die Raster-Konfiguration mit Messungen über Elektrodenlinien hinweg und verschiedenen Dipolrichtungen bessere Ergebnisse liefert als die Kreis-Konfiguration, die im Zentrum ihrer konzentrischen Kreise eine verringerte Auflösung aufweist. Zusätzliche Untersuchungen der Frequenzabhängigkeit der synthetischen Daten und der Felddaten zeigen, dass 3D-Konfigurationen stabilere Spektren der komplexen Leitfähigkeit liefern als 2D-Konfigurationen. Stabile Spektren sind für eine genaue Schätzung von Parametern, die die Frequenzabhängigkeit beschreiben (z.B. Cole Cole), nötig.
3D-Verfahren der Induzierten Polarisation (IP) werden gewöhnlich unter Verwendung paralleler 2D-Elektrodenlinien mit Messungen innerhalb der einzelnen Linien durchgeführt. Die Anwendung solcher Messkonfigurationen führt jedoch zu einer verringerten Auflösung zwischen den Linien, was besonders im Falle heterogen verteilter elektrischer Eigenschaften im Untergrund, wie z.B. in Deponien, kritisch ist. Um derartige Probleme zu vermeiden, untersuchen wir im Rahmen dieser Arbeit, wie 3D-Konfigurationen die Auflösung bei Messungen der Spektralen IP verbessern können. Genauer gesagt wurde untersucht, wie gut verschiedene 2D- und 3D-Elektrodenkonfigurationen bei Verfahren der Einzel- und Multi-Frequenz IP die elektrischen Eigenschaften des Untergrundes wiedergeben können. Dazu wurden zuerst die Unterschiede zwischen parallelen 2D-Linien und zwei 3D-Konfigurationen mithilfe einer numerischen Modellierung herausgearbeitet. Als 3D-Konfigurationen wurden eine Grid-Konfiguration, bei der die Elektroden in einem quadratischen Raster angeordnet wurden, sowie eine Kreis-Konfiguration, bei der die Elektroden in vier konzentrischen Kreisen angeordnet wurden, getestet. Um die Konfigurationen unter richtigen Feldbedingungen zu testen, wurden Messungen mit den 2D- und 3D-Konfigurationen im nächsten Schritt in zwei Deponien durchgeführt. Sowohl die Ergebnisse der numerischen Modellierung als auch die Ergebnisse der Feldmessungen zeigen, dass sich bei Messungen mit den parallelen 2D-Linien Artefakte und eine verringerte Auflösung im resultierenden 3D-Modell bilden, besonders im Falle polarisierbarer Anomalien. Im Gegensatz dazu zeigen die Ergebnisse der numerischen Modellierung und der Felddaten, dass 3D-Konfigurationen IP-Anomalien gut detektieren können und so zu einer Verbesserung der Abschätzung der räumlichen Verbreitung von Müll beitragen. Weiters zeigen die Ergebnisse, dass die Raster-Konfiguration mit Messungen über Elektrodenlinien hinweg und verschiedenen Dipolrichtungen bessere Ergebnisse liefert als die Kreis-Konfiguration, die im Zentrum ihrer konzentrischen Kreise eine verringerte Auflösung aufweist. Zusätzliche Untersuchungen der Frequenzabhängigkeit der synthetischen Daten und der Felddaten zeigen, dass 3D-Konfigurationen stabilere Spektren der komplexen Leitfähigkeit liefern als 2D-Konfigurationen. Stabile Spektren sind für eine genaue Schätzung von Parametern, die die Frequenzabhängigkeit beschreiben (z.B. Cole Cole), nötig.
Eignung von Robotic-Totalstationen zur dynamischen Bauwerksüberwachung
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Der Überwachung von bestehenden Ingenieurbauten kommt aufgrund des zunehmenden Durchschnittsalters ebendieser eine immer größere Bedeutung zu. Während noch vor einigen Jahrzehnten deutlich mehr finanzielle Mittel für den Neubau als für die Instandhaltung von Infrastrukturbauten aufgewandt wurden, wendet sich mittlerweile diese Systematik. Aufgrund der hohen Neubaudichte in den 1960er, -70er und -80er Jahren kommt eine kritische Phase im Lebenszyklus dieser Bauwerke auf die Gesellschaft zu. Um die Bauwerke sicher und finanziell effizient betreiben zu können, bedarf es umfassender Überwachung der Infrastruktur. Unter anderem dazu geeignet ist die Totalstation als Nachfolger des Theodoliten. Für die Bauwerksüberwachung auf Basis von statischen Kennwerten wie Neigung, Verkippung, Setzung oder Durchbiegung hat sich die Totalstation entweder zur dauerhaften oder epochenweisen Messung bewährt. Oft reichen diese äußeren Parameter der Bauwerkserfassung aber nicht mehr aus, um eine umfassende Analyse des Bauwerkszustandes zu erstellen. Daher kommt den inneren Parametern eines Bauwerkes immer größere Bedeutung zu. Diese Parameter können zum Beispiel Eigenfrequenz und -form, Dämpfung oder Schwingungsintensität sein. Mit fortschreitender Entwicklung der Totalstation zur Robotic-Totalstation (RTS) können nicht nur Ziele automatisiert verfolgt, sondern auch Messungen dynamisch durchgeführt werden. Mithilfe dieser dynamischen Beobachtungen ist es möglich, Schwingungen von Objekten zu erfassen und somit Aussagen über den Zustand des Objektes zu treffen. Die dynamische Messung mit RTS kann dazu beitragen, diese Zustandserfassung zu verbessern. Die RTS als Multisensorsystem ist hinsichtlich ihrer Eignung zur dynamischen Messung bereits erprobt. Allerdings bleiben einige Aspekte dieser dynamischen Anwendung weitgehend unbeachtet. So wird der Einfluss des Ziels auf die dynamische Messung bei unterschiedlichen Distanzen zum Ziel nicht weiter beachtet. Auch die Robustheit der dynamischen Distanzmessung als kritische Komponente der dynamischen Messung, sowie die generelle temporäre Stabilität werden nicht hinreichend untersucht. In der vorliegenden Arbeit werden an vier verschiedenen Objekten Versuche mit RTS durchgeführt. Im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme (IGMS) werden anhand eines Brückenmodells verschiedene Versuche durchgeführt. Dabei wird die Brücke einerseits durch einmalige Anregung in freie Schwingung versetzt, andererseits werden mithilfe eines Shakers verschiedene Schwingungen kontrolliert auf das Modell übertragen. Gemessen wird dabei mit einer Leica TS15 mit einer nominellen Messrate von 10 Hz. Dabei wird deutlich, dass eine Messrate von 10 Hz möglicherweise nicht ausreicht, um Brückenschwingungen vollständig erfassen zu können. Daher wird bei dem zweiten Versuch anstelle der Leica TS15 eine Leica MS60 als RTS verwendet, wobei die nominelle Messrate 20 Hz beträgt. Die Versuche werden am Messdach des IGMS mithilfe eines Shakers durchgeführt. Dabei werden ein Leica Rund- als auch ein Miniprisma als Ziel verwendet, wie auch unterschiedliche Distanzen zum Ziel getestet. Der Shaker wird dabei in horizontaler und vertikaler Konfiguration betrieben. Um die Bedingungen und Schwingungen von realen Brückenbauwerken untersuchen zu können, werden auch an der Grazer Augartenbrücke Versuche unternommen. Dabei wird die Fußgängerbrücke einerseits durch natürliche Anregung in Schwingung versetzt, andererseits wird das Bauwerk, durch Springen der zwei messenden Personen auf dem Objekt, angeregt. Außerdem überquert eine Schulklasse die Brücke mehrmals in unterschiedlichen Stilen (gehend, laufend, springend), um verschiedene Amplituden zu erzeugen. Auch bei diesen Versuchen werden ein Leica Mini- und Rundprisma als Ziele für die RTS verwendet. Als größtes Versuchsobjekt kommt die Tiroler Gschnitztalbrücke zur Anwendung. An der 7-feldrigen Autobahnbrücke wird ein Leica Monitoringprisma an einem Randfeld montiert und dieses mit einer Leica MS60 beobachtet. Dabei ist zu erkennen, dass es durchaus von Vorteil ist, auch eine dynamische Distanzmessung durchzuführen, um Bewegungen in horizontaler Richtung detektieren zu können und so Schlüsse auf das Tragverhalten des Bauwerks zu ziehen. Aus der Arbeit geht hervor, dass der Einfluss des Zielprismas vor allem bei kurzen Distanzen beachtet werden muss. Anders als angenommen ist die Performance des Leica Miniprismas dabei besser als das eines klassischen Rundprismas. Die Elektronische Distanz Messung bleibt nach wie vor das limitierende Element bei der dynamischen Messung. Hier zeigt sich, dass große Amplituden in Kombination mit kurzen Distanzen die größten Probleme bereiten. Es ist durchaus von Vorteil auch Distanzinformationen der dynamischen Messungen zu erhalten, um das dynamische Verhalten von Bauwerken noch besser erfassen zu können.
Der Überwachung von bestehenden Ingenieurbauten kommt aufgrund des zunehmenden Durchschnittsalters ebendieser eine immer größere Bedeutung zu. Während noch vor einigen Jahrzehnten deutlich mehr finanzielle Mittel für den Neubau als für die Instandhaltung von Infrastrukturbauten aufgewandt wurden, wendet sich mittlerweile diese Systematik. Aufgrund der hohen Neubaudichte in den 1960er, -70er und -80er Jahren kommt eine kritische Phase im Lebenszyklus dieser Bauwerke auf die Gesellschaft zu. Um die Bauwerke sicher und finanziell effizient betreiben zu können, bedarf es umfassender Überwachung der Infrastruktur. Unter anderem dazu geeignet ist die Totalstation als Nachfolger des Theodoliten. Für die Bauwerksüberwachung auf Basis von statischen Kennwerten wie Neigung, Verkippung, Setzung oder Durchbiegung hat sich die Totalstation entweder zur dauerhaften oder epochenweisen Messung bewährt. Oft reichen diese äußeren Parameter der Bauwerkserfassung aber nicht mehr aus, um eine umfassende Analyse des Bauwerkszustandes zu erstellen. Daher kommt den inneren Parametern eines Bauwerkes immer größere Bedeutung zu. Diese Parameter können zum Beispiel Eigenfrequenz und -form, Dämpfung oder Schwingungsintensität sein. Mit fortschreitender Entwicklung der Totalstation zur Robotic-Totalstation (RTS) können nicht nur Ziele automatisiert verfolgt, sondern auch Messungen dynamisch durchgeführt werden. Mithilfe dieser dynamischen Beobachtungen ist es möglich, Schwingungen von Objekten zu erfassen und somit Aussagen über den Zustand des Objektes zu treffen. Die dynamische Messung mit RTS kann dazu beitragen, diese Zustandserfassung zu verbessern. Die RTS als Multisensorsystem ist hinsichtlich ihrer Eignung zur dynamischen Messung bereits erprobt. Allerdings bleiben einige Aspekte dieser dynamischen Anwendung weitgehend unbeachtet. So wird der Einfluss des Ziels auf die dynamische Messung bei unterschiedlichen Distanzen zum Ziel nicht weiter beachtet. Auch die Robustheit der dynamischen Distanzmessung als kritische Komponente der dynamischen Messung, sowie die generelle temporäre Stabilität werden nicht hinreichend untersucht. In der vorliegenden Arbeit werden an vier verschiedenen Objekten Versuche mit RTS durchgeführt. Im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme (IGMS) werden anhand eines Brückenmodells verschiedene Versuche durchgeführt. Dabei wird die Brücke einerseits durch einmalige Anregung in freie Schwingung versetzt, andererseits werden mithilfe eines Shakers verschiedene Schwingungen kontrolliert auf das Modell übertragen. Gemessen wird dabei mit einer Leica TS15 mit einer nominellen Messrate von 10 Hz. Dabei wird deutlich, dass eine Messrate von 10 Hz möglicherweise nicht ausreicht, um Brückenschwingungen vollständig erfassen zu können. Daher wird bei dem zweiten Versuch anstelle der Leica TS15 eine Leica MS60 als RTS verwendet, wobei die nominelle Messrate 20 Hz beträgt. Die Versuche werden am Messdach des IGMS mithilfe eines Shakers durchgeführt. Dabei werden ein Leica Rund- als auch ein Miniprisma als Ziel verwendet, wie auch unterschiedliche Distanzen zum Ziel getestet. Der Shaker wird dabei in horizontaler und vertikaler Konfiguration betrieben. Um die Bedingungen und Schwingungen von realen Brückenbauwerken untersuchen zu können, werden auch an der Grazer Augartenbrücke Versuche unternommen. Dabei wird die Fußgängerbrücke einerseits durch natürliche Anregung in Schwingung versetzt, andererseits wird das Bauwerk, durch Springen der zwei messenden Personen auf dem Objekt, angeregt. Außerdem überquert eine Schulklasse die Brücke mehrmals in unterschiedlichen Stilen (gehend, laufend, springend), um verschiedene Amplituden zu erzeugen. Auch bei diesen Versuchen werden ein Leica Mini- und Rundprisma als Ziele für die RTS verwendet. Als größtes Versuchsobjekt kommt die Tiroler Gschnitztalbrücke zur Anwendung. An der 7-feldrigen Autobahnbrücke wird ein Leica Monitoringprisma an einem Randfeld montiert und dieses mit einer Leica MS60 beobachtet. Dabei ist zu erkennen, dass es durchaus von Vorteil ist, auch eine dynamische Distanzmessung durchzuführen, um Bewegungen in horizontaler Richtung detektieren zu können und so Schlüsse auf das Tragverhalten des Bauwerks zu ziehen. Aus der Arbeit geht hervor, dass der Einfluss des Zielprismas vor allem bei kurzen Distanzen beachtet werden muss. Anders als angenommen ist die Performance des Leica Miniprismas dabei besser als das eines klassischen Rundprismas. Die Elektronische Distanz Messung bleibt nach wie vor das limitierende Element bei der dynamischen Messung. Hier zeigt sich, dass große Amplituden in Kombination mit kurzen Distanzen die größten Probleme bereiten. Es ist durchaus von Vorteil auch Distanzinformationen der dynamischen Messungen zu erhalten, um das dynamische Verhalten von Bauwerken noch besser erfassen zu können.
Analyse der Benützungsarten und Nutzungen des Katasters im Hinblick auf die Verwendbarkeit als Basis für umweltrelevante Analysen - exemplarische Detailuntersuchung der Versiegelung
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Die Arbeit hat das Ziel, die Hypothese: „Der österreichische Kataster kann als Basis für umweltrelevante Analysen genutzt werden.”, zu untersuchen. Dabei werden im Speziellen die Benutzungen und Nutzungsarten nach der Benützungsarten-Nutzungen-Verordnung (BANU – V) analysiert. Um die Verwendbarkeit und bestehende Limitationen aufzuzeigen, wird im ersten Teil die Qualität des Katasters untersucht. Dabei werden die relevanten Qualitätsmerkmale Georeferenzierung, Aktualität und die Flächengenauigkeit dargestellt. Die Flächenproblematik, die aufgrund historischer Entwicklungen entstanden ist, wird verdeutlicht und zeigt, dass exakte Flächenangaben (0.1 % rel. Flächengenauigkeit) nur in zur Gänze vermessenen Grundstücken möglich sind. Da die Nutzungen eine zentrale Rolle in den Analysen spielen, wird deren historische Entwicklung bis zu den aktuellen Nutzungen dargestellt, um im Anschluss diese aktuellen Nutzungen mit relevanten Umweltindikatoren in Verbindung zu bringen. Dazu wird der Katalog der Umweltindikatoren der Europäischen Umweltagentur und Eurostat untersucht. Diese Untersuchung zeigte 17 mögliche Anwendungen des Katasters für umweltrelevante Analysen. Dabei werden zwei mögliche Beispiele, die Flächeninanspruchnahme und Emission auf Basis der Landnutzungsänderung, näher ausgeführt. Im letzten Teil wird im Detail untersucht, wie gut Versiegelung vom Kataster abgeleitet werden kann. Dabei findet ein Vergleich mit hochauflösenden Orthofotodaten statt. Dieser Vergleich führte zu der Erkenntnis, dass eine exakte Aussage der Versiegelung (auf dem Grad der Genauigkeit des Grenzkatasters), mit diesen Bilddaten nicht möglich ist. Dies ist hauptsächlich aufgrund der Art der Aufnahme (Verdeckung), der Fall. Es wurde zudem festgestellt, dass für die Versiegelungsanalyse auf Basis des Katasters Werte für den Versiegelungsgrad von teilweise versiegelten Flächen notwendig sind. Die einzige Versiegelungsanalyse die auf Basis des Katasters ohne dieses stattfinden kann, ist für Gebäude. Zudem sind für die Verbesserung der Analyse der Versiegelung auf Basis des Katasters zusätzliche Nutzungen zu den in der BANU-Verordnung vorhandenen Nutzungen notwendig. Diese ergeben sich aus den Detailuntersuchungen aus den Nutzungen in den Testgebieten.
Die Arbeit hat das Ziel, die Hypothese: „Der österreichische Kataster kann als Basis für umweltrelevante Analysen genutzt werden.”, zu untersuchen. Dabei werden im Speziellen die Benutzungen und Nutzungsarten nach der Benützungsarten-Nutzungen-Verordnung (BANU – V) analysiert. Um die Verwendbarkeit und bestehende Limitationen aufzuzeigen, wird im ersten Teil die Qualität des Katasters untersucht. Dabei werden die relevanten Qualitätsmerkmale Georeferenzierung, Aktualität und die Flächengenauigkeit dargestellt. Die Flächenproblematik, die aufgrund historischer Entwicklungen entstanden ist, wird verdeutlicht und zeigt, dass exakte Flächenangaben (0.1 % rel. Flächengenauigkeit) nur in zur Gänze vermessenen Grundstücken möglich sind. Da die Nutzungen eine zentrale Rolle in den Analysen spielen, wird deren historische Entwicklung bis zu den aktuellen Nutzungen dargestellt, um im Anschluss diese aktuellen Nutzungen mit relevanten Umweltindikatoren in Verbindung zu bringen. Dazu wird der Katalog der Umweltindikatoren der Europäischen Umweltagentur und Eurostat untersucht. Diese Untersuchung zeigte 17 mögliche Anwendungen des Katasters für umweltrelevante Analysen. Dabei werden zwei mögliche Beispiele, die Flächeninanspruchnahme und Emission auf Basis der Landnutzungsänderung, näher ausgeführt. Im letzten Teil wird im Detail untersucht, wie gut Versiegelung vom Kataster abgeleitet werden kann. Dabei findet ein Vergleich mit hochauflösenden Orthofotodaten statt. Dieser Vergleich führte zu der Erkenntnis, dass eine exakte Aussage der Versiegelung (auf dem Grad der Genauigkeit des Grenzkatasters), mit diesen Bilddaten nicht möglich ist. Dies ist hauptsächlich aufgrund der Art der Aufnahme (Verdeckung), der Fall. Es wurde zudem festgestellt, dass für die Versiegelungsanalyse auf Basis des Katasters Werte für den Versiegelungsgrad von teilweise versiegelten Flächen notwendig sind. Die einzige Versiegelungsanalyse die auf Basis des Katasters ohne dieses stattfinden kann, ist für Gebäude. Zudem sind für die Verbesserung der Analyse der Versiegelung auf Basis des Katasters zusätzliche Nutzungen zu den in der BANU-Verordnung vorhandenen Nutzungen notwendig. Diese ergeben sich aus den Detailuntersuchungen aus den Nutzungen in den Testgebieten.
Tool zur Visualisierung ausgewählter Metadaten von Grundstücken im Kataster zum Zwecke qualitativer Analysen
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Der Kataster bzw. Grundstücks- oder Liegenschaftskataster ist die flächendeckende Dokumentation sämtlicher Grundstücke eines Landes. In einem beschreibenden Teil (Grundstücksverzeichnis) und in Karten (Katastralmappe) werden die geometrische Lage, die Art der Benützungsart und die Größe beschrieben. Grundstücke werden in zwei Klassen unterteilt: 1. Grundstücke, die sich im rechtsverbindlichen Grenzkataster befinden 2. Grundstücke, die sich im Grundsteuerkataster befinden Mithilfe des in dieser Arbeit entwickelten Programmes, bestehend aus drei Teilen, werden Qualitätsparameter aus Shape- und Comma seperated Files berechnet, um eine genauere Klassifizierung der Grundstücke zu gewährleisten. Das Programm wird folgend unterteilt: 1. Erstellen einer räumlichen Beziehung zwischen Punkte-, Linien- und Polygonlayer mithilfe des Programmes ESRI ArcGIS Pro 2. Berechnung der Qualitätsparameter für Grenzpunkte und Grundstücke mit dem Programm Python Anaconda 3. Visualisierung der Qualitätsparameter mit dem Programm ESRI ArcGIS Pro Aus den berechneten Qualitätsparametern können alle Grundstücke bis auf ein paar Ausnahmen in folgende Klassen unterteilt werden: 1. Grenzpunkte eines Grundstücks nicht vermessen 2. Grenzpunkte eines Grundstücks nicht vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 3. Grenzpunkte eines Grundstücks teilweise vermessen 4. Grenzpunkte eines Grundstücks teilweise vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 5. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit keiner Geschäftsfallnummer 6. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit unterschiedlichen Geschäftsfallnummern 7. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit einer Geschäftsfallnummer 8. Grundstück im Grenzkataster
Der Kataster bzw. Grundstücks- oder Liegenschaftskataster ist die flächendeckende Dokumentation sämtlicher Grundstücke eines Landes. In einem beschreibenden Teil (Grundstücksverzeichnis) und in Karten (Katastralmappe) werden die geometrische Lage, die Art der Benützungsart und die Größe beschrieben. Grundstücke werden in zwei Klassen unterteilt: 1. Grundstücke, die sich im rechtsverbindlichen Grenzkataster befinden 2. Grundstücke, die sich im Grundsteuerkataster befinden Mithilfe des in dieser Arbeit entwickelten Programmes, bestehend aus drei Teilen, werden Qualitätsparameter aus Shape- und Comma seperated Files berechnet, um eine genauere Klassifizierung der Grundstücke zu gewährleisten. Das Programm wird folgend unterteilt: 1. Erstellen einer räumlichen Beziehung zwischen Punkte-, Linien- und Polygonlayer mithilfe des Programmes ESRI ArcGIS Pro 2. Berechnung der Qualitätsparameter für Grenzpunkte und Grundstücke mit dem Programm Python Anaconda 3. Visualisierung der Qualitätsparameter mit dem Programm ESRI ArcGIS Pro Aus den berechneten Qualitätsparametern können alle Grundstücke bis auf ein paar Ausnahmen in folgende Klassen unterteilt werden: 1. Grenzpunkte eines Grundstücks nicht vermessen 2. Grenzpunkte eines Grundstücks nicht vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 3. Grenzpunkte eines Grundstücks teilweise vermessen 4. Grenzpunkte eines Grundstücks teilweise vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 5. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit keiner Geschäftsfallnummer 6. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit unterschiedlichen Geschäftsfallnummern 7. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit einer Geschäftsfallnummer 8. Grundstück im Grenzkataster
TLS target designs compared in terms of center estimation accuracy
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die großen Ansprüche des geodätischen Monitorings resultieren in ebenso große Ansprüche an die verwendeten Zielmarken. Diese werden unter anderem für die Transformation verschiedener Punktwolken aus unterschiedlichen Epochen in ein übergeordnetes Koordinatensystem verwendet, um diese Punktwolken dann vergleichen zu können. Janßen et. al. (2019), Kern et. al. (2010) und Eling (2019) haben bereits Vergleiche unterschiedlicher Zielmarkendesigns unternommen und durch die Ergebnisse eigene Designs entworfen. Mit diesen Arbeiten als Basis wurden vier Zielmarkendesigns für diese Arbeit ausgewählt (Schachbrett, BOTA-8, weißer Kreis und konzentrische Kreise). Ebenso wurden zwei verschiedene Instrumente verwendet, um herauszufinden, ob die Ergebnisse für unterschiedliche Scanner ähnlich sind (Leica MS60 und Riegl VZ 2000). Um die Ergebnisse miteinander vergleichen zu können wird ein übergeordnetes Koordinatensystem verwendet (Dallinger 2017). Die Transformation vom lokalen Scanner System ins übergeordnete Koordinatensystem erfolgt über eine Helmert Transformation. Zur Bestimmung der Sollkoordinaten der Zielmarkenzentren im übergeordneten Koordinatensystem wurde eine TMS-Messung (Winkel Messungen) mit der Leica MS60 durchgeführt. Die Zielmarkenzentren wurden im Anschluss anhand einer Netzausgleichung geschätzt. Dies führte zu maximalen Standardabweichungen von 0.5 Millimeter. Zwei Algorithmen wurden für die Bestimmung des Zielmarkenzentrums verwendet. Einerseits der Algorithmus von Janßen et. al. (2019) basierend auf Image-Matching (Schachbrett und BOTA-8) und andererseits der, in dieser Arbeit neu entwickelte, Algorithmus basierend auf Kantendetektion aus Intensitätsbildern und Kreisschätzungen (weißer Kreis und konzentrische Kreise). Im Zuge dieser Arbeit wurden zwei praktische Experimente mit beiden Instrumenten durchgeführt. Eines zur Bestimmung des Einflusses der Distanz zur Zielmarke und eines zur Bestimmung des Einflusses des Einfallswinkels. Das Distanzexperiment zeigte für die MS60 einen leicht quadratisch steigenden Verlauf der Abweichungen zu den Sollwerten mit wachsender Distanz für alle Zielmarken mit Ausnahme der konzentrischen Kreise. Diese Zielmarke zeigt einen leicht steigenden linearen Verlauf und lieferte somit die besten Ergebnisse für diesen Versuch. Für den Riegl VZ 2000 zeigten alle Zielmarken in etwa dieselben Ergebnisse. Allerdings liefern schwarz-weiße Zielmarken deutlich bessere Ergebnisse als grau-weiße Zielmarken. Bei der MS60 spielt diese Wahl keine Rolle. Zusätzlich wurde die Präzision aller Zielmarken für eine Distanz von 15 Meter ermittelt. Diese liegt für die MS60 bei allen unter 0.5 Millimeter. Der Riegl Scanner erreicht diesen Wert nur für das BOTA-8 Design. Das Experiment bezüglich des Einfallswinkels zeigt ähnliche Ergebnisse für alle Zielmarken beider Instrumente. Die einzige Ausnahme dazu ist nur der weiße Kreis, welcher für den Riegl VZ 2000 bei höheren Einfallswinkeln Punktlagefehler größer als 10 Millimetern erreicht. Aus diesen beiden Experimenten schnitt für die MS60 das Design der konzentrischen Kreise und für den Riegl Scanner das BOTA-8 Design am besten ab. Allerdings kann keine generelle Aussage über das optimale Zielmarkendesign getroffen werden. Ein Grund dafür ist, dass die beiden verwendeten Instrumente bereits zu unterschiedlichen Ergebnissen führten.
Die großen Ansprüche des geodätischen Monitorings resultieren in ebenso große Ansprüche an die verwendeten Zielmarken. Diese werden unter anderem für die Transformation verschiedener Punktwolken aus unterschiedlichen Epochen in ein übergeordnetes Koordinatensystem verwendet, um diese Punktwolken dann vergleichen zu können. Janßen et. al. (2019), Kern et. al. (2010) und Eling (2019) haben bereits Vergleiche unterschiedlicher Zielmarkendesigns unternommen und durch die Ergebnisse eigene Designs entworfen. Mit diesen Arbeiten als Basis wurden vier Zielmarkendesigns für diese Arbeit ausgewählt (Schachbrett, BOTA-8, weißer Kreis und konzentrische Kreise). Ebenso wurden zwei verschiedene Instrumente verwendet, um herauszufinden, ob die Ergebnisse für unterschiedliche Scanner ähnlich sind (Leica MS60 und Riegl VZ 2000). Um die Ergebnisse miteinander vergleichen zu können wird ein übergeordnetes Koordinatensystem verwendet (Dallinger 2017). Die Transformation vom lokalen Scanner System ins übergeordnete Koordinatensystem erfolgt über eine Helmert Transformation. Zur Bestimmung der Sollkoordinaten der Zielmarkenzentren im übergeordneten Koordinatensystem wurde eine TMS-Messung (Winkel Messungen) mit der Leica MS60 durchgeführt. Die Zielmarkenzentren wurden im Anschluss anhand einer Netzausgleichung geschätzt. Dies führte zu maximalen Standardabweichungen von 0.5 Millimeter. Zwei Algorithmen wurden für die Bestimmung des Zielmarkenzentrums verwendet. Einerseits der Algorithmus von Janßen et. al. (2019) basierend auf Image-Matching (Schachbrett und BOTA-8) und andererseits der, in dieser Arbeit neu entwickelte, Algorithmus basierend auf Kantendetektion aus Intensitätsbildern und Kreisschätzungen (weißer Kreis und konzentrische Kreise). Im Zuge dieser Arbeit wurden zwei praktische Experimente mit beiden Instrumenten durchgeführt. Eines zur Bestimmung des Einflusses der Distanz zur Zielmarke und eines zur Bestimmung des Einflusses des Einfallswinkels. Das Distanzexperiment zeigte für die MS60 einen leicht quadratisch steigenden Verlauf der Abweichungen zu den Sollwerten mit wachsender Distanz für alle Zielmarken mit Ausnahme der konzentrischen Kreise. Diese Zielmarke zeigt einen leicht steigenden linearen Verlauf und lieferte somit die besten Ergebnisse für diesen Versuch. Für den Riegl VZ 2000 zeigten alle Zielmarken in etwa dieselben Ergebnisse. Allerdings liefern schwarz-weiße Zielmarken deutlich bessere Ergebnisse als grau-weiße Zielmarken. Bei der MS60 spielt diese Wahl keine Rolle. Zusätzlich wurde die Präzision aller Zielmarken für eine Distanz von 15 Meter ermittelt. Diese liegt für die MS60 bei allen unter 0.5 Millimeter. Der Riegl Scanner erreicht diesen Wert nur für das BOTA-8 Design. Das Experiment bezüglich des Einfallswinkels zeigt ähnliche Ergebnisse für alle Zielmarken beider Instrumente. Die einzige Ausnahme dazu ist nur der weiße Kreis, welcher für den Riegl VZ 2000 bei höheren Einfallswinkeln Punktlagefehler größer als 10 Millimetern erreicht. Aus diesen beiden Experimenten schnitt für die MS60 das Design der konzentrischen Kreise und für den Riegl Scanner das BOTA-8 Design am besten ab. Allerdings kann keine generelle Aussage über das optimale Zielmarkendesign getroffen werden. Ein Grund dafür ist, dass die beiden verwendeten Instrumente bereits zu unterschiedlichen Ergebnissen führten.
Lokale VLBI Messungen an der Station Wettzell
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Bei der Very Long Baseline Interferometry (VLBI) beobachten global verteilte Stationen extragalaktische Radioquellen. Die primäre Beobachtungsgröße ist die Differenz in den Ankunftszeiten der von den Radioquellen ausgesandten Strahlung. Die VLBI ist das einzige moderne geodätische Weltraumverfahren, mit dem alle fünf Erdorientierungsparameter (EOP) bestimmt werden können. In den letzten Jahren wurden vermehrt VLBI Antennen der neuesten Generation (VGOS) errichtet, welche nun gemeinsam mit den älteren Antennen (Legacy) beobachten. Im Zuge dieser Arbeit wurde die Verknüpfung dieser beiden Systeme am geodätischen Observatorium Wettzell in Deutschland untersucht und mit terrestrischen Tachymetermessungen verglichen. Durch immerzu steigende Genauigkeitsanforderungen ist die bestmögliche Verknüpfung dieser beiden Systeme unerlässlich. Für die Auswertung wurden insgesamt 27 lokale Sessions an der Station Wettzell im Zeitraum von 2014 bis 2020 untersucht. Beobachtet wurde jeweils von den drei in Wettzell vorhandenen VLBI Antennen, bei denen es sich um eine Legacy und zwei baugleiche VGOS Antennen handelt. Die Messungen wurden jeweils in Bezug auf ihre lokale Ost-, Nord- und Höhenkomponente untersucht. Beim Vergleich der Tachymetermessungen mit jenen der VLBI fällt auf, dass es vor allem in der Höhenkomponente eine Differenz von etwa 5 Millimetern gibt. Dadurch, dass die älteren und größeren Legacy Antennen bekanntermaßen unter Einflüssen der Gravitation stärker deformiert werden als VGOS Antennen, liegt es nahe, dass diese Differenz aus der Nichtberücksichtigung dieser Effekte resultiert. Je nach Verkippung (Elevation) der Antennen wirkt der Einfluss der gravitativen Deformation dabei unterschiedlich. Da es für die Legacy Antenne in Wettzell zum Zeitpunkt der Auswertung noch kein Modell zur Korrektur dieses Einflusses gab, wurde das Modell der VLBI Antenne in Onsala verwendet, welches bauähnlich zu jenem in Wettzell ist. Nach Verwendung des Modells konnte die Differenz der VLBI Messungen zu den terrestrischen Messungen deutlich verringert werden. Im Mittel beträgt diese in der Höhenkomponente nach der Korrektur der gravitativen Deformation nur noch -0.8mm. Die Ost- und Nordkomponente sind von den Einflüssen der gravitativen Deformation kaum betroffen, die Mittelwerte vor und nach Verwendung des Modells sind ident (0.1mm und -0.2mm).
Bei der Very Long Baseline Interferometry (VLBI) beobachten global verteilte Stationen extragalaktische Radioquellen. Die primäre Beobachtungsgröße ist die Differenz in den Ankunftszeiten der von den Radioquellen ausgesandten Strahlung. Die VLBI ist das einzige moderne geodätische Weltraumverfahren, mit dem alle fünf Erdorientierungsparameter (EOP) bestimmt werden können. In den letzten Jahren wurden vermehrt VLBI Antennen der neuesten Generation (VGOS) errichtet, welche nun gemeinsam mit den älteren Antennen (Legacy) beobachten. Im Zuge dieser Arbeit wurde die Verknüpfung dieser beiden Systeme am geodätischen Observatorium Wettzell in Deutschland untersucht und mit terrestrischen Tachymetermessungen verglichen. Durch immerzu steigende Genauigkeitsanforderungen ist die bestmögliche Verknüpfung dieser beiden Systeme unerlässlich. Für die Auswertung wurden insgesamt 27 lokale Sessions an der Station Wettzell im Zeitraum von 2014 bis 2020 untersucht. Beobachtet wurde jeweils von den drei in Wettzell vorhandenen VLBI Antennen, bei denen es sich um eine Legacy und zwei baugleiche VGOS Antennen handelt. Die Messungen wurden jeweils in Bezug auf ihre lokale Ost-, Nord- und Höhenkomponente untersucht. Beim Vergleich der Tachymetermessungen mit jenen der VLBI fällt auf, dass es vor allem in der Höhenkomponente eine Differenz von etwa 5 Millimetern gibt. Dadurch, dass die älteren und größeren Legacy Antennen bekanntermaßen unter Einflüssen der Gravitation stärker deformiert werden als VGOS Antennen, liegt es nahe, dass diese Differenz aus der Nichtberücksichtigung dieser Effekte resultiert. Je nach Verkippung (Elevation) der Antennen wirkt der Einfluss der gravitativen Deformation dabei unterschiedlich. Da es für die Legacy Antenne in Wettzell zum Zeitpunkt der Auswertung noch kein Modell zur Korrektur dieses Einflusses gab, wurde das Modell der VLBI Antenne in Onsala verwendet, welches bauähnlich zu jenem in Wettzell ist. Nach Verwendung des Modells konnte die Differenz der VLBI Messungen zu den terrestrischen Messungen deutlich verringert werden. Im Mittel beträgt diese in der Höhenkomponente nach der Korrektur der gravitativen Deformation nur noch -0.8mm. Die Ost- und Nordkomponente sind von den Einflüssen der gravitativen Deformation kaum betroffen, die Mittelwerte vor und nach Verwendung des Modells sind ident (0.1mm und -0.2mm).
Impact of Urban Area Growth on ASCAT Backscatter Time Series as Depicted by Sentinel-1
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Claudio Navacchi, Dipl.-Ing. Sebastian Hahn
Kurzfassung/Abstract
Urbane Regionen haben aufgrund ihrer physikalischen Eigenschaften signifikanten Einfluss auf Fernerkundungsdaten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung des Rückstreuverhaltens in urbanen Gebieten und dessen Auswirkungen auf Datensätze des auf den MetOp Satelliten montierten Advanced Scatterometer Sensors mithilfe von hochauflösenden Daten des C-SAR Sensorsystems der Sentinel-1 Satellitenmission. Hierfür wurden in fünf unterschiedlichen Regionen die Datensätze beider Sensorsysteme zeitlich und räumlich angeglichen und ihre Korrelation berechnet. Drei der fünf Sentinel-1 Datensätze eigneten sich für tiefergehende Experimente, die die Eingrenzung vieler verschiedener Einflüsse auf das Rückstreuverhalten inklusive mehrerer Arten von urbanem Wachstum ermöglichten. Die durchgeführten Experimente und die benutzten Algorithmen ermöglichten keine exakte Quantifizierung des Einflusses von urbanem Wachstum auf die Daten, jedoch war es möglich eine Ausgangsbasis für zukünftige Weiterentwicklungen zu erstellen.
Urbane Regionen haben aufgrund ihrer physikalischen Eigenschaften signifikanten Einfluss auf Fernerkundungsdaten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung des Rückstreuverhaltens in urbanen Gebieten und dessen Auswirkungen auf Datensätze des auf den MetOp Satelliten montierten Advanced Scatterometer Sensors mithilfe von hochauflösenden Daten des C-SAR Sensorsystems der Sentinel-1 Satellitenmission. Hierfür wurden in fünf unterschiedlichen Regionen die Datensätze beider Sensorsysteme zeitlich und räumlich angeglichen und ihre Korrelation berechnet. Drei der fünf Sentinel-1 Datensätze eigneten sich für tiefergehende Experimente, die die Eingrenzung vieler verschiedener Einflüsse auf das Rückstreuverhalten inklusive mehrerer Arten von urbanem Wachstum ermöglichten. Die durchgeführten Experimente und die benutzten Algorithmen ermöglichten keine exakte Quantifizierung des Einflusses von urbanem Wachstum auf die Daten, jedoch war es möglich eine Ausgangsbasis für zukünftige Weiterentwicklungen zu erstellen.
Statistical landslide susceptibility modelling - Chances, challenges and pitfalls of data homogenisation
Institut für Geographie und Raumforschung, Technische Universität Graz, 2023
Betreuer: Mag. Dr. Christian Bauer
Kurzfassung/Abstract
Angesichts der merkbaren Häufung von Extremwetterereignissen in den letzten Jahren gewinnt die Modellierung von Naturgefahren immer mehr an Bedeutung. Ein geomorphologischer Prozess, der besonders durch Starkniederschlagsereignisse begünstigt wird, sind Hangrutschungen. Da diese Prozesse eine Gefahr für den Menschen darstellen können, nimmt die Bedeutung einer zuverlässigen Modellierung der Anfälligkeit für Hangrutschungen stetig zu. In dieser Arbeit wird eine statistische Modellierung der Anfälligkeit für Hangrutschungen mittels logistischer Regression durchgeführt, wozu sowohl heterogene Rutschungsinventare als auch eine Vielzahl verschiedener erklärender Parameterdatensätze verwendet werden. Aufgrund der Heterogenität aller Eingabedatensätze liegt der Schwerpunkt hierbei auf der Aufbereitung und Homogenisierung der Daten, um eine stichhaltige Modellierung durchführen zu können. Ein weiterer Schwerpunkt liegt in der Erstellung gewichteter repräsentativer Stichproben, mit dem Ziel, die homogenisierten Daten in einen Trainings- und einen Validierungsdatensatz aufzuteilen, um eine Verifizierung der Modellierungsergebnisse zu ermöglichen. Die daraus resultierenden Rutschungsanfälligkeiten können in Anbetracht der für die Modellierung verwendeten Datensätze als plausibel angesehen werden, wobei Ungenauigkeiten in den Eingabedatensätzen die Seriosität der Ergebnisse beeinträchtigen. Problemfelder ergeben sich aus unterschiedlichen Aufnahmezeitpunkten der Eingangsdaten sowie der Heterogenität der verwendeten Rutschungsinventare, wodurch sich mehr Herausforderungen als Chancen ergeben haben. Zusammenfassend kann festgehalten werden, dass konsistente Eingangsdaten für ein aussagekräftiges Ergebnis einer statistischen Modellierung der Anfälligkeit für Hangrutschungen unerlässlich sind. Ein flächendeckendes, ereignisbezogenes Rutschungsinventar mit ausreichenden Zusatzinformationen über Art und Zeitpunkt der Prozesse, sowie zeitlich abgestimmte Parameterdatensätze sind von entscheidender Bedeutung. Wenngleich dies im Rahmen dieser Arbeit nicht realisiert werden konnte, wird es als wesentlicher Faktor für eine zuverlässige Modellierung der Rutschungsanfälligkeit betrachtet.
Angesichts der merkbaren Häufung von Extremwetterereignissen in den letzten Jahren gewinnt die Modellierung von Naturgefahren immer mehr an Bedeutung. Ein geomorphologischer Prozess, der besonders durch Starkniederschlagsereignisse begünstigt wird, sind Hangrutschungen. Da diese Prozesse eine Gefahr für den Menschen darstellen können, nimmt die Bedeutung einer zuverlässigen Modellierung der Anfälligkeit für Hangrutschungen stetig zu. In dieser Arbeit wird eine statistische Modellierung der Anfälligkeit für Hangrutschungen mittels logistischer Regression durchgeführt, wozu sowohl heterogene Rutschungsinventare als auch eine Vielzahl verschiedener erklärender Parameterdatensätze verwendet werden. Aufgrund der Heterogenität aller Eingabedatensätze liegt der Schwerpunkt hierbei auf der Aufbereitung und Homogenisierung der Daten, um eine stichhaltige Modellierung durchführen zu können. Ein weiterer Schwerpunkt liegt in der Erstellung gewichteter repräsentativer Stichproben, mit dem Ziel, die homogenisierten Daten in einen Trainings- und einen Validierungsdatensatz aufzuteilen, um eine Verifizierung der Modellierungsergebnisse zu ermöglichen. Die daraus resultierenden Rutschungsanfälligkeiten können in Anbetracht der für die Modellierung verwendeten Datensätze als plausibel angesehen werden, wobei Ungenauigkeiten in den Eingabedatensätzen die Seriosität der Ergebnisse beeinträchtigen. Problemfelder ergeben sich aus unterschiedlichen Aufnahmezeitpunkten der Eingangsdaten sowie der Heterogenität der verwendeten Rutschungsinventare, wodurch sich mehr Herausforderungen als Chancen ergeben haben. Zusammenfassend kann festgehalten werden, dass konsistente Eingangsdaten für ein aussagekräftiges Ergebnis einer statistischen Modellierung der Anfälligkeit für Hangrutschungen unerlässlich sind. Ein flächendeckendes, ereignisbezogenes Rutschungsinventar mit ausreichenden Zusatzinformationen über Art und Zeitpunkt der Prozesse, sowie zeitlich abgestimmte Parameterdatensätze sind von entscheidender Bedeutung. Wenngleich dies im Rahmen dieser Arbeit nicht realisiert werden konnte, wird es als wesentlicher Faktor für eine zuverlässige Modellierung der Rutschungsanfälligkeit betrachtet.
Spatial optimization in the context of antenna positioning for cattle tracking in the Austrian alps
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Masterarbeit kommt aus dem Bereich der Geoinformatik. Die behandelten Forschungsfragen sind im Unterbereich der räumlichen Analyse anzusiedeln. Genauer handelt es sich um Standortprobleme. Methodiken aus dem Bereich der räumlichen Analyse versuchen Probleme durch die Verwendung von Informatik zu lösen. Das Ziel dieser Arbeit ist die Entwicklung eines räumlichen Optimierungsansatzes zur Platzierung von Antennen in den österreichischen Alpen. Der Ansatz basiert auf vorhandenen Konzepten aus dem Bereich der Geoinformatik und wird an zwei Untersuchungsgebieten getestet. Außerdem werden vier mögliche Problemstellen des Ansatzes untersucht, um seine Stärken und Schwächen zu identifizieren. Diese Masterarbeit behandelt räumliche Optimierung im Kontext der Beobachtung von Vieh in den österreichischen Alpen. Diese alpinen Landschaften zeichnen sich durch eine hohe Biodiversität aus. Alpine Regionen erfahren verschiedenste Verwendungszwecke durch den Tourismus und die Landwirtschaft. Im Sommer werden Almflächen zum Grasen von Vieh (i.e. Kühe, Schafe etc.) genutzt. Es ist kein Novum, dass es zu Interessenskonflikten (z.B. Kuhattacken auf Touristen) zwischen verschiedenen Nutzergruppen dieser alpinen Regionen kommt. Hier könnte das Echtzeitmonitoren des Viehs zur Lösung der Konflikte beitragen. Das Start-up ViehFinder hat ein System zum monitoren von Vieh mittels Long Range Wide Area Network entwickelt. Das entwickelte räumliche Optimierungsmodel ist ein Maximal Covering Location Problem. Dieses Model berücksichtigt bei der Auswahl der optimalen Antennenstandorte das limitierte Budget. Im Zuge der Modelentwicklung wurden Einschränkungen festgelegt, die die Anzahl der möglichen Antennenstandorte und das Abdeckungsgebiet reduzieren. Der entwickelte räumliche Optimierungsprozess nutzt GIS-basierte Techniken zur Standortauswahl, Resampling zur Reduzierung der Anzahl der Standorte, und eine Sichtbarkeitsanalyse zur Bestimmung der Servicebereiche der Antennen. Integer Linear Programming (ILP) wird genutzt, um das räumliche Optimierungsproblem zu lösen. Diese Arbeit evaluiert den Optimierungsprozess anhand von zwei Untersuchungsgebieten in den österreichischen Alpen. Außerdem wird das Verhalten und der Rechenaufwand des Algorithmus anhand verschieden großer Probleminstanzen getestet. Diese Masterarbeit zeigt die Grenzen von ILP für die räumliche Optimierung auf. Des Weiteren wird die Eignung des präsentierten Ansatzes unter Beweis gestellt.
Diese Masterarbeit kommt aus dem Bereich der Geoinformatik. Die behandelten Forschungsfragen sind im Unterbereich der räumlichen Analyse anzusiedeln. Genauer handelt es sich um Standortprobleme. Methodiken aus dem Bereich der räumlichen Analyse versuchen Probleme durch die Verwendung von Informatik zu lösen. Das Ziel dieser Arbeit ist die Entwicklung eines räumlichen Optimierungsansatzes zur Platzierung von Antennen in den österreichischen Alpen. Der Ansatz basiert auf vorhandenen Konzepten aus dem Bereich der Geoinformatik und wird an zwei Untersuchungsgebieten getestet. Außerdem werden vier mögliche Problemstellen des Ansatzes untersucht, um seine Stärken und Schwächen zu identifizieren. Diese Masterarbeit behandelt räumliche Optimierung im Kontext der Beobachtung von Vieh in den österreichischen Alpen. Diese alpinen Landschaften zeichnen sich durch eine hohe Biodiversität aus. Alpine Regionen erfahren verschiedenste Verwendungszwecke durch den Tourismus und die Landwirtschaft. Im Sommer werden Almflächen zum Grasen von Vieh (i.e. Kühe, Schafe etc.) genutzt. Es ist kein Novum, dass es zu Interessenskonflikten (z.B. Kuhattacken auf Touristen) zwischen verschiedenen Nutzergruppen dieser alpinen Regionen kommt. Hier könnte das Echtzeitmonitoren des Viehs zur Lösung der Konflikte beitragen. Das Start-up ViehFinder hat ein System zum monitoren von Vieh mittels Long Range Wide Area Network entwickelt. Das entwickelte räumliche Optimierungsmodel ist ein Maximal Covering Location Problem. Dieses Model berücksichtigt bei der Auswahl der optimalen Antennenstandorte das limitierte Budget. Im Zuge der Modelentwicklung wurden Einschränkungen festgelegt, die die Anzahl der möglichen Antennenstandorte und das Abdeckungsgebiet reduzieren. Der entwickelte räumliche Optimierungsprozess nutzt GIS-basierte Techniken zur Standortauswahl, Resampling zur Reduzierung der Anzahl der Standorte, und eine Sichtbarkeitsanalyse zur Bestimmung der Servicebereiche der Antennen. Integer Linear Programming (ILP) wird genutzt, um das räumliche Optimierungsproblem zu lösen. Diese Arbeit evaluiert den Optimierungsprozess anhand von zwei Untersuchungsgebieten in den österreichischen Alpen. Außerdem wird das Verhalten und der Rechenaufwand des Algorithmus anhand verschieden großer Probleminstanzen getestet. Diese Masterarbeit zeigt die Grenzen von ILP für die räumliche Optimierung auf. Des Weiteren wird die Eignung des präsentierten Ansatzes unter Beweis gestellt.