- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2025
Abschlussarbeiten 2025
Continental assimilation of satellite-based soil moisture and vegetation conditions in the context of land-atmosphere coupling
Department für Geodäsie und Geoinformation, Forschungsbereich Klima- und Umweltfernerkundung, Technische Universität Wien; Department of Earth and Environmental Sciences, Catholic University Leuven, 2025
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Prof. Gabrielle De Lannoy PhD
Kurzfassung/Abstract
The current wealth of microwave satellite observations and model simulations gives access to global estimates of soil moisture and vegetation. However, both sources of information are of insufficient quality to draw unequivocal conclusions about the short- to long-term variability in the water and carbon cycles over land. CONSOLIDATION will, for the first time, assimilate multiple available microwave-based soil moisture and vegetation products into a land surface model with dynamic vegetation to obtain long-term (1980 onwards), consistent, gap-free and high-resolution (0.1 degree, 3hourly) global land surface estimates and their uncertainties. The resulting climate data records of soil moisture and vegetation biomass will outperform the currently available long-term satellite-only records, because diurnal details will be included and physical constraints between soil moisture and vegetation and all other land surface variables will be ensured. The new datasets will also have better skill than global model-only estimates, which by themselves unsatisfactorily characterize the soil water - plant growth nexus. In short, the project will exploit the synergy of multiple data sources by combining them via data assimilation and by leveraging the leading expertise of two partners on land surface data assimilation (KU Leuven) and satellite-based climate data records (TU Wien).
The current wealth of microwave satellite observations and model simulations gives access to global estimates of soil moisture and vegetation. However, both sources of information are of insufficient quality to draw unequivocal conclusions about the short- to long-term variability in the water and carbon cycles over land. CONSOLIDATION will, for the first time, assimilate multiple available microwave-based soil moisture and vegetation products into a land surface model with dynamic vegetation to obtain long-term (1980 onwards), consistent, gap-free and high-resolution (0.1 degree, 3hourly) global land surface estimates and their uncertainties. The resulting climate data records of soil moisture and vegetation biomass will outperform the currently available long-term satellite-only records, because diurnal details will be included and physical constraints between soil moisture and vegetation and all other land surface variables will be ensured. The new datasets will also have better skill than global model-only estimates, which by themselves unsatisfactorily characterize the soil water - plant growth nexus. In short, the project will exploit the synergy of multiple data sources by combining them via data assimilation and by leveraging the leading expertise of two partners on land surface data assimilation (KU Leuven) and satellite-based climate data records (TU Wien).
The Melody of Wayfinding: An AI-Driven Exploration of Human Wayfinding Behavior
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc
Kurzfassung/Abstract
Wayfinding is a fundamental aspect of human spatial behavior, which involves the coordination of perception, cognition, and movement to navigate through environments. While considerable research has advanced our understanding of navigation behavior, especially in controlled or virtual environments, there are still open questions about how people navigate in complex, real-world outdoor settings. Existing wayfinding models, such as the four-step framework by Downs and Stea [1977], provide a useful foundation, yet they are largely theoretical and rarely validated with empirical behavioral data. This dissertation addresses this gap by aligning theoretical models with empirical observations of wayfinding behavior in outdoor real-world environments. Using a multimodal approach, it integrates mobile eye-tracking, inertial motion sensing, and self-reported user data across a series of real-world experiments, including a large-scale study with over 300 navigation trials. These data were analyzed using a combination of machine learning and deep learning methods. The research employs Human Activity Recognition (HAR) concepts and methodologies to understand wayfinding behaviors and investigates how spatial familiarity, environmental complexity, and individual traits influence navigation. It combines theory-driven analysis, grounded in existing cognitive frameworks, with data-driven exploration through unsupervised learning, which provides complementary perspectives on the structure of navigation behavior. The findings contribute both conceptually and methodologically. They provide an empirical basis for established wayfinding models in naturalistic contexts and also reveal behavioral dynamics that offer new insights into wayfinding and open new paths for research that could lead to the refinement of existing theories or the development of new ones. From a practical perspective, the findings can inform the design of adaptive, user-aware navigation systems. In a broader sense, the work provides a methodological basis for future research at the intersection of cognitive science, GIScience, and artificial intelligence in the study of human mobility.
Wayfinding is a fundamental aspect of human spatial behavior, which involves the coordination of perception, cognition, and movement to navigate through environments. While considerable research has advanced our understanding of navigation behavior, especially in controlled or virtual environments, there are still open questions about how people navigate in complex, real-world outdoor settings. Existing wayfinding models, such as the four-step framework by Downs and Stea [1977], provide a useful foundation, yet they are largely theoretical and rarely validated with empirical behavioral data. This dissertation addresses this gap by aligning theoretical models with empirical observations of wayfinding behavior in outdoor real-world environments. Using a multimodal approach, it integrates mobile eye-tracking, inertial motion sensing, and self-reported user data across a series of real-world experiments, including a large-scale study with over 300 navigation trials. These data were analyzed using a combination of machine learning and deep learning methods. The research employs Human Activity Recognition (HAR) concepts and methodologies to understand wayfinding behaviors and investigates how spatial familiarity, environmental complexity, and individual traits influence navigation. It combines theory-driven analysis, grounded in existing cognitive frameworks, with data-driven exploration through unsupervised learning, which provides complementary perspectives on the structure of navigation behavior. The findings contribute both conceptually and methodologically. They provide an empirical basis for established wayfinding models in naturalistic contexts and also reveal behavioral dynamics that offer new insights into wayfinding and open new paths for research that could lead to the refinement of existing theories or the development of new ones. From a practical perspective, the findings can inform the design of adaptive, user-aware navigation systems. In a broader sense, the work provides a methodological basis for future research at the intersection of cognitive science, GIScience, and artificial intelligence in the study of human mobility.
Rethinking field-scale geophysics: Quantifying hydraulic conductivity with electrical conductivity
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Climate change significantly impacts landslide development as well as groundwater availability, necessitating improved mitigation strategies and field-scale methods to characterize subsurface hydraulic parameters. This dissertation explores the potential of geophysical methods, particularly induced polarization (IP) and electromagnetic induction (EMI), for enhancing landslide characterization and understanding subsurface hydrological processes. The research addresses the limitations of traditional applied methods and investigates the application of spectral IP (SIP) and EMI in field-scale studies. It also examines the challenges of upscaling laboratory-derived relationships to field conditions and proposes the use of pedotransfer functions (PTFs) within geophysical imaging frameworks as a potential alternative. Moreover, the use of deep learning networks as an alternative to deterministic inversion of geophysical data, with a particular focus on EMI, is investigated. Overall, this dissertation aims to advance geophysical techniques for quantifying subsurface properties, in particular hydraulic conductivity, ultimately contributing to more effective landslide management and hydrogeological catchment characterization, as required for groundwater modeling.
Climate change significantly impacts landslide development as well as groundwater availability, necessitating improved mitigation strategies and field-scale methods to characterize subsurface hydraulic parameters. This dissertation explores the potential of geophysical methods, particularly induced polarization (IP) and electromagnetic induction (EMI), for enhancing landslide characterization and understanding subsurface hydrological processes. The research addresses the limitations of traditional applied methods and investigates the application of spectral IP (SIP) and EMI in field-scale studies. It also examines the challenges of upscaling laboratory-derived relationships to field conditions and proposes the use of pedotransfer functions (PTFs) within geophysical imaging frameworks as a potential alternative. Moreover, the use of deep learning networks as an alternative to deterministic inversion of geophysical data, with a particular focus on EMI, is investigated. Overall, this dissertation aims to advance geophysical techniques for quantifying subsurface properties, in particular hydraulic conductivity, ultimately contributing to more effective landslide management and hydrogeological catchment characterization, as required for groundwater modeling.
Trajectory Estimation for Precise Georeferencing: Integration of Satellite and Inertial Navigation with Laser Scanning
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Laserscanning ist ein weitverbreitetes Verfahren zur Messung und Aufzeichnung der Geometrie unserer Umgebung, welche durch eine dreidimensionale Punktwolke, bestehend aus Milliarden einzelner gemessener Punkte, repräsentiert wird. Indem der Laserscanner auf einer sich bewegenden Plattform, z.B. einem Kraftwagen oder Flugzeug, montiert wird, können große Gebiete effizient kartiert werden. Laserscanning kombiniert Laserentfernungsmessung mit einem Scanmechanismus, welcher die Ablenkung und dadurch Richtung des Laserstrahls variiert, was zusammen mit der Plattformbewegung eine 3D Abtastung der Umgebung ermöglicht. Die Entfernungsmessungen und die Strahlrichtung ermöglichen aber nur die Bestimmung von Punktkoordinaten relativ zum Laserscanner selbst. Vor der weiteren Verwendung müssen die Messungen georeferenziert, also in ein erdfestes Koordinatensystem transformiert, werden. Dazu wird die Position und Orientierung des Laserscanners in Bezug auf das erdfeste Koordinatensystem benötigt. Zu diesem Zweck beinhalten Laserscanningsysteme üblicherweise auch Navigationssysteme, meist eine Messeinheit für inertiale Navigation (Inertial Measurement Unit, IMU) bestehend aus Beschleunigungsgebern und Gyroskopen, und einen Empfänger sowie einer Antenne für die globale Satellitennavigation (Global Navigation Satellite System, GNSS). Damit kann die Trajektorie (Position und Orientierung über der Zeit) des Laserscanners ermittelt und für die Georeferenzierung der Punktwolke verwendet werden. In der Praxis ist die so errechnete Trajektorie oft fehlerbehaftet, und diese Fehler übertragen sich durch die Georeferenzierung auf die Punktwolke. Wird ein Gebiet zu verschiedenen Zeitpunkten und von verschiedenen Positionen der Plattform aus mehrfach erfasst, zeigen sich diese Fehler als Diskrepanzen zwischen den entsprechenden Punktwolken. Die Standardvorgehensweise zur Georeferenzierung von Laserscanningdaten besteht also aus zwei Schritten, zuerst wird die Trajektorie aus Satelliten- bzw. Inertialnavigationsdaten geschätzt, und dann wir diese Trajektorie in einem weiteren Schritt verbessert indem Diskrepanzen, zwischen sich überlappenden Punktwolken oder zwischen Punktwolke und Referenzdaten, minimiert werden. In dieser Dissertation wird ein ganzheitlicher Ansatz zur Trajektorienschätzung vorgestellt, welcher die Georeferenzierung von Laserscanningdaten verbessert indem diese beiden Schritte vereinheitlicht werden und Laserscanningdaten und Navigationsdaten in einem nichtlinearen Ausgleichungsverfahren gemeinsam betrachtet werden. Dies ist eine kumulative Dissertation bestehend aus drei begutachteten Journalartikeln. Der erste Artikel gibt einen Überblick über Literatur zum Thema Trajektorienschätzung mit Fokus auf der Integration von Satelliten- und Inertialnavigation mit bildgebenden Sensoren, und schlägt ein vereinheitlichendes mathematisches Rahmenwerk basierend auf maximum a-posteriori Schätzung vor. Der zweite Artikel stellt eine praktische Implementierung davon vor, realisiert als nichtlineares Ausgleichungsverfahren, welche anhand einer gemeinsamen Ko-Registrierung von simultan durchgeführten luftgestützten Aufnahmen von Flugzeug und Drohne demonstriert und evaluiert wird. Der dritte Artikel verbessert und ergänzt diesen Ansatz um eine iterative Strategie zum Heruntertakten der inertialen Messungen, was die Recheneffizienz durch Verringerung der Anzahl an Parametern und Beobachtungen im Ausgleich steigert, wobei Präzision und Genauigkeit sogar bei starken Vibrationen beibehalten werden. Insgesamt wurde gezeigt, dass der vorgeschlagene Ansatz mit verschiedenen Systemkonfigurationen und in verschiedenen Anwendungsszenarien einsetzbar ist, und dabei zuverlässig und mit hohem Automatisierungsgrad präzise Punktwolken liefert.
Laserscanning ist ein weitverbreitetes Verfahren zur Messung und Aufzeichnung der Geometrie unserer Umgebung, welche durch eine dreidimensionale Punktwolke, bestehend aus Milliarden einzelner gemessener Punkte, repräsentiert wird. Indem der Laserscanner auf einer sich bewegenden Plattform, z.B. einem Kraftwagen oder Flugzeug, montiert wird, können große Gebiete effizient kartiert werden. Laserscanning kombiniert Laserentfernungsmessung mit einem Scanmechanismus, welcher die Ablenkung und dadurch Richtung des Laserstrahls variiert, was zusammen mit der Plattformbewegung eine 3D Abtastung der Umgebung ermöglicht. Die Entfernungsmessungen und die Strahlrichtung ermöglichen aber nur die Bestimmung von Punktkoordinaten relativ zum Laserscanner selbst. Vor der weiteren Verwendung müssen die Messungen georeferenziert, also in ein erdfestes Koordinatensystem transformiert, werden. Dazu wird die Position und Orientierung des Laserscanners in Bezug auf das erdfeste Koordinatensystem benötigt. Zu diesem Zweck beinhalten Laserscanningsysteme üblicherweise auch Navigationssysteme, meist eine Messeinheit für inertiale Navigation (Inertial Measurement Unit, IMU) bestehend aus Beschleunigungsgebern und Gyroskopen, und einen Empfänger sowie einer Antenne für die globale Satellitennavigation (Global Navigation Satellite System, GNSS). Damit kann die Trajektorie (Position und Orientierung über der Zeit) des Laserscanners ermittelt und für die Georeferenzierung der Punktwolke verwendet werden. In der Praxis ist die so errechnete Trajektorie oft fehlerbehaftet, und diese Fehler übertragen sich durch die Georeferenzierung auf die Punktwolke. Wird ein Gebiet zu verschiedenen Zeitpunkten und von verschiedenen Positionen der Plattform aus mehrfach erfasst, zeigen sich diese Fehler als Diskrepanzen zwischen den entsprechenden Punktwolken. Die Standardvorgehensweise zur Georeferenzierung von Laserscanningdaten besteht also aus zwei Schritten, zuerst wird die Trajektorie aus Satelliten- bzw. Inertialnavigationsdaten geschätzt, und dann wir diese Trajektorie in einem weiteren Schritt verbessert indem Diskrepanzen, zwischen sich überlappenden Punktwolken oder zwischen Punktwolke und Referenzdaten, minimiert werden. In dieser Dissertation wird ein ganzheitlicher Ansatz zur Trajektorienschätzung vorgestellt, welcher die Georeferenzierung von Laserscanningdaten verbessert indem diese beiden Schritte vereinheitlicht werden und Laserscanningdaten und Navigationsdaten in einem nichtlinearen Ausgleichungsverfahren gemeinsam betrachtet werden. Dies ist eine kumulative Dissertation bestehend aus drei begutachteten Journalartikeln. Der erste Artikel gibt einen Überblick über Literatur zum Thema Trajektorienschätzung mit Fokus auf der Integration von Satelliten- und Inertialnavigation mit bildgebenden Sensoren, und schlägt ein vereinheitlichendes mathematisches Rahmenwerk basierend auf maximum a-posteriori Schätzung vor. Der zweite Artikel stellt eine praktische Implementierung davon vor, realisiert als nichtlineares Ausgleichungsverfahren, welche anhand einer gemeinsamen Ko-Registrierung von simultan durchgeführten luftgestützten Aufnahmen von Flugzeug und Drohne demonstriert und evaluiert wird. Der dritte Artikel verbessert und ergänzt diesen Ansatz um eine iterative Strategie zum Heruntertakten der inertialen Messungen, was die Recheneffizienz durch Verringerung der Anzahl an Parametern und Beobachtungen im Ausgleich steigert, wobei Präzision und Genauigkeit sogar bei starken Vibrationen beibehalten werden. Insgesamt wurde gezeigt, dass der vorgeschlagene Ansatz mit verschiedenen Systemkonfigurationen und in verschiedenen Anwendungsszenarien einsetzbar ist, und dabei zuverlässig und mit hohem Automatisierungsgrad präzise Punktwolken liefert.
Integrating Microwave Remote Sensing and Deep Learning for Enhanced Agricultural Monitoring
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Etwa ein Drittel der Landfläche der Erde wird landwirtschaftlich genutzt. Aufgrund des raschen Bevölkerungswachstums und des steigenden Wohlstands wird die Nachfrage nach Nahrungsmitteln auch in Zukunft deutlich steigen. Gleichzeitig gefährdet der Klimawandel landwirtschaftliche Flächen. Die zunehmende Häufigkeit und Intensität von Dürren und extremen Wetterereignissen führen zudem zu einem erhöhten Risiko von Ernteausfällen. Um diese Auswirkungen auf die Landwirtschaft zu überwachen und die zukünftige Ernährungssicherheit zu gewährleisten, besteht ein zunehmender Bedarf an einem verbesserten landwirtschaftlichen Monitoring. Fernerkundung ermöglicht eine großflächige und konsistente Überwachung der Landoberfläche der Erde. Die Mikrowellenfernerkundung ist hierbei eine besonders wertvolle Datenquelle, da sie eine kontinuierliche Datenverfügbarkeit gewährleistet und die Erfassung wichtiger Vegetationsmerkmale erlaubt. Synthetic Aperture Radar (SAR) Satelliten wie die Copernicus C-Band-Mission Sentinel-1 liefern wertvolle Informationen über Vegetationsmerkmale mit hoher zeitlicher und räumlicher Auflösung. Diese erlauben Rückschlüsse auf die Vitalität, den Ernteertrag und die Wasserversorgung der Pflanzen. Aufgrund der steigenden Anzahl von Satelliten, insbesondere im Rahmen des Copernicus-Programms der ESA, nimmt die Menge der Erdbeobachtungsdaten kontinuierlich zu. Um diese Daten auszuwerten, sind automatisierte Methoden erforderlich. Künstliche Intelligenz (KI) und insbesondere Deep Learning (DL) ermöglichen eine effiziente Verarbeitung dieser Daten. In den letzten Jahren wurden bereits zahlreiche Studien im Zusammenhang mit Mikrowellenfernerkundung und DL für landwirtschaftliches Monitoring veröffentlicht, die das generelle Potenzial unterstreichen. Trotz der Vielzahl an Veröffentlichungen besteht weiterer Forschungsbedarf in diesem Fachbereich. Das Ziel dieser Dissertation ist es, landwirtschaftliches Monitoring auf Basis von Mikrowellenfernerkundung und DL zu verbessern, indem das Potenzial und die Grenzen der Daten und Algorithmen für verschiedene Anwendungsbereiche besser verstanden werden. Im Einzelnen werden folgende Fragen behandelt i) Wie schneiden Long Short-Term Memory (LSTM) Netzwerke und Random Forest (RF) bei der Klassifizierung von Kulturpflanzen auf Basis der Mikrowellenfernerkundung im Vergleich ab? ii) Welches Potenzial und welche Grenzen haben Mikrowellenfernerkundungsdaten für die Detektion von Graslandschnitten? iii) Welchen Wert haben meteorologische Daten für diese Anwendungen? iv) Welchen Wert hat satellitengestützte und modellbasierte Bodenfeuchte (SSM) für die Vorhersage des Ertrags von Sommergerste? Die Ergebnisse der Studien unterstreichen das große Potenzial von Mikrowellenfernerkundung und Deep Learning für landwirtschaftliches Monitoring. Im Einzelnen liefern sie folgende Erkenntnisse: i) LSTM-Netzwerke übertreffen Entscheidungsbaumalgorithmen wie Random Forest mit zunehmender räumlicher und zeitlicher Skala, ii) C-Band-Rückstreuung und DL-Modelle können zur zuverlässigen Erkennung von ersten Schnitten in Grasland verwendet werden. Einschränkungen in der Genauigkeit treten bei sinkender Grashöhe auf. Niederschlagsereignisse können zudem zu falsch-positiven Detektionen führen. iii) Meteorologische Daten zeigen einen begrenzten Wert für die Verbesserung der DL-basierten Klassifizierung von Kulturpflanzen. iv) Sowohl satellitengestützte als auch modellbasierte SSM sind für die Vorhersage des Ertrages von Sommergerste von großem Wert. In Gebieten wie z.B. Gebirgen oder dichter Vegetation, in denen die Bodenbedeckung zuverlässige satellitengestützte SSM-Abrufe behindert, kann das modellierte SSM-Produkt von Vorteil sein. Diese Ergebnisse tragen zu einem besseren Verständnis des Potenzials und der Grenzen der Mikrowellenfernerkundung in Kombination mit DL für landwirtschaftliches Monitoring bei und ermöglichen die Entwicklung robusterer und skalierbarer Anwendungen. Neue SAR-Missionen wie NISAR und ROSE-L liefern neue Daten mit längeren Wellenlängen, die neue Informationen für landwirtschaftliche Anwendungen ermöglichen. Neue Entwicklungen im Bereich der künstlichen Intelligenz, wie physikalisch unterstützte KI, bieten zusätzliches Potenzial, um landwirtschaftliches Monitoring weiter zu verbessern und die Lebensmittelversorgung in Zukunft sicherzustellen.
Etwa ein Drittel der Landfläche der Erde wird landwirtschaftlich genutzt. Aufgrund des raschen Bevölkerungswachstums und des steigenden Wohlstands wird die Nachfrage nach Nahrungsmitteln auch in Zukunft deutlich steigen. Gleichzeitig gefährdet der Klimawandel landwirtschaftliche Flächen. Die zunehmende Häufigkeit und Intensität von Dürren und extremen Wetterereignissen führen zudem zu einem erhöhten Risiko von Ernteausfällen. Um diese Auswirkungen auf die Landwirtschaft zu überwachen und die zukünftige Ernährungssicherheit zu gewährleisten, besteht ein zunehmender Bedarf an einem verbesserten landwirtschaftlichen Monitoring. Fernerkundung ermöglicht eine großflächige und konsistente Überwachung der Landoberfläche der Erde. Die Mikrowellenfernerkundung ist hierbei eine besonders wertvolle Datenquelle, da sie eine kontinuierliche Datenverfügbarkeit gewährleistet und die Erfassung wichtiger Vegetationsmerkmale erlaubt. Synthetic Aperture Radar (SAR) Satelliten wie die Copernicus C-Band-Mission Sentinel-1 liefern wertvolle Informationen über Vegetationsmerkmale mit hoher zeitlicher und räumlicher Auflösung. Diese erlauben Rückschlüsse auf die Vitalität, den Ernteertrag und die Wasserversorgung der Pflanzen. Aufgrund der steigenden Anzahl von Satelliten, insbesondere im Rahmen des Copernicus-Programms der ESA, nimmt die Menge der Erdbeobachtungsdaten kontinuierlich zu. Um diese Daten auszuwerten, sind automatisierte Methoden erforderlich. Künstliche Intelligenz (KI) und insbesondere Deep Learning (DL) ermöglichen eine effiziente Verarbeitung dieser Daten. In den letzten Jahren wurden bereits zahlreiche Studien im Zusammenhang mit Mikrowellenfernerkundung und DL für landwirtschaftliches Monitoring veröffentlicht, die das generelle Potenzial unterstreichen. Trotz der Vielzahl an Veröffentlichungen besteht weiterer Forschungsbedarf in diesem Fachbereich. Das Ziel dieser Dissertation ist es, landwirtschaftliches Monitoring auf Basis von Mikrowellenfernerkundung und DL zu verbessern, indem das Potenzial und die Grenzen der Daten und Algorithmen für verschiedene Anwendungsbereiche besser verstanden werden. Im Einzelnen werden folgende Fragen behandelt i) Wie schneiden Long Short-Term Memory (LSTM) Netzwerke und Random Forest (RF) bei der Klassifizierung von Kulturpflanzen auf Basis der Mikrowellenfernerkundung im Vergleich ab? ii) Welches Potenzial und welche Grenzen haben Mikrowellenfernerkundungsdaten für die Detektion von Graslandschnitten? iii) Welchen Wert haben meteorologische Daten für diese Anwendungen? iv) Welchen Wert hat satellitengestützte und modellbasierte Bodenfeuchte (SSM) für die Vorhersage des Ertrags von Sommergerste? Die Ergebnisse der Studien unterstreichen das große Potenzial von Mikrowellenfernerkundung und Deep Learning für landwirtschaftliches Monitoring. Im Einzelnen liefern sie folgende Erkenntnisse: i) LSTM-Netzwerke übertreffen Entscheidungsbaumalgorithmen wie Random Forest mit zunehmender räumlicher und zeitlicher Skala, ii) C-Band-Rückstreuung und DL-Modelle können zur zuverlässigen Erkennung von ersten Schnitten in Grasland verwendet werden. Einschränkungen in der Genauigkeit treten bei sinkender Grashöhe auf. Niederschlagsereignisse können zudem zu falsch-positiven Detektionen führen. iii) Meteorologische Daten zeigen einen begrenzten Wert für die Verbesserung der DL-basierten Klassifizierung von Kulturpflanzen. iv) Sowohl satellitengestützte als auch modellbasierte SSM sind für die Vorhersage des Ertrages von Sommergerste von großem Wert. In Gebieten wie z.B. Gebirgen oder dichter Vegetation, in denen die Bodenbedeckung zuverlässige satellitengestützte SSM-Abrufe behindert, kann das modellierte SSM-Produkt von Vorteil sein. Diese Ergebnisse tragen zu einem besseren Verständnis des Potenzials und der Grenzen der Mikrowellenfernerkundung in Kombination mit DL für landwirtschaftliches Monitoring bei und ermöglichen die Entwicklung robusterer und skalierbarer Anwendungen. Neue SAR-Missionen wie NISAR und ROSE-L liefern neue Daten mit längeren Wellenlängen, die neue Informationen für landwirtschaftliche Anwendungen ermöglichen. Neue Entwicklungen im Bereich der künstlichen Intelligenz, wie physikalisch unterstützte KI, bieten zusätzliches Potenzial, um landwirtschaftliches Monitoring weiter zu verbessern und die Lebensmittelversorgung in Zukunft sicherzustellen.
Advancements in Generating Analysis-Ready Backscatter Data over Land
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Messungen des Rückstreusignals von Synthetic Aperture Radar (SAR) Sensoren stellen eine unverzichtbare Datenquelle dar, da sie hochauflösende Erdbeobachtungen bei Tag und Nacht sowie unter allen Wetterbedingungen ermöglichen. Die meisten SAR-Sensoren arbeiten im X-, C- und L-Band, einem Frequenzbereich, der sich besonders für die Überwachung des globalen Wasserkreislaufs und der Landoberflächeneigenschaften eignet. Folglich greifen zahlreiche Anwendungen in der Klimaforschung, im Katastrophenmanagement und in der nachhaltigen Ressourcenbewirtschaftung auf SAR-Rückstreudaten zurück, um eine schnelle Kartierung von Überschwemmungen, Schnee, Bodenfeuchte, Vegetation und vielen weiteren bio-geophysikalischen Variablen zu unterstützen. In den vergangenen Jahrzehnten hat die Zunahme von Naturkatastrophen infolge des Klimawandels zu einer deutlich gestiegenen Nachfrage nach SAR-Rückstreudaten mit hoher Auflösung und geringer Latenz geführt. Die stetig wachsenden Datenmengen und die damit verbundenen Verarbeitungsanforderungen bringen sowohl Datenanbieter als auch Nutzende an ihre Grenzen. Darüber hinaus erfolgt die Datenerfassung durch SAR-Sensoren in einer seitlich gerichteten Geometrie, was die Interpretierbarkeit und die Vorverarbeitung, insbesondere bei der Kollokation und radiometrischen Anpassung von Messungen, erschwert. Diese Herausforderungen verdeutlichen den Bedarf an effizienten und standardisierten Prozessierungsketten sowie an gemeinsamen Initiativen zur Bereitstellung von standardisierten Analysis-Ready Daten (ARD). Diese Dissertation greift genau diesen Bedarf auf und verfolgt das Ziel, neue Konzepte zur Erzeugung von harmonisierten Rückstreudaten über Land zu entwickeln. Die Hauptdatenquelle dieser Arbeit sind Ground Range Detected (GRD)-Daten im Interferometric Wide (IW) Swath-Modus der Sentinel-1-Satelliten — die Flaggschiffe und Pioniere des Copernicus Programms der ESA. Diese Daten werden genutzt, um bestehende Qualitätsstandards und Prozessierungsketten zu analysieren. Eine wesentliche Eigenschaft von Sentinel-1 ist die außerordentliche Orbitstabilität, die den Einsatz interferometrischer Verfahren ermöglicht. Ein bislang wenig untersuchter Aspekt ist jedoch der Einfluss dieser Orbitstabilität auf verschiedene Prozessierungsschritte innerhalb der SAR-Vorverarbeitung und Georeferenzierung, bei der sowohl Sigma-Nought-Rückstreukoeffizienten als auch radiometrisch geländekorrigierte (Radiometric Terrain-Corrected, RTC) Gamma-Nought-Rückstreukoeffizienten erzeugt werden. Zur Untersuchung dieses Einflusses wurde eine neue effiziente SAR-Prozessierungssoftware namens wizsard entwickelt, die kalibrierte und georeferenzierte Rückstreudaten bis zu 50 Mal schneller generiert als die Version 8 der SeNtinel Application Platform (SNAP). wizsard ermöglicht es darüber hinaus, Monte-Carlo-Simulationen durchzuführen, bei denen Orbitvariationen als Eingangsgrößen und Abweichungen relevanter Prozessierungsparameter als Ausgangsgrößen verwendet werden. Zentrale Parameter wie Einfallswinkel, lokale Rückstreuflächen (Local Contributing Area, LCA) und SAR-Geländemasken zeigen nach der Simulation nur vernachlässigbare Varianzen und können daher für jeden relativen Orbit vorerzeugt werden. Die Entkopplung dieser Parameter von der standardmäßigen Prozessierungkette, ihre Bereitstellung als externe Datenquellen sowie die Erzeugung von Georeferenzierungs-Tabellen führen zu Laufzeitverbesserungen von bis zu 25% für Sigma Nought und 40% für RTC Gamma Nought. Der derzeitige Committee on Earth Observation Satellites (CEOS) ARD-Standard (CEOS-ARD) für normalisierte Radar-Rückstreudaten (Normalised Radar Backscatter, NRB), der auf RTC Gamma Nought basiert, kompensiert systematische, geländeabhängige Geometrieeffekte, berücksichtigt jedoch nicht die streuungsspezifischen Eigenschaften der Landoberfläche. Die Analyse mehrjähriger RTC-Gamma-Nought-Datacubes zeigt eine systematische Einfallswinkelabhängigkeit von RTC Gamma Nought in Abhängigkeit verschiedener Landbedeckungstypen. Diese Abhängigkeit lässt sich durch ein lineares Modell mit einem Regressions- oder Steigungsparameter beschreiben und durch eine Normalisierung des Rückstreusignals auf einen Referenzwinkel korrigieren. Aufgrund der beschränkten Einfallswinkel und des Beobachtungsschemas von Sentinel-1 ist eine solche Normalisierung jedoch nur in bestimmten Regionen möglich. Aufbauend auf der nachgewiesenen Korrelation zwischen temporalen Rückstreustatistiken und dem Regressionsparameter wurde daher ein innovativer Ansatz unter Verwendung eines Feed-Forward Neural Network (FFNN) entwickelt. Dieser Ansatz ermöglicht es, den Regressionsparameter zuverlässig abzuschätzen und RTC-Gamma-Nought-Rückstreudaten auf globaler Ebene zu normalisieren. Die daraus abgeleiteten NRB-Komposite sind großteils unabhängig von streuungsspezifischen Eigenschaften der Landoberfläche und der Geländemorphologie und bilden eine robuste Grundlage für die Landbedeckungs- und Landnutzungsklassifikation sowie für die Ableitung bio-geophysikalischer Parameter. Die in dieser Dissertation vorgestellten Konzepte ermöglichen es Datenanbietern und Nutzenden effizient ARD-NRB-Produkte zu erzeugen. Die gewonnenen Erkenntnisse bilden ein solides Fundament für die Entwicklung zuverlässiger, qualitativ hochwertiger Produkte, welche mit einer geringen Latenz zur Verfügung gestellt werden können. Mit dem bevorstehenden Start künftiger hochauflösender SAR-Missionen wie NISAR und ROSE-L liefert die vorliegende Arbeit einen wichtigen Beitrag zur Verarbeitung von Petabytes an standardisierten ARD-SAR-Rückstreudaten.
Messungen des Rückstreusignals von Synthetic Aperture Radar (SAR) Sensoren stellen eine unverzichtbare Datenquelle dar, da sie hochauflösende Erdbeobachtungen bei Tag und Nacht sowie unter allen Wetterbedingungen ermöglichen. Die meisten SAR-Sensoren arbeiten im X-, C- und L-Band, einem Frequenzbereich, der sich besonders für die Überwachung des globalen Wasserkreislaufs und der Landoberflächeneigenschaften eignet. Folglich greifen zahlreiche Anwendungen in der Klimaforschung, im Katastrophenmanagement und in der nachhaltigen Ressourcenbewirtschaftung auf SAR-Rückstreudaten zurück, um eine schnelle Kartierung von Überschwemmungen, Schnee, Bodenfeuchte, Vegetation und vielen weiteren bio-geophysikalischen Variablen zu unterstützen. In den vergangenen Jahrzehnten hat die Zunahme von Naturkatastrophen infolge des Klimawandels zu einer deutlich gestiegenen Nachfrage nach SAR-Rückstreudaten mit hoher Auflösung und geringer Latenz geführt. Die stetig wachsenden Datenmengen und die damit verbundenen Verarbeitungsanforderungen bringen sowohl Datenanbieter als auch Nutzende an ihre Grenzen. Darüber hinaus erfolgt die Datenerfassung durch SAR-Sensoren in einer seitlich gerichteten Geometrie, was die Interpretierbarkeit und die Vorverarbeitung, insbesondere bei der Kollokation und radiometrischen Anpassung von Messungen, erschwert. Diese Herausforderungen verdeutlichen den Bedarf an effizienten und standardisierten Prozessierungsketten sowie an gemeinsamen Initiativen zur Bereitstellung von standardisierten Analysis-Ready Daten (ARD). Diese Dissertation greift genau diesen Bedarf auf und verfolgt das Ziel, neue Konzepte zur Erzeugung von harmonisierten Rückstreudaten über Land zu entwickeln. Die Hauptdatenquelle dieser Arbeit sind Ground Range Detected (GRD)-Daten im Interferometric Wide (IW) Swath-Modus der Sentinel-1-Satelliten — die Flaggschiffe und Pioniere des Copernicus Programms der ESA. Diese Daten werden genutzt, um bestehende Qualitätsstandards und Prozessierungsketten zu analysieren. Eine wesentliche Eigenschaft von Sentinel-1 ist die außerordentliche Orbitstabilität, die den Einsatz interferometrischer Verfahren ermöglicht. Ein bislang wenig untersuchter Aspekt ist jedoch der Einfluss dieser Orbitstabilität auf verschiedene Prozessierungsschritte innerhalb der SAR-Vorverarbeitung und Georeferenzierung, bei der sowohl Sigma-Nought-Rückstreukoeffizienten als auch radiometrisch geländekorrigierte (Radiometric Terrain-Corrected, RTC) Gamma-Nought-Rückstreukoeffizienten erzeugt werden. Zur Untersuchung dieses Einflusses wurde eine neue effiziente SAR-Prozessierungssoftware namens wizsard entwickelt, die kalibrierte und georeferenzierte Rückstreudaten bis zu 50 Mal schneller generiert als die Version 8 der SeNtinel Application Platform (SNAP). wizsard ermöglicht es darüber hinaus, Monte-Carlo-Simulationen durchzuführen, bei denen Orbitvariationen als Eingangsgrößen und Abweichungen relevanter Prozessierungsparameter als Ausgangsgrößen verwendet werden. Zentrale Parameter wie Einfallswinkel, lokale Rückstreuflächen (Local Contributing Area, LCA) und SAR-Geländemasken zeigen nach der Simulation nur vernachlässigbare Varianzen und können daher für jeden relativen Orbit vorerzeugt werden. Die Entkopplung dieser Parameter von der standardmäßigen Prozessierungkette, ihre Bereitstellung als externe Datenquellen sowie die Erzeugung von Georeferenzierungs-Tabellen führen zu Laufzeitverbesserungen von bis zu 25% für Sigma Nought und 40% für RTC Gamma Nought. Der derzeitige Committee on Earth Observation Satellites (CEOS) ARD-Standard (CEOS-ARD) für normalisierte Radar-Rückstreudaten (Normalised Radar Backscatter, NRB), der auf RTC Gamma Nought basiert, kompensiert systematische, geländeabhängige Geometrieeffekte, berücksichtigt jedoch nicht die streuungsspezifischen Eigenschaften der Landoberfläche. Die Analyse mehrjähriger RTC-Gamma-Nought-Datacubes zeigt eine systematische Einfallswinkelabhängigkeit von RTC Gamma Nought in Abhängigkeit verschiedener Landbedeckungstypen. Diese Abhängigkeit lässt sich durch ein lineares Modell mit einem Regressions- oder Steigungsparameter beschreiben und durch eine Normalisierung des Rückstreusignals auf einen Referenzwinkel korrigieren. Aufgrund der beschränkten Einfallswinkel und des Beobachtungsschemas von Sentinel-1 ist eine solche Normalisierung jedoch nur in bestimmten Regionen möglich. Aufbauend auf der nachgewiesenen Korrelation zwischen temporalen Rückstreustatistiken und dem Regressionsparameter wurde daher ein innovativer Ansatz unter Verwendung eines Feed-Forward Neural Network (FFNN) entwickelt. Dieser Ansatz ermöglicht es, den Regressionsparameter zuverlässig abzuschätzen und RTC-Gamma-Nought-Rückstreudaten auf globaler Ebene zu normalisieren. Die daraus abgeleiteten NRB-Komposite sind großteils unabhängig von streuungsspezifischen Eigenschaften der Landoberfläche und der Geländemorphologie und bilden eine robuste Grundlage für die Landbedeckungs- und Landnutzungsklassifikation sowie für die Ableitung bio-geophysikalischer Parameter. Die in dieser Dissertation vorgestellten Konzepte ermöglichen es Datenanbietern und Nutzenden effizient ARD-NRB-Produkte zu erzeugen. Die gewonnenen Erkenntnisse bilden ein solides Fundament für die Entwicklung zuverlässiger, qualitativ hochwertiger Produkte, welche mit einer geringen Latenz zur Verfügung gestellt werden können. Mit dem bevorstehenden Start künftiger hochauflösender SAR-Missionen wie NISAR und ROSE-L liefert die vorliegende Arbeit einen wichtigen Beitrag zur Verarbeitung von Petabytes an standardisierten ARD-SAR-Rückstreudaten.
Improving Flood Monitoring Capabilities using Synthetic Aperture Radar Data Cubes
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Flooding poses a significant challenge across much of the world. It ranks as a leading natural disaster in terms of damage and the number of people affected. Effective management of floods requires rapid or Near Real-Time (NRT) mapping, primarily using satellite-based earth observation data. Synthetic Aperture Radar (SAR) data is considered the most suitable for flood mapping operations due to its ability to operate in all weather conditions, both day and night, and its skill at distinguishing between open water and land. The Sentinel-1 SAR system has unrivalled temporal and spatial coverage and thus has been tapped for various flood mapping operations. To better harness the vast Sentinel-1 data holdings, most researchers use data cube solutions. Notable in this regard is the TU Wien flood mapping algorithm. This algorithm is based on Bayes Inference that leverages a Sentinel-1 data cube to define the no-flood probability distribution of pixels via harmonic modelling and flood probability from historical water samples reckoned per incidence angle. It contributes to the Copernicus Emergency Management System's (CEMS) Global Flood Mapping (GFM) ensemble workflow being operated in NRT. While working well in most cases, it has issues such as underestimation in flood transition areas and overestimation in agricultural areas. Further, limitations due to SAR-based flood retrievals necessitate the application of exclusion masks. However, over reliance on exclusion masks also presents an issue. As the TU Wien algorithm's novel Bayesian Inference formulation presents opportunities for improvement, this thesis aims further to improve it in the context of global NRT operations. To do this, we systematically analysed the algorithm performance and Bayesian Inference components for improvement. First, we compared the performance of change detection algorithms in the northern Philippines as a study area. We tested four well-known change detection algorithms that rely on time-series SAR inputs against reference data from Sentinel Asia and optical imagery. We tested parameterizations such as no-flood estimates or references and threshold determination methods. The TU Wien algorithm was also varied by checking the effect of its low sensitivity masking. Our results suggest that the Bayesian Inference used for the TU Wien algorithm is superior to the other tested algorithms due to its stable performance regardless of parameterization. We then proposed an alternative to non-informative priors using Height Above Nearest Drainage (HAND) to derive spatially varying priors. The HAND data is used as an input to a two-parameter sigmoid function to generate the priors. We optimized and tested this new formulation of priors on five test events, comparing the HAND-based prior versus the original non-informed priors using CEMS rapid mapping results. Overall, the proposed HAND prior improved the flood mapping results by reducing false negatives, with the added benefit of removing dependence on an external HAND exclusion mask. Further, we explored the use of the exponential filter to estimate a no-flood reference probability and replace the harmonic model. This filter is a promising alternative because it accounts for the most recent backscatter observations, coupled with its recursive formulation, which makes it viable for NRT computation. We compared this filter and its parameterizations for flood mapping performance on four flood events in Europe covered by CEMS rapid activation and three sites in Asia covered by Sentinel Asia flood mapping activations. We then proposed a novel time series assessment of false positive rates to avert the pitfall of overfitting for flooded scenarios. From the time-series assessments, we were able to analyse the causes of overestimation at no-flood scenarios by referencing ERA-5 data. We found that well-known causes of low backscatter, such as frost, dry soil conditions, and lesser-studied agriculture effects, trigger higher FPR at scale. In all cases, the exponential filter showed reduced FP. However, improvement to the exponential filter method is needed as prolonged floods in an area result in poorly estimated no-food references and, thus, poor flood mapping performance. We concluded that the exponential filter is an excellent alternative to the harmonic model. In conclusion, we have established the TU Wien algorithm using the Sentinel-1 data cube as a robust method compared with other change detection algorithms. Further, we have shown improvements in the TU Wien algorithm from incremental changes to its Bayesian Inference framework. These improvements are being (and will be applied) to the TU Wien workflow under the CEMS GFM, thus impacting a true fully automated near-real-time global flood mapping operation.
Flooding poses a significant challenge across much of the world. It ranks as a leading natural disaster in terms of damage and the number of people affected. Effective management of floods requires rapid or Near Real-Time (NRT) mapping, primarily using satellite-based earth observation data. Synthetic Aperture Radar (SAR) data is considered the most suitable for flood mapping operations due to its ability to operate in all weather conditions, both day and night, and its skill at distinguishing between open water and land. The Sentinel-1 SAR system has unrivalled temporal and spatial coverage and thus has been tapped for various flood mapping operations. To better harness the vast Sentinel-1 data holdings, most researchers use data cube solutions. Notable in this regard is the TU Wien flood mapping algorithm. This algorithm is based on Bayes Inference that leverages a Sentinel-1 data cube to define the no-flood probability distribution of pixels via harmonic modelling and flood probability from historical water samples reckoned per incidence angle. It contributes to the Copernicus Emergency Management System's (CEMS) Global Flood Mapping (GFM) ensemble workflow being operated in NRT. While working well in most cases, it has issues such as underestimation in flood transition areas and overestimation in agricultural areas. Further, limitations due to SAR-based flood retrievals necessitate the application of exclusion masks. However, over reliance on exclusion masks also presents an issue. As the TU Wien algorithm's novel Bayesian Inference formulation presents opportunities for improvement, this thesis aims further to improve it in the context of global NRT operations. To do this, we systematically analysed the algorithm performance and Bayesian Inference components for improvement. First, we compared the performance of change detection algorithms in the northern Philippines as a study area. We tested four well-known change detection algorithms that rely on time-series SAR inputs against reference data from Sentinel Asia and optical imagery. We tested parameterizations such as no-flood estimates or references and threshold determination methods. The TU Wien algorithm was also varied by checking the effect of its low sensitivity masking. Our results suggest that the Bayesian Inference used for the TU Wien algorithm is superior to the other tested algorithms due to its stable performance regardless of parameterization. We then proposed an alternative to non-informative priors using Height Above Nearest Drainage (HAND) to derive spatially varying priors. The HAND data is used as an input to a two-parameter sigmoid function to generate the priors. We optimized and tested this new formulation of priors on five test events, comparing the HAND-based prior versus the original non-informed priors using CEMS rapid mapping results. Overall, the proposed HAND prior improved the flood mapping results by reducing false negatives, with the added benefit of removing dependence on an external HAND exclusion mask. Further, we explored the use of the exponential filter to estimate a no-flood reference probability and replace the harmonic model. This filter is a promising alternative because it accounts for the most recent backscatter observations, coupled with its recursive formulation, which makes it viable for NRT computation. We compared this filter and its parameterizations for flood mapping performance on four flood events in Europe covered by CEMS rapid activation and three sites in Asia covered by Sentinel Asia flood mapping activations. We then proposed a novel time series assessment of false positive rates to avert the pitfall of overfitting for flooded scenarios. From the time-series assessments, we were able to analyse the causes of overestimation at no-flood scenarios by referencing ERA-5 data. We found that well-known causes of low backscatter, such as frost, dry soil conditions, and lesser-studied agriculture effects, trigger higher FPR at scale. In all cases, the exponential filter showed reduced FP. However, improvement to the exponential filter method is needed as prolonged floods in an area result in poorly estimated no-food references and, thus, poor flood mapping performance. We concluded that the exponential filter is an excellent alternative to the harmonic model. In conclusion, we have established the TU Wien algorithm using the Sentinel-1 data cube as a robust method compared with other change detection algorithms. Further, we have shown improvements in the TU Wien algorithm from incremental changes to its Bayesian Inference framework. These improvements are being (and will be applied) to the TU Wien workflow under the CEMS GFM, thus impacting a true fully automated near-real-time global flood mapping operation.
Safeguarding the ephemeral - photogrammetry for graffiti documentation
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Graffiti sind voller polarisierender Gegensätze. Ständig sichtbar in urbanen Lebensräumen sind sie auch sehr vergänglich. Von vielen gehasst, von einigen geduldet, von manchen geliebt. Trotz der herausragenden Rolle im öffentlichen Diskurs und im öffentlichen Raum gibt es vergleichsweise wenige wissenschaftliche Initiativen, die sich mit dem, im wahrsten Sinne, vielschichtigen Phänomen Graffiti beschäftigen. Dies ist überraschend, wenn man den Reichtum an Inhalten bedenkt, den Graffiti darstellen. Inzwischen gibt es immer mehr Wissenschaftler und Wissenschaftlerinnen, die (moderne) Graffiti als kulturelles Erbe betrachten, das linguistische, anthropologische, kriminologische, ethnografische, historische und viele andere Bereiche berührt. Unabhängig von der Position in diesem Diskurs fehlt es bisher an soliden Daten für fundierte Analysen zum Thema Graffiti. Zwar gibt es einzelne Dokumentationsprojekte, diese weisen jedoch häufig Lücken oder mangelnde Objektivität auf. In dieser Dissertation wird mit Hilfe der Photogrammetrie ein methodischer Rahmen entwickelt, um die Basis für eine umfassende Datengrundlage für eine tiefere Auseinandersetzung mit Graffiti zu schaffen. Diese Dissertation untersucht den Wiener Donaukanal, mit ca. 13km Länge eine der weltweit größten zusammenhängenden Graffitilandschaften. Eine zentrale Herausforderung der Graffiti-Dokumentation ist die Identifizierung neuer Werke, die aufgrund der großen Fläche und schnellen Veränderungen besonders zeitaufwändig ist. Um diesen Prozess zu verbessern, wurde eine automatisierte, bildbasierte Methode zur Erkennung von relevanten Veränderungen entwickelt. Das Verfahren nutzt einen inkrementellen Bündelblock und synthetische Kameras zur Erzeugung synthetischer ko-registrierter Graffitibilderpaare. Diese fließen in eine hybride Änderungserkennungspipeline ein, die pixel- und merkmalsbasierte Methoden kombiniert. Der Ansatz wurde an einem öffentlich verfügbaren Referenzdatensatz mit 6902 Bildpaaren validiert, der im Rahmen dieser Arbeit erstellt wurde. Mit einer Genauigkeit (accuracy) von 87% und einer Sensitivität (recall) von 77% zeigen die Ergebnisse, dass der vorgeschlagene Arbeitsablauf zur Erkennung von Veränderungen neu hinzugefügte Graffiti in einer Graffitilandschaft detektieren kann und somit eine umfassendere Graffitidokumentation unterstützt. Neben der Identifikation neuer Graffiti ist die räumliche und zeitliche Dekontextualisierung eine der größten Herausforderungen in der Graffiti-Dokumentation, da Graffiti meist an Ort und Zeit gebunden sind. Fotografien allein reichen nicht aus, um diesen Kontext zu bewahren. Diese Studie untersucht daher den Einsatz photogrammetrischer Techniken zur besseren Erfassung des räumlichen und zeitlichen Bezugs. Orthophotos erweisen sich als besonders geeignet, da sie eine präzise Georeferenzierung ermöglichen und frei von topografischen und perspektivischen Verzerrungen sind und die Linsenverzeichnung korrigiert wird. Zur effizienten Umwandlung großer Bildmengen in Orthophotos wurde ein Workflow entwickelt und in der Software AUTOGRAF (AUTomated Orthorectification of GRAFfiti photos) implementiert. AUTOGRAF nutzt einen inkrementellen Bündelblock-Ansatz, um neue Fotos zu orientieren, daraus aktuelle 3D-Modelle der Szenen zu generieren und schließlich die Bilder zu orthorektifizieren. In einem Experiment mit 826 Fotos, die insgesamt 100 neue Graffiti abbilden, zeigte sich, dass AUTOGRAF für 95% der Graffiti zufriedenstellend Orthophotos generiert und damit auch die Datenbasis für eine 3D-Webplatform liefern kann, um Graffiti in ihrem ursprünglichen, wenn auch virtuellen, Kontext darzustellen. Zusätzlich zu den Studien entlang des Donaukanals widmet sich diese Dissertation einer Fallstudie zur Dokumentation von Graffiti von Migranten und Migrantinnen in heimlichen Migrationsstationen an der türkischen Westküste, einer Schlüsselregion auf der gefährlichen Route von der Türkei nach Griechenland. Grundlage für diese Studie war eine 12-tägige Forschungsreise, in der zwei verlassene, von Migranten und Migrantinnen genutzte Gebäude untersucht wurden. Die dort gefundenen Graffiti sind stille Zeugen dieser prägenden Erfahrungen. Angesichts ihres vergänglichen Charakters sowie der schwierigen Bedingungen vor Ort – begrenzter Zugang, schlechte Beleuchtung und Stress – stellte die Dokumentation besondere Schwierigkeiten dar. Die meist mit Kreide, Steinen oder Lippenstift angebrachten Graffiti und die schnell verfallenden Gebäude machen eine systematische Erfassung umso dringlicher. Durch die Bewahrung dieser fragilen Spuren in Form von Orthophotos und texturierten 3D-Modellen trägt diese Studie zu einem tieferen Verständnis zeitgenössischer Migration und ihrer verborgenen Erzählungen bei. Sie dient zugleich als Sammlung von Primärbelegen für Ereignisse, die nicht nur individuelle Schicksale prägen, sondern auch den öffentlichen Diskurs und die politische Agenda beeinflussen. Die vorgestellten Studien zeigen die Vielfältigkeit des Themas Graffiti und die diversen Möglichkeiten, die die Photogrammetrie bietet um dieses flüchtige Kulturerbe (digital) zu bewahren. Durch die Vorstellung und freien Verfügungstellung dieser Ansätze und Implementierungen soll diese Arbeit sowohl Graffiti-Enthusiasten und Enthusiastinnen als auch Wissenschaflter und Wissenschaftlerinnen Unterstützung und Inspiration für die Dokumentation dieser einzigartigen Form des menschlichen Ausdrucks bieten.
Graffiti sind voller polarisierender Gegensätze. Ständig sichtbar in urbanen Lebensräumen sind sie auch sehr vergänglich. Von vielen gehasst, von einigen geduldet, von manchen geliebt. Trotz der herausragenden Rolle im öffentlichen Diskurs und im öffentlichen Raum gibt es vergleichsweise wenige wissenschaftliche Initiativen, die sich mit dem, im wahrsten Sinne, vielschichtigen Phänomen Graffiti beschäftigen. Dies ist überraschend, wenn man den Reichtum an Inhalten bedenkt, den Graffiti darstellen. Inzwischen gibt es immer mehr Wissenschaftler und Wissenschaftlerinnen, die (moderne) Graffiti als kulturelles Erbe betrachten, das linguistische, anthropologische, kriminologische, ethnografische, historische und viele andere Bereiche berührt. Unabhängig von der Position in diesem Diskurs fehlt es bisher an soliden Daten für fundierte Analysen zum Thema Graffiti. Zwar gibt es einzelne Dokumentationsprojekte, diese weisen jedoch häufig Lücken oder mangelnde Objektivität auf. In dieser Dissertation wird mit Hilfe der Photogrammetrie ein methodischer Rahmen entwickelt, um die Basis für eine umfassende Datengrundlage für eine tiefere Auseinandersetzung mit Graffiti zu schaffen. Diese Dissertation untersucht den Wiener Donaukanal, mit ca. 13km Länge eine der weltweit größten zusammenhängenden Graffitilandschaften. Eine zentrale Herausforderung der Graffiti-Dokumentation ist die Identifizierung neuer Werke, die aufgrund der großen Fläche und schnellen Veränderungen besonders zeitaufwändig ist. Um diesen Prozess zu verbessern, wurde eine automatisierte, bildbasierte Methode zur Erkennung von relevanten Veränderungen entwickelt. Das Verfahren nutzt einen inkrementellen Bündelblock und synthetische Kameras zur Erzeugung synthetischer ko-registrierter Graffitibilderpaare. Diese fließen in eine hybride Änderungserkennungspipeline ein, die pixel- und merkmalsbasierte Methoden kombiniert. Der Ansatz wurde an einem öffentlich verfügbaren Referenzdatensatz mit 6902 Bildpaaren validiert, der im Rahmen dieser Arbeit erstellt wurde. Mit einer Genauigkeit (accuracy) von 87% und einer Sensitivität (recall) von 77% zeigen die Ergebnisse, dass der vorgeschlagene Arbeitsablauf zur Erkennung von Veränderungen neu hinzugefügte Graffiti in einer Graffitilandschaft detektieren kann und somit eine umfassendere Graffitidokumentation unterstützt. Neben der Identifikation neuer Graffiti ist die räumliche und zeitliche Dekontextualisierung eine der größten Herausforderungen in der Graffiti-Dokumentation, da Graffiti meist an Ort und Zeit gebunden sind. Fotografien allein reichen nicht aus, um diesen Kontext zu bewahren. Diese Studie untersucht daher den Einsatz photogrammetrischer Techniken zur besseren Erfassung des räumlichen und zeitlichen Bezugs. Orthophotos erweisen sich als besonders geeignet, da sie eine präzise Georeferenzierung ermöglichen und frei von topografischen und perspektivischen Verzerrungen sind und die Linsenverzeichnung korrigiert wird. Zur effizienten Umwandlung großer Bildmengen in Orthophotos wurde ein Workflow entwickelt und in der Software AUTOGRAF (AUTomated Orthorectification of GRAFfiti photos) implementiert. AUTOGRAF nutzt einen inkrementellen Bündelblock-Ansatz, um neue Fotos zu orientieren, daraus aktuelle 3D-Modelle der Szenen zu generieren und schließlich die Bilder zu orthorektifizieren. In einem Experiment mit 826 Fotos, die insgesamt 100 neue Graffiti abbilden, zeigte sich, dass AUTOGRAF für 95% der Graffiti zufriedenstellend Orthophotos generiert und damit auch die Datenbasis für eine 3D-Webplatform liefern kann, um Graffiti in ihrem ursprünglichen, wenn auch virtuellen, Kontext darzustellen. Zusätzlich zu den Studien entlang des Donaukanals widmet sich diese Dissertation einer Fallstudie zur Dokumentation von Graffiti von Migranten und Migrantinnen in heimlichen Migrationsstationen an der türkischen Westküste, einer Schlüsselregion auf der gefährlichen Route von der Türkei nach Griechenland. Grundlage für diese Studie war eine 12-tägige Forschungsreise, in der zwei verlassene, von Migranten und Migrantinnen genutzte Gebäude untersucht wurden. Die dort gefundenen Graffiti sind stille Zeugen dieser prägenden Erfahrungen. Angesichts ihres vergänglichen Charakters sowie der schwierigen Bedingungen vor Ort – begrenzter Zugang, schlechte Beleuchtung und Stress – stellte die Dokumentation besondere Schwierigkeiten dar. Die meist mit Kreide, Steinen oder Lippenstift angebrachten Graffiti und die schnell verfallenden Gebäude machen eine systematische Erfassung umso dringlicher. Durch die Bewahrung dieser fragilen Spuren in Form von Orthophotos und texturierten 3D-Modellen trägt diese Studie zu einem tieferen Verständnis zeitgenössischer Migration und ihrer verborgenen Erzählungen bei. Sie dient zugleich als Sammlung von Primärbelegen für Ereignisse, die nicht nur individuelle Schicksale prägen, sondern auch den öffentlichen Diskurs und die politische Agenda beeinflussen. Die vorgestellten Studien zeigen die Vielfältigkeit des Themas Graffiti und die diversen Möglichkeiten, die die Photogrammetrie bietet um dieses flüchtige Kulturerbe (digital) zu bewahren. Durch die Vorstellung und freien Verfügungstellung dieser Ansätze und Implementierungen soll diese Arbeit sowohl Graffiti-Enthusiasten und Enthusiastinnen als auch Wissenschaflter und Wissenschaftlerinnen Unterstützung und Inspiration für die Dokumentation dieser einzigartigen Form des menschlichen Ausdrucks bieten.
Opportunities with VLBI transmitters on Galileo satellites
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Geodätische Very Long Baseline Interferometry (VLBI) ist ein geodätisches Weltraumverfahren, welches auf der gleichzeitigen Beobachtung von Signalen extragalaktischer Radioquellen (meist Quasare) mit mehreren über die Erde verteilten Radioteleskopen basiert. VLBI ist das einzige Verfahren zur Bestimmung der Orientierung der Erde im Weltraum und zur Realisierung des himmelsfesten Referenzrahmens. Sie trägt auch zur Bestimmung des terrestrischen Referenzrahmens bei, der aus Beobachtungen verschiedener geodätischer Weltraumverfahren kombiniert wird. Derzeit beobachten VLBI Stationen ausschließlich natürliche, Milliarden von Lichtjahren entfernte, Radioquellen. Zukünftig sollen auch Satelliten mit speziellen VLBI Transmittern ausgestattet werden, um auch diese in VLBI Beobachtungen einzubeziehen. In dieser Arbeit werden die Möglichkeiten von VLBI Beobachtungen zu VLBI Transmittern auf Galileo Satelliten untersucht. Die Studien basieren auf Monte-Carlo-Simulationen unter der Annahme, dass ein oder mehrere Galileo Satelliten mit einem VLBI Transmitter ausgestattet sind. Eine Studie untersucht die Bestimmung der Koordinaten der VLBI Stationen aus VLBI Beobachtungen zu Galileo Satelliten mit dem Ziel, die Verbindung zwischen dynamischen und kinematischen Referenzrahmen zu bewerten. Die Ergebnisse zeigen, dass mindestens zwei, besser drei Galileo Satelliten mit einem VLBI Transmitter ausgestattet sein sollten, wobei die besten Ergebnisse erzielt werden, wenn alle Satelliten mit VLBI Transmittern in derselben Bahn platziert sind. Die Stationskoordinaten können mit einer Genauigkeit im Zentimeterbereich oder besser aus 24-stündigen VLBI Sessions bestimmt werden. Dies unterstreicht die Möglichkeiten und Chancen mit dem neuen Beobachtungstyp. Weiters wird die Sensitivität von VLBI Beobachtungen zu Satelliten gegenüber der Satellitenposition in einem lokalen Satellitenbahnsystem und des Erdrotationswinkels mit Hilfe von Dilution of Precision (DOP) Faktoren untersucht. Diese Faktoren können bei der Planung von VLBI Beobachtungen als Kriterien zur Auswahl des am besten geeigneten Scan für die Bestimmung relevanter Parameter dienen. Schließlich wird die Bestimmung der Umlaufbahn eines Galileo Satelliten unter Verwendung von VLBI Beobachtungen zu Galileo Satelliten untersucht. Dies erfolgt einerseits durch die Bestimmung der kinematischen Position des Satelliten im lokalen Satellitenbahnsystem für kurze Bahnbögen und andererseits durch die Bestimmung der sechs Keplerelemente. Die Rektaszension des aufsteigenden Knotens n ist in diesem Zusammenhang besonders relevant, da sie direkt aus VLBI Beobachtungen zu Satelliten bestimmt werden kann. Die Ergebnisse zeigen, dass die absolute Orientierung der Satellitenbahn um die z-Achse, welche n entspricht, mit einer Genauigkeit von 40 μas bestimmt werden kann. Dies entspricht einer Bogenlänge von 0.6 cm in der Höhe der Galileo Bahn. Die Ergebnisse der Arbeit zeigen, dass die Ausstattung eines oder mehrerer Galileo Satelliten der nächsten Generation mit einem VLBI Transmitter die Möglichkeiten der Weltraumgeodäsie deutlich verbessern und erweitern wird. Außerdem sind die Untersuchungen und Erfahrungen aus dieser Arbeit sehr wertvoll für die kommende Genesis Mission der Europäischen Weltraumorganisation, welche mit einem VLBI Transmitter ausgestattet sein wird.
Geodätische Very Long Baseline Interferometry (VLBI) ist ein geodätisches Weltraumverfahren, welches auf der gleichzeitigen Beobachtung von Signalen extragalaktischer Radioquellen (meist Quasare) mit mehreren über die Erde verteilten Radioteleskopen basiert. VLBI ist das einzige Verfahren zur Bestimmung der Orientierung der Erde im Weltraum und zur Realisierung des himmelsfesten Referenzrahmens. Sie trägt auch zur Bestimmung des terrestrischen Referenzrahmens bei, der aus Beobachtungen verschiedener geodätischer Weltraumverfahren kombiniert wird. Derzeit beobachten VLBI Stationen ausschließlich natürliche, Milliarden von Lichtjahren entfernte, Radioquellen. Zukünftig sollen auch Satelliten mit speziellen VLBI Transmittern ausgestattet werden, um auch diese in VLBI Beobachtungen einzubeziehen. In dieser Arbeit werden die Möglichkeiten von VLBI Beobachtungen zu VLBI Transmittern auf Galileo Satelliten untersucht. Die Studien basieren auf Monte-Carlo-Simulationen unter der Annahme, dass ein oder mehrere Galileo Satelliten mit einem VLBI Transmitter ausgestattet sind. Eine Studie untersucht die Bestimmung der Koordinaten der VLBI Stationen aus VLBI Beobachtungen zu Galileo Satelliten mit dem Ziel, die Verbindung zwischen dynamischen und kinematischen Referenzrahmen zu bewerten. Die Ergebnisse zeigen, dass mindestens zwei, besser drei Galileo Satelliten mit einem VLBI Transmitter ausgestattet sein sollten, wobei die besten Ergebnisse erzielt werden, wenn alle Satelliten mit VLBI Transmittern in derselben Bahn platziert sind. Die Stationskoordinaten können mit einer Genauigkeit im Zentimeterbereich oder besser aus 24-stündigen VLBI Sessions bestimmt werden. Dies unterstreicht die Möglichkeiten und Chancen mit dem neuen Beobachtungstyp. Weiters wird die Sensitivität von VLBI Beobachtungen zu Satelliten gegenüber der Satellitenposition in einem lokalen Satellitenbahnsystem und des Erdrotationswinkels mit Hilfe von Dilution of Precision (DOP) Faktoren untersucht. Diese Faktoren können bei der Planung von VLBI Beobachtungen als Kriterien zur Auswahl des am besten geeigneten Scan für die Bestimmung relevanter Parameter dienen. Schließlich wird die Bestimmung der Umlaufbahn eines Galileo Satelliten unter Verwendung von VLBI Beobachtungen zu Galileo Satelliten untersucht. Dies erfolgt einerseits durch die Bestimmung der kinematischen Position des Satelliten im lokalen Satellitenbahnsystem für kurze Bahnbögen und andererseits durch die Bestimmung der sechs Keplerelemente. Die Rektaszension des aufsteigenden Knotens n ist in diesem Zusammenhang besonders relevant, da sie direkt aus VLBI Beobachtungen zu Satelliten bestimmt werden kann. Die Ergebnisse zeigen, dass die absolute Orientierung der Satellitenbahn um die z-Achse, welche n entspricht, mit einer Genauigkeit von 40 μas bestimmt werden kann. Dies entspricht einer Bogenlänge von 0.6 cm in der Höhe der Galileo Bahn. Die Ergebnisse der Arbeit zeigen, dass die Ausstattung eines oder mehrerer Galileo Satelliten der nächsten Generation mit einem VLBI Transmitter die Möglichkeiten der Weltraumgeodäsie deutlich verbessern und erweitern wird. Außerdem sind die Untersuchungen und Erfahrungen aus dieser Arbeit sehr wertvoll für die kommende Genesis Mission der Europäischen Weltraumorganisation, welche mit einem VLBI Transmitter ausgestattet sein wird.
3D Modeling of Historic Timber Structures from TLS Point Clouds
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Diese Dissertation präsentiert eine Reihe von Methoden zur Verbesserung der Automatisierung der 3D-architektonischen und strukturellen Modellierung historischer Holzkonstruktionen mittels Punktwolken aus terrestrischem Laserscanning (TLS). Der Erhalt historischer Holzgebäude, die als bedeutendes Kulturerbe dienen, erfordert effektives Structural Health Monitoring (SHM), um deren Sicherheit und Langlebigkeit zu gewährleisten. SHM basiert auf detaillierter geometrischer Datenerfassung und 3D-Modellierung zur Erkennung potenzieller struktureller Abweichungen. Die manuelle Modellierung jedes Bauteils in CAD-basierter Statiksoftware ist jedoch arbeitsintensiv und fehleranfällig, während vollautomatisierte Modellierung häufig unvollständige Ergebnisse liefert, bedingt durch Herausforderungen bei Datenerfassung und -verarbeitung. Um die Lücke zwischen Punktwolken und architektonischen sowie strukturellen Modellen zu schließen, wurde eine Methode entwickelt, die Quader an die Punktwolken gerader Balken mit rechteckigem Querschnitt anpasst. Darauf aufbauend wurde ein fortschrittlicher Workflow mit einer linearen Untersegmentierungsmethode implementiert, wodurch die Vollständigkeit der automatisierten Modellierung erheblich verbessert wurde. Zusätzlich wurde ein neuartiger Ansatz zur Erkennung und Entfernung nicht-struktureller äußerer Dachpunkte implementiert. Dieser Workflow wurde auf ein gesamtes historisches Holzdach angewandt und zeigte eine deutliche Steigerung der quantitativen Vollständigkeit. Anschließend konzentriert sich die Dissertation auf die Identifikation von ebenen Dachziegeln und untergeordneten Tragwerksystemen, während die Modellintegrität durch logikbasierte Entscheidungsmechanismen zur Erstellung, Vereinigung und Erweiterung verbessert wird. Die resultierenden Modelle wurden erfolgreich in Statiksoftware integriert, wodurch Lastfallsimulationen ermöglicht und erste strukturelle Bewertungen erleichtert wurden. Ein Vergleich mit manuell erstellten Modellen in RSTAB und Revit hebt sowohl die Vorteile als auch die Grenzen des vorgeschlagenen automatisierten Ansatzes im Vergleich zu traditionellen Modellierungsmethoden hervor. Darüber hinaus wird die Balkenmodellierung durch die Integration von trapezförmigen Prismen neben Quadern erweitert, um die Genauigkeit und Vielseitigkeit des automatisierten Modellierungsprozesses weiter zu verfeinern. Die Ergebnisse zeigen, dass die vorgeschlagenen automatisierten Workflows den Zeitaufwand für vorläufige Tragwerksbewertungen deutlich reduzieren, den Bedarf an arbeitsintensiven manuellen Prozessen verringern und Fehler durch menschliches Eingreifen minimieren. Der Automatisierungsgrad des state-of-the-art-Ansatzes wurde erheblich verbessert und das Konzept erfolgreich an verschiedenen Strukturen validiert. Diese Dissertation unterstreicht die Effizienz automatisierter 3D-Modellierung für frühe Strukturbewertungen und bietet einen praktischen, skalierbaren Ansatz zur Dokumentation, Analyse und Erhaltung historischer Holzkonstruktionen.
Diese Dissertation präsentiert eine Reihe von Methoden zur Verbesserung der Automatisierung der 3D-architektonischen und strukturellen Modellierung historischer Holzkonstruktionen mittels Punktwolken aus terrestrischem Laserscanning (TLS). Der Erhalt historischer Holzgebäude, die als bedeutendes Kulturerbe dienen, erfordert effektives Structural Health Monitoring (SHM), um deren Sicherheit und Langlebigkeit zu gewährleisten. SHM basiert auf detaillierter geometrischer Datenerfassung und 3D-Modellierung zur Erkennung potenzieller struktureller Abweichungen. Die manuelle Modellierung jedes Bauteils in CAD-basierter Statiksoftware ist jedoch arbeitsintensiv und fehleranfällig, während vollautomatisierte Modellierung häufig unvollständige Ergebnisse liefert, bedingt durch Herausforderungen bei Datenerfassung und -verarbeitung. Um die Lücke zwischen Punktwolken und architektonischen sowie strukturellen Modellen zu schließen, wurde eine Methode entwickelt, die Quader an die Punktwolken gerader Balken mit rechteckigem Querschnitt anpasst. Darauf aufbauend wurde ein fortschrittlicher Workflow mit einer linearen Untersegmentierungsmethode implementiert, wodurch die Vollständigkeit der automatisierten Modellierung erheblich verbessert wurde. Zusätzlich wurde ein neuartiger Ansatz zur Erkennung und Entfernung nicht-struktureller äußerer Dachpunkte implementiert. Dieser Workflow wurde auf ein gesamtes historisches Holzdach angewandt und zeigte eine deutliche Steigerung der quantitativen Vollständigkeit. Anschließend konzentriert sich die Dissertation auf die Identifikation von ebenen Dachziegeln und untergeordneten Tragwerksystemen, während die Modellintegrität durch logikbasierte Entscheidungsmechanismen zur Erstellung, Vereinigung und Erweiterung verbessert wird. Die resultierenden Modelle wurden erfolgreich in Statiksoftware integriert, wodurch Lastfallsimulationen ermöglicht und erste strukturelle Bewertungen erleichtert wurden. Ein Vergleich mit manuell erstellten Modellen in RSTAB und Revit hebt sowohl die Vorteile als auch die Grenzen des vorgeschlagenen automatisierten Ansatzes im Vergleich zu traditionellen Modellierungsmethoden hervor. Darüber hinaus wird die Balkenmodellierung durch die Integration von trapezförmigen Prismen neben Quadern erweitert, um die Genauigkeit und Vielseitigkeit des automatisierten Modellierungsprozesses weiter zu verfeinern. Die Ergebnisse zeigen, dass die vorgeschlagenen automatisierten Workflows den Zeitaufwand für vorläufige Tragwerksbewertungen deutlich reduzieren, den Bedarf an arbeitsintensiven manuellen Prozessen verringern und Fehler durch menschliches Eingreifen minimieren. Der Automatisierungsgrad des state-of-the-art-Ansatzes wurde erheblich verbessert und das Konzept erfolgreich an verschiedenen Strukturen validiert. Diese Dissertation unterstreicht die Effizienz automatisierter 3D-Modellierung für frühe Strukturbewertungen und bietet einen praktischen, skalierbaren Ansatz zur Dokumentation, Analyse und Erhaltung historischer Holzkonstruktionen.
Tägliche Bewegungen des Geozentrums und Masseänderungen aus GRACE Daten und GNSS Stationsverschiebungen
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2025
Betreuer: Univ.-Prof. Dr. Torsten Mayer-Gürr
Kurzfassung/Abstract
Die ständige Bewegung der Erde, die durch Auflasten verursacht wird, kann global durch die GRACE Mission (Gravity Recovery and Climate Experiment) beobachtet werden. Aufgrund der Einschränkungen, die mit den GRACE Beobachtungen verbunden sind, ist es jedoch nicht möglich, die Verschiebungen des Geozentrums direkt zu bestimmen oder die Auswirkungen dieser Verschiebungen auf die berechneten GRACE Lösungen vollständig zu verstehen. Diese Arbeit verfolgt den Ansatz zwei unterschiedliche Messmethoden zu kombinieren, um die Geozentrumsbewegung zu berechnen und so die individuellen Einschränkungen jeder Methode zu kompensieren. Die Geozentrumsbewegung, die die Verschiebung zwischen dem Erdschwerpunkt (Center of Mass) und dem geologischen Mittelpunkt der Erde (Center of solid Earth) beschreibt, wird unter Verwendung täglicher GRACE Beobachtungen als auch GNSS (Global Navigation Satellite System) Stationskoordinaten, die an der TU Graz verarbeitet wurden, geschätzt. Die Ergebnisse dieses kombinierten Ansatzes werden mit früheren Arbeiten und anderen Datensätzen verglichen, wobei gezeigt wird, dass die erzielte Genauigkeit und Magnitude mit Lösungen vergleichbar sind, die ausschließlich auf GNSS und GRACE Daten basieren. Arbeiten, die zusätzliche Beobachtungen in die Berechnungen einfließen lassen, können den Null Space besser reduzieren und die Streuung verringern. Insgesamt zeigen die jährlichen saisonalen Schwankungen, die in dieser Arbeit beobachtet wurden, ähnliche Amplituden wie jene in anderen Arbeiten, welche auch mehrere Beobachtungen kombinieren.
Die ständige Bewegung der Erde, die durch Auflasten verursacht wird, kann global durch die GRACE Mission (Gravity Recovery and Climate Experiment) beobachtet werden. Aufgrund der Einschränkungen, die mit den GRACE Beobachtungen verbunden sind, ist es jedoch nicht möglich, die Verschiebungen des Geozentrums direkt zu bestimmen oder die Auswirkungen dieser Verschiebungen auf die berechneten GRACE Lösungen vollständig zu verstehen. Diese Arbeit verfolgt den Ansatz zwei unterschiedliche Messmethoden zu kombinieren, um die Geozentrumsbewegung zu berechnen und so die individuellen Einschränkungen jeder Methode zu kompensieren. Die Geozentrumsbewegung, die die Verschiebung zwischen dem Erdschwerpunkt (Center of Mass) und dem geologischen Mittelpunkt der Erde (Center of solid Earth) beschreibt, wird unter Verwendung täglicher GRACE Beobachtungen als auch GNSS (Global Navigation Satellite System) Stationskoordinaten, die an der TU Graz verarbeitet wurden, geschätzt. Die Ergebnisse dieses kombinierten Ansatzes werden mit früheren Arbeiten und anderen Datensätzen verglichen, wobei gezeigt wird, dass die erzielte Genauigkeit und Magnitude mit Lösungen vergleichbar sind, die ausschließlich auf GNSS und GRACE Daten basieren. Arbeiten, die zusätzliche Beobachtungen in die Berechnungen einfließen lassen, können den Null Space besser reduzieren und die Streuung verringern. Insgesamt zeigen die jährlichen saisonalen Schwankungen, die in dieser Arbeit beobachtet wurden, ähnliche Amplituden wie jene in anderen Arbeiten, welche auch mehrere Beobachtungen kombinieren.
Kombinierte Oberflächen- und Untergrundprospektion mittels Punktwolken für geophysikalische archäologische Untersuchungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dipl.-Geophys. Immo Trinks PhD
Kurzfassung/Abstract
The integration of diverse point cloud sources – such as Terrestrial Laserscanning (TLS), Image Based Modelling (IBM), and Ground Penetrating Radar (GPR) – enables the creation of comprehensive 3D models of archaeological sites, imaging both surface and subsurface structures. Each data type captures distinct information: TLS provides detailed geometry, photogrammetry offers texture and overall structure, and GPR reveals subsurface features. Merging these data sets into a unified point cloud improves the visualisation and facilitates the topographic correction of GPR data, GPR anomaly detection, and digital twin creation, which are essential for archaeological research and cultural heritage preservation. The proposed workflow optimises and georeferences TLS data while ensuring global consistency across multiple scans. Global reference is established by using Global Navigation Satellite System (GNSS) data of distinct features and airborne drone measurements. Comparisons to transform parameters using the geo-located IBM data are conducted and consequently preferred due to visual consistency. The resulting integrated 3D models not only enhance the understanding of the investigated cultural heritage sites but also improve the accuracy of subsurface and surface mapping by correlating overlapping structures from different sensing modalities. This project also demonstrates an automated framework, in which all data are treated as point clouds and merged following precise referencing. A dedicated C++ tool facilitates the optimisation process, and the integration is performed within a Geographic Information System (GIS) framework called Nubigon, suited for the handling of very large data sets. This type of system is pivotal in ensuring that both high-resolution surface details and subsurface anomalies are accurately represented, thereby supporting more effective conservation and research efforts. The custom developed tool is set to be published as open source software, therefore facilitating free access and the possibility of contribution by a broader user base. This encourages transparency and accessibility of software used for the specific purpose of aligning multiple point clouds and optimising the underlying pose graph. GPR data revealed subsurface structures and features within the manor grounds. Anomalies caused by buried walls and foundations of a suspected orangery were discovered beneath the meadow of a terrace adjacent to the building complex. These 3D point cloud data sets and contained structures have been jointly visualized using Nubigon, which overlays IBM surface data with GPR subsurface data to provide a comprehensive representation.
The integration of diverse point cloud sources – such as Terrestrial Laserscanning (TLS), Image Based Modelling (IBM), and Ground Penetrating Radar (GPR) – enables the creation of comprehensive 3D models of archaeological sites, imaging both surface and subsurface structures. Each data type captures distinct information: TLS provides detailed geometry, photogrammetry offers texture and overall structure, and GPR reveals subsurface features. Merging these data sets into a unified point cloud improves the visualisation and facilitates the topographic correction of GPR data, GPR anomaly detection, and digital twin creation, which are essential for archaeological research and cultural heritage preservation. The proposed workflow optimises and georeferences TLS data while ensuring global consistency across multiple scans. Global reference is established by using Global Navigation Satellite System (GNSS) data of distinct features and airborne drone measurements. Comparisons to transform parameters using the geo-located IBM data are conducted and consequently preferred due to visual consistency. The resulting integrated 3D models not only enhance the understanding of the investigated cultural heritage sites but also improve the accuracy of subsurface and surface mapping by correlating overlapping structures from different sensing modalities. This project also demonstrates an automated framework, in which all data are treated as point clouds and merged following precise referencing. A dedicated C++ tool facilitates the optimisation process, and the integration is performed within a Geographic Information System (GIS) framework called Nubigon, suited for the handling of very large data sets. This type of system is pivotal in ensuring that both high-resolution surface details and subsurface anomalies are accurately represented, thereby supporting more effective conservation and research efforts. The custom developed tool is set to be published as open source software, therefore facilitating free access and the possibility of contribution by a broader user base. This encourages transparency and accessibility of software used for the specific purpose of aligning multiple point clouds and optimising the underlying pose graph. GPR data revealed subsurface structures and features within the manor grounds. Anomalies caused by buried walls and foundations of a suspected orangery were discovered beneath the meadow of a terrace adjacent to the building complex. These 3D point cloud data sets and contained structures have been jointly visualized using Nubigon, which overlays IBM surface data with GPR subsurface data to provide a comprehensive representation.
Entwicklung einer Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Das Ziel dieser Arbeit ist es, eine Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning (TLS) zu entwickeln. Im Vergleich zur klassischen punktbasierten Deformationsanalyse ist die flächenhafte Deformationsanalyse jedoch noch weniger verbreitet und im Hinblick auf die Qualitätsinformationen für die Ergebnisse mit mehr Einschränkungen verbunden, weil das stochastische Modell bei TLS-Messungen noch unvollständig ist. Die Vorgehensweise soll also methodisch korrekt zeigen, wie die Überwachung einer Steinsatzwand mit TLS trotzdem gelingt. Dafür werden nach dem Stand der Technik und Forschung die methodischen Grundlagen für die Vorgehensweise erarbeitet und für die Struktur der Arbeit, die vier Phasen der Vorgehensweise definiert. In Phase 1 wird die Überwachungsaufgabe analysiert und geplant, in Phase 2 das Referenzsystem mit einem geodätischen Netz realisiert, in der Phase 3 die TLS-Messungen und die Auswertungen vorgenommen und in der Phase 4 schließlich die TLS-Deformationsanalyse durchgeführt. Als Teil der Vorgehensweise wird vorab das TLS-Instrument in Anlehnung an die ISO 17123-9:2018 (E) 2018 geprüft und für einsatztauglich befunden. Dann folgt der erste praktische Entwicklungsschritt der Vorgehensweise bei der Überwachung von einzelnen Steinen unter Laborbedingungen. Als Kontrolle wird eine punkbasierte Deformationsanalyse durchgeführt. Beim Vergleich von M3C2, Feature-Matching und virtuellen Targets, stellt sich die letztgenannte Methode mit ihrer Robustheit und einer hohen Qualität der Ergebnisse, die am besten für die Vorgehensweise geeignete Methode heraus. Auf diesen Erkenntnissen aufbauend gelingt dann auch die Überwachung einer Steinsatzwand mit TLS am Kitzsteinhorn. Die Aufgabe konnte klar definiert, ein Referenzsystem als Referenzrahmen realisiert und eine neue Nullepoche mit TLS-Messungen geschaffen werden. Auf dieser Basis wurden vergangene Epochen dann erfolgreich mit einer Stabilbereichsmethode in das stabile Referenzsystem transformiert. Daraufhin gelang die TLS-Deformationsanalyse mit virtuellen Targets und es konnten maßgebliche Bewegungen, wenn auch ohne zugehörige Qualitätsangaben, festgestellt werden. Dabei wurde außerdem die Gletscherschmelze als mögliche Ursache für die Bewegungen identifiziert. Die entwickelte Vorgehensweise zur Überwachung von Steinsatzwänden mit TLS wird schließlich in einem Flussdiagramm dargestellt und die einzelnen Prozessschritte darin beschrieben. Außerdem wird eine objektive Bewertung der Vorgehensweise anhand von methodischen Elementen der Ingenieurgeodäsie vorgenommen.
Das Ziel dieser Arbeit ist es, eine Vorgehensweise zur Überwachung von Steinsatzwänden mit terrestrischem Laserscanning (TLS) zu entwickeln. Im Vergleich zur klassischen punktbasierten Deformationsanalyse ist die flächenhafte Deformationsanalyse jedoch noch weniger verbreitet und im Hinblick auf die Qualitätsinformationen für die Ergebnisse mit mehr Einschränkungen verbunden, weil das stochastische Modell bei TLS-Messungen noch unvollständig ist. Die Vorgehensweise soll also methodisch korrekt zeigen, wie die Überwachung einer Steinsatzwand mit TLS trotzdem gelingt. Dafür werden nach dem Stand der Technik und Forschung die methodischen Grundlagen für die Vorgehensweise erarbeitet und für die Struktur der Arbeit, die vier Phasen der Vorgehensweise definiert. In Phase 1 wird die Überwachungsaufgabe analysiert und geplant, in Phase 2 das Referenzsystem mit einem geodätischen Netz realisiert, in der Phase 3 die TLS-Messungen und die Auswertungen vorgenommen und in der Phase 4 schließlich die TLS-Deformationsanalyse durchgeführt. Als Teil der Vorgehensweise wird vorab das TLS-Instrument in Anlehnung an die ISO 17123-9:2018 (E) 2018 geprüft und für einsatztauglich befunden. Dann folgt der erste praktische Entwicklungsschritt der Vorgehensweise bei der Überwachung von einzelnen Steinen unter Laborbedingungen. Als Kontrolle wird eine punkbasierte Deformationsanalyse durchgeführt. Beim Vergleich von M3C2, Feature-Matching und virtuellen Targets, stellt sich die letztgenannte Methode mit ihrer Robustheit und einer hohen Qualität der Ergebnisse, die am besten für die Vorgehensweise geeignete Methode heraus. Auf diesen Erkenntnissen aufbauend gelingt dann auch die Überwachung einer Steinsatzwand mit TLS am Kitzsteinhorn. Die Aufgabe konnte klar definiert, ein Referenzsystem als Referenzrahmen realisiert und eine neue Nullepoche mit TLS-Messungen geschaffen werden. Auf dieser Basis wurden vergangene Epochen dann erfolgreich mit einer Stabilbereichsmethode in das stabile Referenzsystem transformiert. Daraufhin gelang die TLS-Deformationsanalyse mit virtuellen Targets und es konnten maßgebliche Bewegungen, wenn auch ohne zugehörige Qualitätsangaben, festgestellt werden. Dabei wurde außerdem die Gletscherschmelze als mögliche Ursache für die Bewegungen identifiziert. Die entwickelte Vorgehensweise zur Überwachung von Steinsatzwänden mit TLS wird schließlich in einem Flussdiagramm dargestellt und die einzelnen Prozessschritte darin beschrieben. Außerdem wird eine objektive Bewertung der Vorgehensweise anhand von methodischen Elementen der Ingenieurgeodäsie vorgenommen.
Modellierung und Visualisierung der Ausdehnung historischer Regionen
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2025
Betreuer: Priv.-Doz. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Den meisten Historiker:innen stehen nur Textquellen über historische Ereignisse oder Orte zur Verfügung. Selten verfügen sie über geographisch korrekte Karten aus der damaligen Zeit, die den Forscher:innen bei der Verortung dieser Ereignisse oder Orte helfen könnten. Häufiger gibt es sogenannte Ortsverzeichnisse, in denen Orte aufgeführt sind, manchmal mit zusätzlichen Informationen wie zum Beispiel der Zugehörigkeit zu einer Verwaltungseinheit. Mit dem Aufkommen von Computern und Kartierungssoftware versuchen die Forscher:innen, diese Ortsverzeichnisse auf Karten dazustellen. Allerdings sind die Orte oftmals nur als Punkte angegeben. In den Geistes- und Sozialwissenschaften ist jedoch die Zugehörigkeit von Städten und damit ihrer Bevölkerung zu Verwaltungseinheiten von Bedeutung. Verschiedene Einheiten können zu sozialen Ungleichgewichten und unterschiedlichen sozialen Dynamiken führen. Da die Einheiten für die Entwicklung von Kultur und Gemeinschaft wichtig sind, ist es umgekehrt wichtig, wo genau die Grenzen verlaufen oder wie groß die jeweiligen Regionen sind. Nachdem diese Information in historischen Daten oft fehlt, ist das Ziel dieser Arbeit einen Arbeitsablauf vorzustellen, mit dem Regionen aus Orten eines digitalen historischen Ortsverzeichnisses erschlossen werden können. Um Unsicherheiten in der Zuordnung von Orten zu Verwaltungseinheiten zu berücksichtigen wird die von L. Zadeh vorgeschlagene Fuzzy Logic Theorie verwendet. Dieser Ansatz erlaubt es, Unsicherheiten mit unterschiedlichen Zugehörigkeitsgraden zu messen, anstatt eine einfache Ja-oder-Nein Zugehörigkeit zu einer Region zu bestimmen, und ermöglicht es somit, mehrere Faktoren zu berücksichtigen. Der im Zuge dieser Arbeit entwickelte Algorithmus ermöglicht es, mehr über die Dynamik und Struktur historischer Regionen zu erfahren. Die Ergebnisse zeigen, dass der Algorithmus erfolgreich über 95% der Orte korrekt verortet. Der Algorithmus wurde mit modernen Punktdaten getestet, und die resultierenden Regionen wurden mit den tatsächlichen Ländergrenzen verglichen. Der Test ergab, dass die berechneten Regionen mit einem Puffer von etwa 70 km rund 95% der tatsächlichen Ländergrenzen umfassen.
Den meisten Historiker:innen stehen nur Textquellen über historische Ereignisse oder Orte zur Verfügung. Selten verfügen sie über geographisch korrekte Karten aus der damaligen Zeit, die den Forscher:innen bei der Verortung dieser Ereignisse oder Orte helfen könnten. Häufiger gibt es sogenannte Ortsverzeichnisse, in denen Orte aufgeführt sind, manchmal mit zusätzlichen Informationen wie zum Beispiel der Zugehörigkeit zu einer Verwaltungseinheit. Mit dem Aufkommen von Computern und Kartierungssoftware versuchen die Forscher:innen, diese Ortsverzeichnisse auf Karten dazustellen. Allerdings sind die Orte oftmals nur als Punkte angegeben. In den Geistes- und Sozialwissenschaften ist jedoch die Zugehörigkeit von Städten und damit ihrer Bevölkerung zu Verwaltungseinheiten von Bedeutung. Verschiedene Einheiten können zu sozialen Ungleichgewichten und unterschiedlichen sozialen Dynamiken führen. Da die Einheiten für die Entwicklung von Kultur und Gemeinschaft wichtig sind, ist es umgekehrt wichtig, wo genau die Grenzen verlaufen oder wie groß die jeweiligen Regionen sind. Nachdem diese Information in historischen Daten oft fehlt, ist das Ziel dieser Arbeit einen Arbeitsablauf vorzustellen, mit dem Regionen aus Orten eines digitalen historischen Ortsverzeichnisses erschlossen werden können. Um Unsicherheiten in der Zuordnung von Orten zu Verwaltungseinheiten zu berücksichtigen wird die von L. Zadeh vorgeschlagene Fuzzy Logic Theorie verwendet. Dieser Ansatz erlaubt es, Unsicherheiten mit unterschiedlichen Zugehörigkeitsgraden zu messen, anstatt eine einfache Ja-oder-Nein Zugehörigkeit zu einer Region zu bestimmen, und ermöglicht es somit, mehrere Faktoren zu berücksichtigen. Der im Zuge dieser Arbeit entwickelte Algorithmus ermöglicht es, mehr über die Dynamik und Struktur historischer Regionen zu erfahren. Die Ergebnisse zeigen, dass der Algorithmus erfolgreich über 95% der Orte korrekt verortet. Der Algorithmus wurde mit modernen Punktdaten getestet, und die resultierenden Regionen wurden mit den tatsächlichen Ländergrenzen verglichen. Der Test ergab, dass die berechneten Regionen mit einem Puffer von etwa 70 km rund 95% der tatsächlichen Ländergrenzen umfassen.
Ambiguitätsauflösung und ionosphärische Berechnungen für VLBI CONT17 Daten mit VieVS
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2025
Betreuer: Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) spielt in der Geodäsie eine sehr wichtige Rolle, da sie wichtige Produkte wie alle fünf Erdorientierungsparameter (EOP) liefert und die einzige weltraumgeodätische Technik ist, die zum Internationalen Himmelsreferenzrahmen (ICRF) beiträgt. Zu Beginn der VLBI-Analyse muss die Ambiguitätsauflösung der S/X-Band Multiband-Delays durchgeführt und die ionosphärische Kalibrierung berechnet werden. In der Vergangenheit wurden diese beiden Vorverarbeitungsschritte von einer anderen Software wie Solve/nuSolve durchgeführt, und die Vienna VLBI and Satellite Software (VieVS) verwendete stets externe Ergebnisse. Für das Vienna VLBI Analysis Center ist es wichtig, dass die Ambiguitätsauflösung und die ionosphärische Kalibrierung in VieVS berechnet werden können, um von den externen Ergebnissen in der vgosDB unabhängig zu sein. Der erste Teil der Arbeit befasst sich mit einem neuen Ansatz der Ambiguitätsauflösung mit Multiband-Singleband-Delay-Differenzen. Mithilfe von Dreiecksschlüssen können die Ambiguitäten pro Basislinie mit einem Netzwerk aller Stationen berechnet werden. Der Ansatz wurde erfolgreich mit S/X-Band-Sessions der Continuous Very Long Baseline Interferometry Campaign 2017 (CONT17) getestet und hat gezeigt, dass auch VLBI-Sessions mit Clock Breaks gelöst werden können. Es gab einzelne Beobachtungen in CONT17-Sessions, die nach dieser automatischen Lösung noch eine Ambiguitätkorrektur benötigen. Diese kann in VieVS manuell durchgeführt werden. Die ausschließliche manuelle Durchführung einer Ambiguitätsauflösung wird nicht empfohlen, da sie sehr zeitaufwendig ist und nur mit viel Übung durchgeführt werden kann. Darüber hinaus wurden alle notwendigen Schritte zur Software-Implementierung des neuen automatischen Ansatzes der Ambiguitätsauflösung in VieVS erarbeitet. Im zweiten Teil der Arbeit wurde die Berechnung der ionosphärischen Kalibrierung genauer beschrieben. Das Thema ist besonders relevant, da sich im Laufe der Zeit die Methoden zur Berechnung der effektiven Frequenzen und der ionosphärischen Kalibrierung stark verändert haben, was zu Inkonsistenzen in den vgosDB-Dateien führt. Hier konnte gezeigt werden, dass die berechnete Lösung der ionosphärischen Korrektur für CONT17 bis zu 100 ps von der vgosDB abweichen kann. Der folgende Effekt der Differenz in den Stationskoordinaten betrug bis zu 1 mm. In Zusammenarbeit mit dem Vienna VLBI Analysis Center war es möglich, die aktualisierte Berechnung für die ionosphärische Kalibrierung in VieVS zu implementieren, sodass die Werte direkt berechnet werden können, anstatt externe Ergebnisse zu verwenden.
Very Long Baseline Interferometry (VLBI) spielt in der Geodäsie eine sehr wichtige Rolle, da sie wichtige Produkte wie alle fünf Erdorientierungsparameter (EOP) liefert und die einzige weltraumgeodätische Technik ist, die zum Internationalen Himmelsreferenzrahmen (ICRF) beiträgt. Zu Beginn der VLBI-Analyse muss die Ambiguitätsauflösung der S/X-Band Multiband-Delays durchgeführt und die ionosphärische Kalibrierung berechnet werden. In der Vergangenheit wurden diese beiden Vorverarbeitungsschritte von einer anderen Software wie Solve/nuSolve durchgeführt, und die Vienna VLBI and Satellite Software (VieVS) verwendete stets externe Ergebnisse. Für das Vienna VLBI Analysis Center ist es wichtig, dass die Ambiguitätsauflösung und die ionosphärische Kalibrierung in VieVS berechnet werden können, um von den externen Ergebnissen in der vgosDB unabhängig zu sein. Der erste Teil der Arbeit befasst sich mit einem neuen Ansatz der Ambiguitätsauflösung mit Multiband-Singleband-Delay-Differenzen. Mithilfe von Dreiecksschlüssen können die Ambiguitäten pro Basislinie mit einem Netzwerk aller Stationen berechnet werden. Der Ansatz wurde erfolgreich mit S/X-Band-Sessions der Continuous Very Long Baseline Interferometry Campaign 2017 (CONT17) getestet und hat gezeigt, dass auch VLBI-Sessions mit Clock Breaks gelöst werden können. Es gab einzelne Beobachtungen in CONT17-Sessions, die nach dieser automatischen Lösung noch eine Ambiguitätkorrektur benötigen. Diese kann in VieVS manuell durchgeführt werden. Die ausschließliche manuelle Durchführung einer Ambiguitätsauflösung wird nicht empfohlen, da sie sehr zeitaufwendig ist und nur mit viel Übung durchgeführt werden kann. Darüber hinaus wurden alle notwendigen Schritte zur Software-Implementierung des neuen automatischen Ansatzes der Ambiguitätsauflösung in VieVS erarbeitet. Im zweiten Teil der Arbeit wurde die Berechnung der ionosphärischen Kalibrierung genauer beschrieben. Das Thema ist besonders relevant, da sich im Laufe der Zeit die Methoden zur Berechnung der effektiven Frequenzen und der ionosphärischen Kalibrierung stark verändert haben, was zu Inkonsistenzen in den vgosDB-Dateien führt. Hier konnte gezeigt werden, dass die berechnete Lösung der ionosphärischen Korrektur für CONT17 bis zu 100 ps von der vgosDB abweichen kann. Der folgende Effekt der Differenz in den Stationskoordinaten betrug bis zu 1 mm. In Zusammenarbeit mit dem Vienna VLBI Analysis Center war es möglich, die aktualisierte Berechnung für die ionosphärische Kalibrierung in VieVS zu implementieren, sodass die Werte direkt berechnet werden können, anstatt externe Ergebnisse zu verwenden.
Assessing Data Volume Redundancy in the Sentinel-2 Tiling Grid System
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Dr. Bernhard Bauer-Marschallinger
Kurzfassung/Abstract
Gitterbasierte räumliche Referenzsysteme bilden die Grundlage für den effizienten Umgang mit Rasterdaten der Erdbeobachtung. Durch die Abbildung und Unterteilung der Erdoberfläche in regelmäßige, planare Gitter und Kacheln ermöglichen sogenannte Tiling Grid Systems (TGS) eine einheitliche Georeferenzierung, vereinfachen die Verwaltung umfangreicher Datensätze und unterstützen die Erstellung raum-zeitlicher Datenwürfel. Dadurch wird der effiziente Zugriff auf Erdbeobachtungsdaten sowie deren Verarbeitung und Integration über verschiedene Zeiträume und Sensorsysteme hinweg erleichtert. Die Sentinel-2 (S-2) Mission nutzt ein solches TGS, das auf den Universal Transverse Mercator Projektionen und Kacheln des Military Grid Reference Systems basiert. Allerdings führt dieses Design zu einer erheblichen Überlappung von Kacheln, wodurch bestimmte Regionen der Erdoberfläche mehrfach abgebildet werden. Diese Redundanz erzeugt Datenduplikate, was den Bedarf an Speicherplatz, Rechenressourcen und Übertragungskapazitäten erhöht und letztlich die Gesamteffizienz der Nutzung von S-2 Daten verringert. Diese Arbeit quantifiziert die durch das S-2 TGS verursachten Redundanzen über globalen Landmassen anhand von S-2 Datensätzen. Dazu werden die Datensätze sowohl im S-2 TGS also inklusive Redundanzen als auch in einem nahezu redundanzfreien Referenzsystem gespeichert. Durch den Vergleich der dabei entstehenden Datenvolumina wird die Effizienz des Systems bewertet. Verschiedene Datensätze mit unterschiedlichen Eigenschaften sowie mehrere Analyseszenarien werden eingesetzt, um den Einfluss von Datentypen und geografischen Regionen auf das Ausmaß der Redundanz zu untersuchen. Die Ergebnisse bestätigen frühere Studien basierend auf Landflächenberechnungen und zeigen, dass das S-2 TGS zu einem erheblichen Mehraufwand von bis zu 32% an zusätzlichem Datenvolumen führen kann. Diese Erkenntnisse verdeutlichen die Notwendigkeit optimierter räumlicher Referenzsysteme, um den steigenden Anforderungen an die Speicherung, Verarbeitung und Bereitstellung moderner Erdbeobachtungsdaten gerecht zu werden.
Gitterbasierte räumliche Referenzsysteme bilden die Grundlage für den effizienten Umgang mit Rasterdaten der Erdbeobachtung. Durch die Abbildung und Unterteilung der Erdoberfläche in regelmäßige, planare Gitter und Kacheln ermöglichen sogenannte Tiling Grid Systems (TGS) eine einheitliche Georeferenzierung, vereinfachen die Verwaltung umfangreicher Datensätze und unterstützen die Erstellung raum-zeitlicher Datenwürfel. Dadurch wird der effiziente Zugriff auf Erdbeobachtungsdaten sowie deren Verarbeitung und Integration über verschiedene Zeiträume und Sensorsysteme hinweg erleichtert. Die Sentinel-2 (S-2) Mission nutzt ein solches TGS, das auf den Universal Transverse Mercator Projektionen und Kacheln des Military Grid Reference Systems basiert. Allerdings führt dieses Design zu einer erheblichen Überlappung von Kacheln, wodurch bestimmte Regionen der Erdoberfläche mehrfach abgebildet werden. Diese Redundanz erzeugt Datenduplikate, was den Bedarf an Speicherplatz, Rechenressourcen und Übertragungskapazitäten erhöht und letztlich die Gesamteffizienz der Nutzung von S-2 Daten verringert. Diese Arbeit quantifiziert die durch das S-2 TGS verursachten Redundanzen über globalen Landmassen anhand von S-2 Datensätzen. Dazu werden die Datensätze sowohl im S-2 TGS also inklusive Redundanzen als auch in einem nahezu redundanzfreien Referenzsystem gespeichert. Durch den Vergleich der dabei entstehenden Datenvolumina wird die Effizienz des Systems bewertet. Verschiedene Datensätze mit unterschiedlichen Eigenschaften sowie mehrere Analyseszenarien werden eingesetzt, um den Einfluss von Datentypen und geografischen Regionen auf das Ausmaß der Redundanz zu untersuchen. Die Ergebnisse bestätigen frühere Studien basierend auf Landflächenberechnungen und zeigen, dass das S-2 TGS zu einem erheblichen Mehraufwand von bis zu 32% an zusätzlichem Datenvolumen führen kann. Diese Erkenntnisse verdeutlichen die Notwendigkeit optimierter räumlicher Referenzsysteme, um den steigenden Anforderungen an die Speicherung, Verarbeitung und Bereitstellung moderner Erdbeobachtungsdaten gerecht zu werden.
Assessment of deadwood biomass for the biosphere reserve Rohrach
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Totholz spielt eine entscheidende Rolle in Waldökosystemen, da es die Biodiversität fördert, den Nährstoffkreislauf unterstützt und Kohlenstoff speichert. Trotz seiner Bedeutung bleiben die automatisierte Erkennung und Messung von Totholz eine Herausforderung, insbesondere in naturbelassenen Wäldern mit dichter Vegetation und überlappenden Stämmen. In dieser Arbeit werden vier Methoden zur Erfassung von Totholz im Naturwaldreservat Rohrach verglichen: manuelle Feldmessungen, "Line Interset" Methode, eine bereits entwickelte UAV-basierte Laserscanning-Methode (ULS) und ein neu entwickelter Algorithmus für terrestrisches Laserscanning (TLS). Der TLS-Ansatz nutzt hochauflösende Punktwolken, um liegendes Totholz zu detektieren. Dabei werden potenzielle Stämme anhand geometrischer Merkmale wie Linearität, Oberflächenorientierung und räumlicher Kontinuität identifiziert. Anschließend werden Polynomfunktionen genutzt, um Durchmesser, Länge und Volumen der Segmente zu berechnen. Drei Probeflächen mit einem Radius von 12 Metern wurden untersucht, um die Methoden unter unterschiedlichen Waldbedingungen zu evaluieren. Die ULS-Methode erwies sich als effizient für großflächige Kartierungen, war jedoch weniger effektiv bei der Erkennung kleinerer oder verdeckter Stämme. Der TLS-Ansatz lieferte detailliertere Messungen, hatte jedoch Schwierigkeiten in Gebieten mit sehr dichtem Unterwuchs und überlappenden Strukturen. Manuelle Messungen, obwohl präzise, waren zeitaufwändig und für größere Flächen weniger praktikabel. Die Ergebnisse zeigen, dass jede Methode ihre eigenen Stärken und Schwächen hat. Eine Kombination von ULS- und TLS-Daten könnte eine umfassendere Lösung bieten, indem ULS für großflächige Erfassungen und TLS für detaillierte Analysen genutzt wird. Diese Arbeit leistet einen Beitrag zur Weiterentwicklung von Methoden zur Totholzerkennung und liefert wertvolle Einblicke für das Monitoring von Biodiversität und das Waldmanagement.
Totholz spielt eine entscheidende Rolle in Waldökosystemen, da es die Biodiversität fördert, den Nährstoffkreislauf unterstützt und Kohlenstoff speichert. Trotz seiner Bedeutung bleiben die automatisierte Erkennung und Messung von Totholz eine Herausforderung, insbesondere in naturbelassenen Wäldern mit dichter Vegetation und überlappenden Stämmen. In dieser Arbeit werden vier Methoden zur Erfassung von Totholz im Naturwaldreservat Rohrach verglichen: manuelle Feldmessungen, "Line Interset" Methode, eine bereits entwickelte UAV-basierte Laserscanning-Methode (ULS) und ein neu entwickelter Algorithmus für terrestrisches Laserscanning (TLS). Der TLS-Ansatz nutzt hochauflösende Punktwolken, um liegendes Totholz zu detektieren. Dabei werden potenzielle Stämme anhand geometrischer Merkmale wie Linearität, Oberflächenorientierung und räumlicher Kontinuität identifiziert. Anschließend werden Polynomfunktionen genutzt, um Durchmesser, Länge und Volumen der Segmente zu berechnen. Drei Probeflächen mit einem Radius von 12 Metern wurden untersucht, um die Methoden unter unterschiedlichen Waldbedingungen zu evaluieren. Die ULS-Methode erwies sich als effizient für großflächige Kartierungen, war jedoch weniger effektiv bei der Erkennung kleinerer oder verdeckter Stämme. Der TLS-Ansatz lieferte detailliertere Messungen, hatte jedoch Schwierigkeiten in Gebieten mit sehr dichtem Unterwuchs und überlappenden Strukturen. Manuelle Messungen, obwohl präzise, waren zeitaufwändig und für größere Flächen weniger praktikabel. Die Ergebnisse zeigen, dass jede Methode ihre eigenen Stärken und Schwächen hat. Eine Kombination von ULS- und TLS-Daten könnte eine umfassendere Lösung bieten, indem ULS für großflächige Erfassungen und TLS für detaillierte Analysen genutzt wird. Diese Arbeit leistet einen Beitrag zur Weiterentwicklung von Methoden zur Totholzerkennung und liefert wertvolle Einblicke für das Monitoring von Biodiversität und das Waldmanagement.
Analyse der Litoralzonen von Thermokarstseen durch kombinierte Nutzung von SAR- und multispektralen Satellitendaten
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2025
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
Thermokarstseen, welche in Permafrostgebieten häufig vorkommen, spielen eine wichtige Rolle bei den Treibhausgasemissionen. Die Methanemissionen werden durch das Ausmaß der Makrophytenvegetation in der Litoralzone eines Sees beeinflusst. In dieser Studie werden jene Faktoren untersucht, welche die Ausdehnung der Makrophyten in Thermokarstseen beeinflussen. Der Schwerpunkt liegt dabei auf Fernerkundungstechniken, einschließlich der Verwendung von Synthetic Aperture Radar-Daten von Sentinel-1 und optischen Multispektraldaten von Sentinel-2. Im Mittelpunkt der Analyse steht der Circumarctic Landcover Units (CALU) Datensatz, der eine Einheit für flaches, mit Makrophyten bewachsenes Wasser enthält. Zwei modifizierte Versionen der CALU wurden erstellt, indem die ursprünglich verwendeten Daten mit Sentinel-1- und -2-Daten kombiniert wurden, die zu unterschiedlichen Zeitpunkten erfasst wurden. Die geänderten Versionen wurden mit der ursprünglichen CALU verglichen, um die Auswirkungen der unterschiedlichen Erfassung auf die Makrophytenklassifizierung zu bewerten. Der Anteil der flachen Fläche pro See wurde aus einem Zwischenprodukt der CALU-Erstellung abgeleitet. Die geänderten Versionen der CALU zeigten ein geringeres Vorkommen von Makrophyten als die ursprüngliche Version. Die wichtigsten Merkmale, von denen angenommen wurde, dass sie das Auftreten von Makrophyten beeinflussen, wurden mit dem Anteil der Makrophyten pro See verglichen. Dazu zählen die Seefläche, der Anteil der Litoralzone am See, Breiten- und Längengrad, der Anteil an bodennahem Eis und die Entfernung zur Küste. Die Ergebnisse der Analyse zeigten, dass der Makrophytenanteil am häufigsten mit der Seefläche und dem Anteil des Flachwassers zusammenhing, wobei die höchste Makrophytenbedeckung in Seen mit einer Fläche zwischen 1500 und 20.000 m2 mit einer durchschnittlichen Bedeckung von 50 % gefunden wurde. Obwohl die Menge des grundfesten Eises pro See auch von der Flachwasserfläche pro See abhängt, konnte kein direkter Zusammenhang mit dem Anteil der Makrophyten festgestellt werden. Ein Random-Forest-Modell, das auf alle Untersuchungsgebiete angewandt wurde, zeigte starke Vorhersagefähigkeiten für die Seefläche und den Anteil an flachem Wasser, wobei die Gesamtfläche des Sees als wichtigster Prädiktor ermittelt wurde. Bei der Anwendung auf einzelne Untersuchungsgebiete zeigte das Modell eine regionale Variabilität, wobei die kreuzvalidierten R2-Werte in den einzelnen Gebieten durchgängig höher waren als beim verallgemeinerten Modell. Dies deutet darauf hin, dass das verallgemeinerte Modell die lokalen Umweltfaktoren nicht vollständig berücksichtigen konnte. Die Ergebnisse dieser Studie tragen zu einem besseren Verständnis der treibenden Kräfte hinter der Verteilung von Makrophyten in arktischen Thermokarstseen bei. Sie unterstreichen das Potenzial der Fernerkundung zur Schätzung der Makrophytenvegetation und zeigen die Anwendbarkeit von Random Forest-Modellen für solche Studien.
Thermokarstseen, welche in Permafrostgebieten häufig vorkommen, spielen eine wichtige Rolle bei den Treibhausgasemissionen. Die Methanemissionen werden durch das Ausmaß der Makrophytenvegetation in der Litoralzone eines Sees beeinflusst. In dieser Studie werden jene Faktoren untersucht, welche die Ausdehnung der Makrophyten in Thermokarstseen beeinflussen. Der Schwerpunkt liegt dabei auf Fernerkundungstechniken, einschließlich der Verwendung von Synthetic Aperture Radar-Daten von Sentinel-1 und optischen Multispektraldaten von Sentinel-2. Im Mittelpunkt der Analyse steht der Circumarctic Landcover Units (CALU) Datensatz, der eine Einheit für flaches, mit Makrophyten bewachsenes Wasser enthält. Zwei modifizierte Versionen der CALU wurden erstellt, indem die ursprünglich verwendeten Daten mit Sentinel-1- und -2-Daten kombiniert wurden, die zu unterschiedlichen Zeitpunkten erfasst wurden. Die geänderten Versionen wurden mit der ursprünglichen CALU verglichen, um die Auswirkungen der unterschiedlichen Erfassung auf die Makrophytenklassifizierung zu bewerten. Der Anteil der flachen Fläche pro See wurde aus einem Zwischenprodukt der CALU-Erstellung abgeleitet. Die geänderten Versionen der CALU zeigten ein geringeres Vorkommen von Makrophyten als die ursprüngliche Version. Die wichtigsten Merkmale, von denen angenommen wurde, dass sie das Auftreten von Makrophyten beeinflussen, wurden mit dem Anteil der Makrophyten pro See verglichen. Dazu zählen die Seefläche, der Anteil der Litoralzone am See, Breiten- und Längengrad, der Anteil an bodennahem Eis und die Entfernung zur Küste. Die Ergebnisse der Analyse zeigten, dass der Makrophytenanteil am häufigsten mit der Seefläche und dem Anteil des Flachwassers zusammenhing, wobei die höchste Makrophytenbedeckung in Seen mit einer Fläche zwischen 1500 und 20.000 m2 mit einer durchschnittlichen Bedeckung von 50 % gefunden wurde. Obwohl die Menge des grundfesten Eises pro See auch von der Flachwasserfläche pro See abhängt, konnte kein direkter Zusammenhang mit dem Anteil der Makrophyten festgestellt werden. Ein Random-Forest-Modell, das auf alle Untersuchungsgebiete angewandt wurde, zeigte starke Vorhersagefähigkeiten für die Seefläche und den Anteil an flachem Wasser, wobei die Gesamtfläche des Sees als wichtigster Prädiktor ermittelt wurde. Bei der Anwendung auf einzelne Untersuchungsgebiete zeigte das Modell eine regionale Variabilität, wobei die kreuzvalidierten R2-Werte in den einzelnen Gebieten durchgängig höher waren als beim verallgemeinerten Modell. Dies deutet darauf hin, dass das verallgemeinerte Modell die lokalen Umweltfaktoren nicht vollständig berücksichtigen konnte. Die Ergebnisse dieser Studie tragen zu einem besseren Verständnis der treibenden Kräfte hinter der Verteilung von Makrophyten in arktischen Thermokarstseen bei. Sie unterstreichen das Potenzial der Fernerkundung zur Schätzung der Makrophytenvegetation und zeigen die Anwendbarkeit von Random Forest-Modellen für solche Studien.
Groundwater exploration at the Hochschwab using Magnetotelluric: an investigation of open-source approaches for data processing
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2025
Betreuer: Assoz. Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Die Magnetotellurik (MT) ist eine passive geophysikalische Methode zur Messung von Schwankungen der natürlichen elektrischen und magnetischen Felder der Erde. Zeitreihen des magnetischen Feldes werden in drei orthogonalen Komponenten (x, y, z) mit Induktionsspulen gemessen, während Zeitreihen des elektrischen Feldes in zwei orthogonalen Komponenten (x, y) mit nicht polarisierbaren Elektroden gemessen werden. Durch die Prozessierung der gemessenen Zeitreihen können Informationen über die Verteilung des spezifischen elektrischen Widerstandes im Untergrund gewonnen werden. Diese Auswertung wird üblicherweise mit kommerzieller Software durchgeführt. Kommerzielle Softwares sind jedoch oft teuer und können nicht modifiziert werden, so dass sie für den akademischen Gebrauch nicht geeignet sind. Das Ziel dieser Arbeit ist es, einen Open-Source-Workflow für die MT- Zeitreihenprozessierung zu finden, der für Lehr- und Forschungsaktivitäten an der TU Wien geeignet ist. Zu diesem Zweck evaluiere ich verschiedene Open-Source- Codes, ihre Vorteile und Grenzen. Diese Arbeit gliedert sich in drei Hauptteile: (1) Literaturrecherche zu den verfügbaren Open-Source-Algorithmen, (2) die Verwendung und Evaluierung der verschiedenen Bibliotheken und der Vergleich der erzielten Ergebnisse mit einer kommerziellen Software, und (3) Erfassung, Verarbeitung und Interpretation von exemplarischen Datensätzen. Zur Illustration der Methodik für die Visualisierung und Verarbeitung der Daten wurden zwischen 2022 und 2024 MT-Sondierungen an drei verschiedenen Standorten in Österreich durchgeführt: dem Nationalpark Neusiedler See-Seewinkel, dem Hydrologischen Freilandlabor (HOAL) in Petzenkirchen und dem Hochschwab-Massiv. Zunächst untersuche ich MT-Sondierungen im Seewinkel, einem Standort mit vernachlässigbarer Infrastruktur, und im HOAL, einer urbanen Umgebung, um die Quellen anthropogenen Rauschs zu identifizieren und zu verstehen. Zweitens analysiere ich natürliche Signalschwankungen im AMT- Deadband während Tag und Nacht, um ihren Einfluss auf die Datenqualität zu bewerten. Drittens wende ich den vorgeschlagenen Workflow auf vier Sondierungen am Hochschwab an, um den spezifischen elektrischen Widerstand des Untergrundes bis zu einer Tiefe von ca. 3 km zu bestimmen und so die Tiefe des Grundwasserspiegels abzugrenzen. Die Ergebnisse verdeutlichen, wie wichtig es ist, die MT-Rohdaten sowohl im Zeit- als auch im Frequenzbereich zu untersuchen, um die Quellen von Rauschen, Ausreißern und fehlerhaften Messungen zu erkennen und zu verstehen. In dieser Hinsicht konnte ich im Rahmen dieser Arbeit auch die Protokolle für die Feldarbeit verbessern, um MT-Daten mit höherer Qualität zu sammeln. Anthropogenes Rauschen beeinträchtigt die Qualität der MT-Daten und die Interpretation der Ergebnisse erheblich. Die Notch-Filterung von Stromleitungs- (50 Hz) und Eisenbahnsignalen (16,7 Hz) und deren harmonischen Signalen sowie die Festlegung von Schwellenwerten für die Kohärenz verbessern die Impedanzschätzung erheblich. Für eine beispielhafte MT-Sondierung am Hochschwab wurden numerische Modelle mit dem im Rahmen dieser Arbeit implementierten Vorwärtslöser getestet. Der Grundwasserspiegel wurde in einer Tiefe von etwa 1200 m mit einem spezifischen elektrischen Widerstand des Aquifers von 300-400 Ωm geschätzt. Diese Ergebnisse zeigen die Anwendbarkeit der MT-Methode und des vorgeschlagenen Open-Source-workflows für die Grundwasserexploration. Es sind jedoch weitere Analysen, einschließlich Dimensionalitätsanalyse, Topografiekorrektur und Inversion, erforderlich, um die Grundwassergeometrie vollständig zu verstehen und die Tiefe des Grundwasserspiegels genau zu schätzen.
Die Magnetotellurik (MT) ist eine passive geophysikalische Methode zur Messung von Schwankungen der natürlichen elektrischen und magnetischen Felder der Erde. Zeitreihen des magnetischen Feldes werden in drei orthogonalen Komponenten (x, y, z) mit Induktionsspulen gemessen, während Zeitreihen des elektrischen Feldes in zwei orthogonalen Komponenten (x, y) mit nicht polarisierbaren Elektroden gemessen werden. Durch die Prozessierung der gemessenen Zeitreihen können Informationen über die Verteilung des spezifischen elektrischen Widerstandes im Untergrund gewonnen werden. Diese Auswertung wird üblicherweise mit kommerzieller Software durchgeführt. Kommerzielle Softwares sind jedoch oft teuer und können nicht modifiziert werden, so dass sie für den akademischen Gebrauch nicht geeignet sind. Das Ziel dieser Arbeit ist es, einen Open-Source-Workflow für die MT- Zeitreihenprozessierung zu finden, der für Lehr- und Forschungsaktivitäten an der TU Wien geeignet ist. Zu diesem Zweck evaluiere ich verschiedene Open-Source- Codes, ihre Vorteile und Grenzen. Diese Arbeit gliedert sich in drei Hauptteile: (1) Literaturrecherche zu den verfügbaren Open-Source-Algorithmen, (2) die Verwendung und Evaluierung der verschiedenen Bibliotheken und der Vergleich der erzielten Ergebnisse mit einer kommerziellen Software, und (3) Erfassung, Verarbeitung und Interpretation von exemplarischen Datensätzen. Zur Illustration der Methodik für die Visualisierung und Verarbeitung der Daten wurden zwischen 2022 und 2024 MT-Sondierungen an drei verschiedenen Standorten in Österreich durchgeführt: dem Nationalpark Neusiedler See-Seewinkel, dem Hydrologischen Freilandlabor (HOAL) in Petzenkirchen und dem Hochschwab-Massiv. Zunächst untersuche ich MT-Sondierungen im Seewinkel, einem Standort mit vernachlässigbarer Infrastruktur, und im HOAL, einer urbanen Umgebung, um die Quellen anthropogenen Rauschs zu identifizieren und zu verstehen. Zweitens analysiere ich natürliche Signalschwankungen im AMT- Deadband während Tag und Nacht, um ihren Einfluss auf die Datenqualität zu bewerten. Drittens wende ich den vorgeschlagenen Workflow auf vier Sondierungen am Hochschwab an, um den spezifischen elektrischen Widerstand des Untergrundes bis zu einer Tiefe von ca. 3 km zu bestimmen und so die Tiefe des Grundwasserspiegels abzugrenzen. Die Ergebnisse verdeutlichen, wie wichtig es ist, die MT-Rohdaten sowohl im Zeit- als auch im Frequenzbereich zu untersuchen, um die Quellen von Rauschen, Ausreißern und fehlerhaften Messungen zu erkennen und zu verstehen. In dieser Hinsicht konnte ich im Rahmen dieser Arbeit auch die Protokolle für die Feldarbeit verbessern, um MT-Daten mit höherer Qualität zu sammeln. Anthropogenes Rauschen beeinträchtigt die Qualität der MT-Daten und die Interpretation der Ergebnisse erheblich. Die Notch-Filterung von Stromleitungs- (50 Hz) und Eisenbahnsignalen (16,7 Hz) und deren harmonischen Signalen sowie die Festlegung von Schwellenwerten für die Kohärenz verbessern die Impedanzschätzung erheblich. Für eine beispielhafte MT-Sondierung am Hochschwab wurden numerische Modelle mit dem im Rahmen dieser Arbeit implementierten Vorwärtslöser getestet. Der Grundwasserspiegel wurde in einer Tiefe von etwa 1200 m mit einem spezifischen elektrischen Widerstand des Aquifers von 300-400 Ωm geschätzt. Diese Ergebnisse zeigen die Anwendbarkeit der MT-Methode und des vorgeschlagenen Open-Source-workflows für die Grundwasserexploration. Es sind jedoch weitere Analysen, einschließlich Dimensionalitätsanalyse, Topografiekorrektur und Inversion, erforderlich, um die Grundwassergeometrie vollständig zu verstehen und die Tiefe des Grundwasserspiegels genau zu schätzen.
Wellenhöhenbestimmung mittels Low-Cost-Inertialsensorik
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Philipp Berglez
Kurzfassung/Abstract
Boote bewirken durch den von ihnen verursachten Wellenschlag einen nicht unerheblichen Energieeintrag in die Uferzone eines Gewässers. Am Wörthersee soll im Rahmen des interdisziplinären Forschungsprojekts WAMOS (Wave Monitoring System based on GNSS/INS Integration) untersucht werden, wie sich Bootswellen auf die Wasserpflanzenvegetation und damit auf die Wasserqualität auswirken. Diese Masterarbeit ist eingebettet in das WAMOS-Forschungsprojekt und geht der Frage nach, ob ein auf Low-Cost-Inertialsensorik basierendes Bojenmesssystem geeignet ist, die Wellenhöhen dieser Bootswellen zu bestimmen. Das eigens hierzu konzipierte Messsystem kombiniert Bojen mit je einer inertialen Messeinheit und ist in der Lage, die Orientierung und Vertikalbewegung des Sensors zu erfassen. Dazu wurde ein Strapdown-Algorithmus entwickelt, dem ein drehwinkelbasierter Attitude-Kalman-Filter zugrunde liegt. Durch regressionsbasierte Trendbereinigung ist der Algorithmus imstande, Wellenhöhen aus der Integration der inertialen Messdaten mit einer adäquaten Genauigkeit zu bestimmen. Als Verifikation der Wellenhöhenbestimmung wurden die aus der Strapdown-Integration resultierenden Wellenhöhen mit den Referenzdaten aus dem Tracking einer Boje mittels einer landseitig stationierten Totalstation verglichen. Hieraus zeigten sich Übereinstimmungen im Subzentimeterbereich sowohl in der reinen Wasserspiegelauslenkung als auch bei den daraus detektierten Wellenhöhen. Mit den prozessierten Wellenhöhen werden Auswertungen zum Bootsverkehr vorgenommen. Aus der Zeitsynchronisation der Messdaten mehrerer Messbojen eines Bojentestfeldes werden Aussagen über die Wellenausbreitung und Wellenrichtung getroffen. Gegenstand der Untersuchungen sind auch spektrale Analysen mithilfe der Wavelet-Transformation, welche die bootsinduzierten Wellen im Zeit-Frequenz-Bereich sichtbar machen können. Dabei heben sich die Wellen einzelner Bootsfahrten als Wellenpakete mit einer vom nieder- in den höherfrequenten Spektralbereich wandernden Leistungsdichte aus dem Umgebungsrauschen ab. Darüber hinaus werden Ansätze vorgestellt, wie die Trennung von boots- und windinduzierten Wellen realisiert werden kann. Damit leistet diese Arbeit einen Beitrag dazu, das Verständnis über die ufernahen Wellenprozesse am Wörthersee zu vertiefen und deren Auswirkungen auf das Gewässerökosystem besser zu verstehen.
Boote bewirken durch den von ihnen verursachten Wellenschlag einen nicht unerheblichen Energieeintrag in die Uferzone eines Gewässers. Am Wörthersee soll im Rahmen des interdisziplinären Forschungsprojekts WAMOS (Wave Monitoring System based on GNSS/INS Integration) untersucht werden, wie sich Bootswellen auf die Wasserpflanzenvegetation und damit auf die Wasserqualität auswirken. Diese Masterarbeit ist eingebettet in das WAMOS-Forschungsprojekt und geht der Frage nach, ob ein auf Low-Cost-Inertialsensorik basierendes Bojenmesssystem geeignet ist, die Wellenhöhen dieser Bootswellen zu bestimmen. Das eigens hierzu konzipierte Messsystem kombiniert Bojen mit je einer inertialen Messeinheit und ist in der Lage, die Orientierung und Vertikalbewegung des Sensors zu erfassen. Dazu wurde ein Strapdown-Algorithmus entwickelt, dem ein drehwinkelbasierter Attitude-Kalman-Filter zugrunde liegt. Durch regressionsbasierte Trendbereinigung ist der Algorithmus imstande, Wellenhöhen aus der Integration der inertialen Messdaten mit einer adäquaten Genauigkeit zu bestimmen. Als Verifikation der Wellenhöhenbestimmung wurden die aus der Strapdown-Integration resultierenden Wellenhöhen mit den Referenzdaten aus dem Tracking einer Boje mittels einer landseitig stationierten Totalstation verglichen. Hieraus zeigten sich Übereinstimmungen im Subzentimeterbereich sowohl in der reinen Wasserspiegelauslenkung als auch bei den daraus detektierten Wellenhöhen. Mit den prozessierten Wellenhöhen werden Auswertungen zum Bootsverkehr vorgenommen. Aus der Zeitsynchronisation der Messdaten mehrerer Messbojen eines Bojentestfeldes werden Aussagen über die Wellenausbreitung und Wellenrichtung getroffen. Gegenstand der Untersuchungen sind auch spektrale Analysen mithilfe der Wavelet-Transformation, welche die bootsinduzierten Wellen im Zeit-Frequenz-Bereich sichtbar machen können. Dabei heben sich die Wellen einzelner Bootsfahrten als Wellenpakete mit einer vom nieder- in den höherfrequenten Spektralbereich wandernden Leistungsdichte aus dem Umgebungsrauschen ab. Darüber hinaus werden Ansätze vorgestellt, wie die Trennung von boots- und windinduzierten Wellen realisiert werden kann. Damit leistet diese Arbeit einen Beitrag dazu, das Verständnis über die ufernahen Wellenprozesse am Wörthersee zu vertiefen und deren Auswirkungen auf das Gewässerökosystem besser zu verstehen.
Exploring the potential of five satellite-derived soil moisture products for simulating long term irrigation datasets using the SM Delta approach
Department für Geodäsie und Geoinformation, Forschungsbereich Klima- und Umweltfernerkundung, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Dr. Pierre Laluet MSc
Kurzfassung/Abstract
Irrigation accounts for approximately 70 % of global freshwater withdrawals, significantly impacting the water cycle through reduced streamflow and groundwater tables and increased evapotranspiration. Accurate long-term estimates of irrigation water use (IWU) are essential for improving climate model simulations. However, in situ irrigation data are extremely rare on a global scale, and statistical surveys, as well as irrigation simulated by models, are too uncertain to provide reliable estimates. Satellite-derived soil moisture (SM) data offer a promising alternative approach for monitoring long-term IWU globally. This thesis builds on the Soil Moisture (SM) Delta method, which estimates IWU by calculating the differences between satellite and modelled SM data. The approach is based on the fact that satellite-based SM theoretically contains an irrigation signal, whereas model-based SM lacks such a signal if irrigation is not modelled. The methodology is used to assess the ability of five satellite-based SM products to retrieve long-term irrigation estimates. 15-year IWU datasets have been produced over the Ebro Basin (86,000 km2) and the Murray-Darling Basin (1,000,000 km2) using coarse-scale (0.25°) SM data, and validated against in situ IWU data from an irrigation district in the Ebro Basin and four irrigation districts in the Murray-Darling Basin. Validation of the IWU estimates against in situ IWU data from the irrigation district in the Ebro Basin showed a significant correlation when using the ESA CCI COMBINED product (R=0.75), which also yielded the lowest Root Mean Square Deviation (RMSD=22.84 mm/month), showing the best performance over this basin. In the Murray-Darling Basin, validation results varied among the four irrigation districts, with ESA CCI ACTIVE performing best in three irrigation districts (R=0.40, RMSD=21.84, bias=4.01 mm/month on average) and ESA CCI PASSIVE in one district (R=0.64, RMSD=19.70 mm/month, bias=0.83 mm/month). In terms of overall performance, ESA CCI COMBINED proved to be the most reliable product with a good balance between low RMSD (22.01 mm/month on average) and the highest correlation (R=0.45 on average) in the four irrigation districts. All products show an underestimation of IWU in the Ebro Basin, which could be improved by including evapotranspiration in the algorithm. Furthermore, when compared with studies obtaining high-resolution IWU estimates, our coarse-resolution method performed comparably well in the Ebro Basin. These large-scale, long-term IWU datasets are an important step towards better accounting for the impacts of irrigation in climatic and hydrological modelling and can improve water resource management.
Irrigation accounts for approximately 70 % of global freshwater withdrawals, significantly impacting the water cycle through reduced streamflow and groundwater tables and increased evapotranspiration. Accurate long-term estimates of irrigation water use (IWU) are essential for improving climate model simulations. However, in situ irrigation data are extremely rare on a global scale, and statistical surveys, as well as irrigation simulated by models, are too uncertain to provide reliable estimates. Satellite-derived soil moisture (SM) data offer a promising alternative approach for monitoring long-term IWU globally. This thesis builds on the Soil Moisture (SM) Delta method, which estimates IWU by calculating the differences between satellite and modelled SM data. The approach is based on the fact that satellite-based SM theoretically contains an irrigation signal, whereas model-based SM lacks such a signal if irrigation is not modelled. The methodology is used to assess the ability of five satellite-based SM products to retrieve long-term irrigation estimates. 15-year IWU datasets have been produced over the Ebro Basin (86,000 km2) and the Murray-Darling Basin (1,000,000 km2) using coarse-scale (0.25°) SM data, and validated against in situ IWU data from an irrigation district in the Ebro Basin and four irrigation districts in the Murray-Darling Basin. Validation of the IWU estimates against in situ IWU data from the irrigation district in the Ebro Basin showed a significant correlation when using the ESA CCI COMBINED product (R=0.75), which also yielded the lowest Root Mean Square Deviation (RMSD=22.84 mm/month), showing the best performance over this basin. In the Murray-Darling Basin, validation results varied among the four irrigation districts, with ESA CCI ACTIVE performing best in three irrigation districts (R=0.40, RMSD=21.84, bias=4.01 mm/month on average) and ESA CCI PASSIVE in one district (R=0.64, RMSD=19.70 mm/month, bias=0.83 mm/month). In terms of overall performance, ESA CCI COMBINED proved to be the most reliable product with a good balance between low RMSD (22.01 mm/month on average) and the highest correlation (R=0.45 on average) in the four irrigation districts. All products show an underestimation of IWU in the Ebro Basin, which could be improved by including evapotranspiration in the algorithm. Furthermore, when compared with studies obtaining high-resolution IWU estimates, our coarse-resolution method performed comparably well in the Ebro Basin. These large-scale, long-term IWU datasets are an important step towards better accounting for the impacts of irrigation in climatic and hydrological modelling and can improve water resource management.
Assessing forest parameters through the evaluation of smartphone-based measurement techniques
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
The growing need for accessible and cost-effective methods in forest inventories has driven interest in utilizing smartphone-based technologies. This thesis examines the potential of six smartphone applications in assessing key forest parameters, namely tree height and diameter at breast height (DBH), and compares their performance against established methods such as terrestrial laser scanning (TLS) and manual measurements. The thesis is motivated by the demand for scalable, affordable, and user-friendly tools capable of supporting both professional forest management and citizen science initiatives. Field data were collected in a diverse forested area, where the selected applications were tested under real-world conditions to evaluate their measurement accuracy, usability, and efficiency. TLS and in-situ measurements using a measuring tape served as the reference for data validation, ensuring a robust benchmark for comparison. Particular attention was paid to identifying the strengths and limitations of the applications, including error sources related to environmental conditions and user experience. Furthermore, the thesis explored whether these smartphone-based solutions could achieve comparable or faster measurement times than traditional TLS methods while maintaining acceptable accuracy levels. Additionally, a simulation of errors was conducted to evaluate their detectability using real measurement data, offering recommendations for workflow adjustments to minimize errors. The results indicate that smartphone applications offer a promising alternative for forest inventories, particularly in scenarios where affordability and portability are critical. The average root mean square error (RMSE) across all tested applications was 2.3 cm for DBH and 1.75 m for tree height, demonstrating a competitive level of accuracy. Notably, the maximal reduction of measurement errors for DBH for Geo-Quest was achieved when the tree occupied approximately 2/3 of the smartphone screen during measurement. The analysis also highlighted opportunities for optimization in application design, including the integration of advanced error correction algorithms and more intuitive user interfaces. This research contributes to the growing body of knowledge on leveraging mobile technologies in forestry and provides practical recommendations for enhancing the reliability and efficiency of smartphone-based measurement tools. By bridging the gap between professional-grade equipment and accessible technologies, this thesis underscores the potential of smartphones to democratize forest data collection and foster greater public engagement in environmental monitoring.
The growing need for accessible and cost-effective methods in forest inventories has driven interest in utilizing smartphone-based technologies. This thesis examines the potential of six smartphone applications in assessing key forest parameters, namely tree height and diameter at breast height (DBH), and compares their performance against established methods such as terrestrial laser scanning (TLS) and manual measurements. The thesis is motivated by the demand for scalable, affordable, and user-friendly tools capable of supporting both professional forest management and citizen science initiatives. Field data were collected in a diverse forested area, where the selected applications were tested under real-world conditions to evaluate their measurement accuracy, usability, and efficiency. TLS and in-situ measurements using a measuring tape served as the reference for data validation, ensuring a robust benchmark for comparison. Particular attention was paid to identifying the strengths and limitations of the applications, including error sources related to environmental conditions and user experience. Furthermore, the thesis explored whether these smartphone-based solutions could achieve comparable or faster measurement times than traditional TLS methods while maintaining acceptable accuracy levels. Additionally, a simulation of errors was conducted to evaluate their detectability using real measurement data, offering recommendations for workflow adjustments to minimize errors. The results indicate that smartphone applications offer a promising alternative for forest inventories, particularly in scenarios where affordability and portability are critical. The average root mean square error (RMSE) across all tested applications was 2.3 cm for DBH and 1.75 m for tree height, demonstrating a competitive level of accuracy. Notably, the maximal reduction of measurement errors for DBH for Geo-Quest was achieved when the tree occupied approximately 2/3 of the smartphone screen during measurement. The analysis also highlighted opportunities for optimization in application design, including the integration of advanced error correction algorithms and more intuitive user interfaces. This research contributes to the growing body of knowledge on leveraging mobile technologies in forestry and provides practical recommendations for enhancing the reliability and efficiency of smartphone-based measurement tools. By bridging the gap between professional-grade equipment and accessible technologies, this thesis underscores the potential of smartphones to democratize forest data collection and foster greater public engagement in environmental monitoring.
Colour map design for crisis maps
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Andrea Binn M.Eng.
Kurzfassung/Abstract
The role of maps in disaster management phases and their importance have already been well established. Timely response and accurate communication are crucial in a crisis; hence the crisis map design needs to suit the purpose. Crisis events often require immediate actions, hence, the users' ability to correctly interpret and process map information under exogenous stressors and time pressure is limited. Producing a simulation of a crisis in lab conditions could help identify design guidelines that would allow efficient and accurate responses. An experiment has been designed to assess the impact of colour by analysing users’ inputs from answering the questions about six maps that have been created using two colour palettes consisting of calming or pastel (blues, greens, purples) and arousing colours (oranges, reds, yellows) under different levels of induced stress. The results consist of time response, accuracy, and qualitative survey, providing insights into the contextual role of colour. Over 40 participants engaged in the experiment representing the general public, possessing different technical backgrounds, and varying in age, education and map reading skills. The experiment was conducted in person in Southeast Europe; hence the participants have a homogeneous cultural background. The meaning of colours is therefore limited to Western cultures. Evaluating the time response results of the control group and stress-exposed groups showed significance for maps with lower complexity and were in favour of arousing colours. On the other hand, the accuracy was slightly higher for the arousing colours, however, without significant values. The participants mainly preferred pastel colour palettes, even though the preference was not fully positively reflected in the results. It is recommended to repeat a similar study with a larger participants group and compare the general trend.
The role of maps in disaster management phases and their importance have already been well established. Timely response and accurate communication are crucial in a crisis; hence the crisis map design needs to suit the purpose. Crisis events often require immediate actions, hence, the users' ability to correctly interpret and process map information under exogenous stressors and time pressure is limited. Producing a simulation of a crisis in lab conditions could help identify design guidelines that would allow efficient and accurate responses. An experiment has been designed to assess the impact of colour by analysing users’ inputs from answering the questions about six maps that have been created using two colour palettes consisting of calming or pastel (blues, greens, purples) and arousing colours (oranges, reds, yellows) under different levels of induced stress. The results consist of time response, accuracy, and qualitative survey, providing insights into the contextual role of colour. Over 40 participants engaged in the experiment representing the general public, possessing different technical backgrounds, and varying in age, education and map reading skills. The experiment was conducted in person in Southeast Europe; hence the participants have a homogeneous cultural background. The meaning of colours is therefore limited to Western cultures. Evaluating the time response results of the control group and stress-exposed groups showed significance for maps with lower complexity and were in favour of arousing colours. On the other hand, the accuracy was slightly higher for the arousing colours, however, without significant values. The participants mainly preferred pastel colour palettes, even though the preference was not fully positively reflected in the results. It is recommended to repeat a similar study with a larger participants group and compare the general trend.
Evaluierung von unterschiedlichen Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum
Department für Geodäsie und Geoinformation, Forschungsbereich Kartographie, Technische Universität Wien, 2025
Betreuer: Dipl.‑Ing. Dr. Florian Ledermann, Univ-Ass. Ester Scheck MA
Kurzfassung/Abstract
Die vorliegende Diplomarbeit beschäftigt sich mit der Evaluierung unterschiedlicher Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum Wiens. Das Ziel der Arbeit bestand darin, die Genauigkeit und Effizienz von fünf Erhebungsmethoden zu vergleichen: die manuelle Zählung vor Ort (Ground-Truth-Daten), die GIS-gestützte Analyse der Flächenmehrzweckkarte der Stadt Wien, die Dokumentation des Parkschemas vor Ort, die Zählung anhand von 2D-Luftbildern sowie die Zählung in der 3D-Ansicht von Google Maps. Als Untersuchungsgebiet wurden Teile des 8. und 19. Wiener Gemeindebezirks ausgewählt, da sie unterschiedliche urbane Strukturen aufweisen. Die Methodik umfasste die Nutzung von QGIS und Python zur Analyse der GIS-Daten, die Erstellung eines Parkschemas zur systematischen Kategorisierung und die Hochrechnung von Parkplätzen basierend auf Straßenlängen und Parkplatztypen. Es wurden TeilnehmerInnen eingesetzt, die die Parkplätze in den Luftbildern zählten, sowie die Dokumentation des Parkschemas durchführten. Die Ergebnisse der einzelnen Methoden wurden ausgewertet und miteinander verglichen, um ihre jeweilige Genauigkeit und Anwendbarkeit zu bewerten. Die Ground-Truth-Daten dienten als Referenz für den Vergleich der anderen Methoden und wurden als tatsächliche Anzahl der Parkplätze betrachtet. Im Vergleich zu den anderen Methoden erzielte die 3D-Ansicht die geringsten Abweichungen (durchschnittlich 19,71% und Median 6,06%). Während die 2D-Luftbildzählung mit einer durchschnittlichen Abweichung von 24,90% und einem Median von 9,52% leicht dahinter lag, zeigte die GIS-Methode die größten Abweichungen (durchschnittlich 29,54% und Median 17,66%). Die Anzahl an Parkplätzen wurde auch anhand des dokumentierten Parkschemas hochgerechnet. Hier hing die Genauigkeit der Ergebnisse stark von der Hochrechnungsmethode ab. Die Arbeit liefert wichtige Einblicke in die Vor- und Nachteile verschiedener Methoden zur Parkplatzerhebung und präsentiert praktische Verbesserungsmöglichkeiten, die in spezifischen Anwendungsbereichen wie der Stadtplanung hilfreich sein können.
Die vorliegende Diplomarbeit beschäftigt sich mit der Evaluierung unterschiedlicher Methoden zur Quantifizierung von Parkplätzen im urbanen Straßenraum Wiens. Das Ziel der Arbeit bestand darin, die Genauigkeit und Effizienz von fünf Erhebungsmethoden zu vergleichen: die manuelle Zählung vor Ort (Ground-Truth-Daten), die GIS-gestützte Analyse der Flächenmehrzweckkarte der Stadt Wien, die Dokumentation des Parkschemas vor Ort, die Zählung anhand von 2D-Luftbildern sowie die Zählung in der 3D-Ansicht von Google Maps. Als Untersuchungsgebiet wurden Teile des 8. und 19. Wiener Gemeindebezirks ausgewählt, da sie unterschiedliche urbane Strukturen aufweisen. Die Methodik umfasste die Nutzung von QGIS und Python zur Analyse der GIS-Daten, die Erstellung eines Parkschemas zur systematischen Kategorisierung und die Hochrechnung von Parkplätzen basierend auf Straßenlängen und Parkplatztypen. Es wurden TeilnehmerInnen eingesetzt, die die Parkplätze in den Luftbildern zählten, sowie die Dokumentation des Parkschemas durchführten. Die Ergebnisse der einzelnen Methoden wurden ausgewertet und miteinander verglichen, um ihre jeweilige Genauigkeit und Anwendbarkeit zu bewerten. Die Ground-Truth-Daten dienten als Referenz für den Vergleich der anderen Methoden und wurden als tatsächliche Anzahl der Parkplätze betrachtet. Im Vergleich zu den anderen Methoden erzielte die 3D-Ansicht die geringsten Abweichungen (durchschnittlich 19,71% und Median 6,06%). Während die 2D-Luftbildzählung mit einer durchschnittlichen Abweichung von 24,90% und einem Median von 9,52% leicht dahinter lag, zeigte die GIS-Methode die größten Abweichungen (durchschnittlich 29,54% und Median 17,66%). Die Anzahl an Parkplätzen wurde auch anhand des dokumentierten Parkschemas hochgerechnet. Hier hing die Genauigkeit der Ergebnisse stark von der Hochrechnungsmethode ab. Die Arbeit liefert wichtige Einblicke in die Vor- und Nachteile verschiedener Methoden zur Parkplatzerhebung und präsentiert praktische Verbesserungsmöglichkeiten, die in spezifischen Anwendungsbereichen wie der Stadtplanung hilfreich sein können.
Assessment of reed structure based on ULS data
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
The reed belt surrounding Neusiedler See is the largest Phragmites Australis (Common Reed) reed belt in Central Europe, spanning approximately 180 square kilometres. Most of the area is protected as part of the Neusiedler See-Seewinkel National Park. Reduced reed harvesting in recent years, due to warmer winters, has led to the formation of aging and degrading reed stands. Fire management has been proposed as a method to rejuvenate reed stands by eliminating the broken reed layer. To evaluate this method, Land Burgenland conducted a controlled fire experiment on 9 January 2024, accompanied by UAV-based LiDAR and RGB data acquisition before, immediately and several months post-fire. This thesis estimates reed parameters and the structural influence of fire management by computation of topographic models. Further analysis included the vertical point distribution to assess reed parameters, such as the thickness of the broken reed layer and reed density. In-situ data collected by the University of Vienna and BOKU Vienna supported further analysis. A reduction in the thickness of the broken reed layer was quantified using difference DTMs. Validation of the broken reed layer reduction was performed using In-Situ data, collected prior to the fire experiment. In addition, fire-affected areas were successfully quantified, providing further planning data for future fire management campaigns. Reed density assessment was performed using normalized point density values above a height threshold of 100 cm, in an attempt to distinguish dense and sparse reed patches. The absence of In-situ validation data for dense and sparse patches limits the certainty of these classifications. The potential of UAV LiDAR systems for assessing and monitoring reed parameters has been demonstrated.
The reed belt surrounding Neusiedler See is the largest Phragmites Australis (Common Reed) reed belt in Central Europe, spanning approximately 180 square kilometres. Most of the area is protected as part of the Neusiedler See-Seewinkel National Park. Reduced reed harvesting in recent years, due to warmer winters, has led to the formation of aging and degrading reed stands. Fire management has been proposed as a method to rejuvenate reed stands by eliminating the broken reed layer. To evaluate this method, Land Burgenland conducted a controlled fire experiment on 9 January 2024, accompanied by UAV-based LiDAR and RGB data acquisition before, immediately and several months post-fire. This thesis estimates reed parameters and the structural influence of fire management by computation of topographic models. Further analysis included the vertical point distribution to assess reed parameters, such as the thickness of the broken reed layer and reed density. In-situ data collected by the University of Vienna and BOKU Vienna supported further analysis. A reduction in the thickness of the broken reed layer was quantified using difference DTMs. Validation of the broken reed layer reduction was performed using In-Situ data, collected prior to the fire experiment. In addition, fire-affected areas were successfully quantified, providing further planning data for future fire management campaigns. Reed density assessment was performed using normalized point density values above a height threshold of 100 cm, in an attempt to distinguish dense and sparse reed patches. The absence of In-situ validation data for dense and sparse patches limits the certainty of these classifications. The potential of UAV LiDAR systems for assessing and monitoring reed parameters has been demonstrated.
Three-dimensional documentation of the Air-Raid Tunnel Schloss St. Martin, Graz
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammentrie, Technische Universität Graz, 2025
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Viktor Kaufmann
Kurzfassung/Abstract
Graz stellte während des Zweiten Weltkrieges einen wichtigen Eisenbahn- und Industrieknotenpunkt für Militärtransporte in den Süden und nach Triest dar. Zu dieser Zeit gab es das Bestreben, Volk und Armee zu schützen, sodass 1943 der Luftschutztunnel von St. Martin gebaut wurde. Das hundertjährige Jubiläum der Bildungseinrichtung St. Martin im Jahr 2019 war Anlass für ihre historische und geodätische Erforschung. Die Untersuchung hat zu neuen historischen Erkenntnissen geführt und es wurde ein 3D-Modell des Luftschutztunnels erstellt. Für die Vermessung und Untersuchung des Tunnels wurde ein Zeb-Revo kinematischer Scanner von Geoslam eingesetzt. Das Ergebnis führte zu interessanten Erkenntnissen: der Scanner kann für architektonisch Anwendungen sinnvoll angewendet werden und der SLAM-Algorithmus muss aufgrund mangelnder Genauigkeit weiterentwickelt werden. Die Geschwindigkeit der Datenerfassung mit dem kinematischen Scanner Zeb-Revo ist deutlich besser als mit dem statischen.
Graz stellte während des Zweiten Weltkrieges einen wichtigen Eisenbahn- und Industrieknotenpunkt für Militärtransporte in den Süden und nach Triest dar. Zu dieser Zeit gab es das Bestreben, Volk und Armee zu schützen, sodass 1943 der Luftschutztunnel von St. Martin gebaut wurde. Das hundertjährige Jubiläum der Bildungseinrichtung St. Martin im Jahr 2019 war Anlass für ihre historische und geodätische Erforschung. Die Untersuchung hat zu neuen historischen Erkenntnissen geführt und es wurde ein 3D-Modell des Luftschutztunnels erstellt. Für die Vermessung und Untersuchung des Tunnels wurde ein Zeb-Revo kinematischer Scanner von Geoslam eingesetzt. Das Ergebnis führte zu interessanten Erkenntnissen: der Scanner kann für architektonisch Anwendungen sinnvoll angewendet werden und der SLAM-Algorithmus muss aufgrund mangelnder Genauigkeit weiterentwickelt werden. Die Geschwindigkeit der Datenerfassung mit dem kinematischen Scanner Zeb-Revo ist deutlich besser als mit dem statischen.
Map Transparency and Trustworthiness
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2025
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Over recent years the easier access to mapmaking technologies and the presence of social media for distributing digital maps has led to an increased focus of cartographic research in the topic of map trustworthiness. This thesis tries to examine how trustworthiness of maps can be secured and improved, by giving the map readers information about mapmaking decisions and data sources. For that purpose, an online survey with three different thematic maps has been conducted, to find out how trustworthiness of maps is affected by giving this additional information. The results of the survey show that the trustworthiness in maps is significantly increased when providing users with additional information about mapmaking decisions and data sources. Furthermore, the results of the survey give way to a range of subtopics that should be investigated in more detailed studies.
Over recent years the easier access to mapmaking technologies and the presence of social media for distributing digital maps has led to an increased focus of cartographic research in the topic of map trustworthiness. This thesis tries to examine how trustworthiness of maps can be secured and improved, by giving the map readers information about mapmaking decisions and data sources. For that purpose, an online survey with three different thematic maps has been conducted, to find out how trustworthiness of maps is affected by giving this additional information. The results of the survey show that the trustworthiness in maps is significantly increased when providing users with additional information about mapmaking decisions and data sources. Furthermore, the results of the survey give way to a range of subtopics that should be investigated in more detailed studies.
Ambiguitätsauflösung und ionosphärische Berechnungen für VLBI CONT17 Daten mit VieVS
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2025
Betreuer: Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) spielt in der Geodäsie eine sehr wichtige Rolle, da sie wichtige Produkte wie alle fünf Erdorientierungsparameter (EOP) liefert und die einzige weltraumgeodätische Technik ist, die zum Internationalen Himmelsreferenzrahmen (ICRF) beiträgt. Zu Beginn der VLBI-Analyse muss die Ambiguitätsauflösung der S/X-Band Multiband-Delays durchgeführt und die ionosphärische Kalibrierung berechnet werden. In der Vergangenheit wurden diese beiden Vorverarbeitungsschritte von einer anderen Software wie Solve/nuSolve durchgeführt, und die Vienna VLBI and Satellite Software (VieVS) verwendete stets externe Ergebnisse. Für das Vienna VLBI Analysis Center ist es wichtig, dass die Ambiguitätsauflösung und die ionosphärische Kalibrierung in VieVS berechnet werden können, um von den externen Ergebnissen in der vgosDB unabhängig zu sein. Der erste Teil der Arbeit befasst sich mit einem neuen Ansatz der Ambiguitätsauflösung mit Multiband-Singleband-Delay-Differenzen. Mithilfe von Dreiecksschlüssen können die Ambiguitäten pro Basislinie mit einem Netzwerk aller Stationen berechnet werden. Der Ansatz wurde erfolgreich mit S/X-Band-Sessions der Continuous Very Long Baseline Interferometry Campaign 2017 (CONT17) getestet und hat gezeigt, dass auch VLBI-Sessions mit Clock Breaks gelöst werden können. Es gab einzelne Beobachtungen in CONT17-Sessions, die nach dieser automatischen Lösung noch eine Ambiguitätkorrektur benötigen. Diese kann in VieVS manuell durchgeführt werden. Die ausschließliche manuelle Durchführung einer Ambiguitätsauflösung wird nicht empfohlen, da sie sehr zeitaufwendig ist und nur mit viel Übung durchgeführt werden kann. Darüber hinaus wurden alle notwendigen Schritte zur Software-Implementierung des neuen automatischen Ansatzes der Ambiguitätsauflösung in VieVS erarbeitet. Im zweiten Teil der Arbeit wurde die Berechnung der ionosphärischen Kalibrierung genauer beschrieben. Das Thema ist besonders relevant, da sich im Laufe der Zeit die Methoden zur Berechnung der effektiven Frequenzen und der ionosphärischen Kalibrierung stark verändert haben, was zu Inkonsistenzen in den vgosDB-Dateien führt. Hier konnte gezeigt werden, dass die berechnete Lösung der ionosphärischen Korrektur für CONT17 bis zu 100 ps von der vgosDB abweichen kann. Der folgende Effekt der Differenz in den Stationskoordinaten betrug bis zu 1 mm. In Zusammenarbeit mit dem Vienna VLBI Analysis Center war es möglich, die aktualisierte Berechnung für die ionosphärische Kalibrierung in VieVS zu implementieren, sodass die Werte direkt berechnet werden können, anstatt externe Ergebnisse zu verwenden.
Very Long Baseline Interferometry (VLBI) spielt in der Geodäsie eine sehr wichtige Rolle, da sie wichtige Produkte wie alle fünf Erdorientierungsparameter (EOP) liefert und die einzige weltraumgeodätische Technik ist, die zum Internationalen Himmelsreferenzrahmen (ICRF) beiträgt. Zu Beginn der VLBI-Analyse muss die Ambiguitätsauflösung der S/X-Band Multiband-Delays durchgeführt und die ionosphärische Kalibrierung berechnet werden. In der Vergangenheit wurden diese beiden Vorverarbeitungsschritte von einer anderen Software wie Solve/nuSolve durchgeführt, und die Vienna VLBI and Satellite Software (VieVS) verwendete stets externe Ergebnisse. Für das Vienna VLBI Analysis Center ist es wichtig, dass die Ambiguitätsauflösung und die ionosphärische Kalibrierung in VieVS berechnet werden können, um von den externen Ergebnissen in der vgosDB unabhängig zu sein. Der erste Teil der Arbeit befasst sich mit einem neuen Ansatz der Ambiguitätsauflösung mit Multiband-Singleband-Delay-Differenzen. Mithilfe von Dreiecksschlüssen können die Ambiguitäten pro Basislinie mit einem Netzwerk aller Stationen berechnet werden. Der Ansatz wurde erfolgreich mit S/X-Band-Sessions der Continuous Very Long Baseline Interferometry Campaign 2017 (CONT17) getestet und hat gezeigt, dass auch VLBI-Sessions mit Clock Breaks gelöst werden können. Es gab einzelne Beobachtungen in CONT17-Sessions, die nach dieser automatischen Lösung noch eine Ambiguitätkorrektur benötigen. Diese kann in VieVS manuell durchgeführt werden. Die ausschließliche manuelle Durchführung einer Ambiguitätsauflösung wird nicht empfohlen, da sie sehr zeitaufwendig ist und nur mit viel Übung durchgeführt werden kann. Darüber hinaus wurden alle notwendigen Schritte zur Software-Implementierung des neuen automatischen Ansatzes der Ambiguitätsauflösung in VieVS erarbeitet. Im zweiten Teil der Arbeit wurde die Berechnung der ionosphärischen Kalibrierung genauer beschrieben. Das Thema ist besonders relevant, da sich im Laufe der Zeit die Methoden zur Berechnung der effektiven Frequenzen und der ionosphärischen Kalibrierung stark verändert haben, was zu Inkonsistenzen in den vgosDB-Dateien führt. Hier konnte gezeigt werden, dass die berechnete Lösung der ionosphärischen Korrektur für CONT17 bis zu 100 ps von der vgosDB abweichen kann. Der folgende Effekt der Differenz in den Stationskoordinaten betrug bis zu 1 mm. In Zusammenarbeit mit dem Vienna VLBI Analysis Center war es möglich, die aktualisierte Berechnung für die ionosphärische Kalibrierung in VieVS zu implementieren, sodass die Werte direkt berechnet werden können, anstatt externe Ergebnisse zu verwenden.
Kombination von Fernerkundung und Crowdsourcing zur Unterstützung der EU-Verordnung zu entwaldungsfreien Lieferketten
Institut für Geographie und Raumforschung, Universität Graz, 2025
Betreuer: Ass.-Prof. Mag. Dr. Manuela Hirschmugl
Kurzfassung/Abstract
Die Wälder erfüllen viele sozioökonomische Funktionen wie die Kohlenstoffbindung zur Minderung des Klimawandels und die Bereitstellung nachhaltiger Rohstoffe, sie dienen als Hotspots für die Biodiversität und bieten Schutz vor Naturgefahren und dienen auch als Lebensraum für indigene Bevölkerungen. Laut der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) gingen in den letzten 30 Jahren etwa 420 Millionen Hektar Wald verloren. Schätzungen zufolge ist die landwirtschaftliche Expansion für fast 90 % des weltweiten Waldverlustes aufgrund der Abholzung verantwortlich, wobei ein Großteil der Landwirtschaftsflächen aus umgewandelten Wäldern stammt. Dieser rasche Rückgang der Waldökosysteme erfordert sofortiges Handeln zu ihrem Schutz und die Entwicklung von Ansätzen für nachhaltige Forstwirtschaft und Landwirtschaft. Die Europäische Union ist ein bedeutender Importeur von Produkten, Rohstoffen oder anderen Gütern, die mit Abholzung in Verbindung stehen. Die Europäische Kommission hat dieses Problem erkannt und einen Vorschlag zur Beendigung der Abholzungsursachen vorgelegt. Um dieses Problem anzugehen, wurde ein Rechtsrahmen auf der Grundlage obligatorischer Sorgfaltspflichten für Unternehmen, die risikobehaftete Güter oder deren abgeleitete Produkte auf dem EU-Markt platzieren, vorgeschlagen. Dieser Rechtsrahmen erfordert eine systematische Überwachung, um den Anbau dieser Produkte und die Abholzung tropischer Wälder zu verfolgen. Eine objektive Rückverfolgbarkeit von der Produktion des Materials im Ursprungsland bis hin zum Kunden ist notwendig, um überprüfen zu können, ob die Vorschriften eingehalten wurden oder nicht.
Die Wälder erfüllen viele sozioökonomische Funktionen wie die Kohlenstoffbindung zur Minderung des Klimawandels und die Bereitstellung nachhaltiger Rohstoffe, sie dienen als Hotspots für die Biodiversität und bieten Schutz vor Naturgefahren und dienen auch als Lebensraum für indigene Bevölkerungen. Laut der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) gingen in den letzten 30 Jahren etwa 420 Millionen Hektar Wald verloren. Schätzungen zufolge ist die landwirtschaftliche Expansion für fast 90 % des weltweiten Waldverlustes aufgrund der Abholzung verantwortlich, wobei ein Großteil der Landwirtschaftsflächen aus umgewandelten Wäldern stammt. Dieser rasche Rückgang der Waldökosysteme erfordert sofortiges Handeln zu ihrem Schutz und die Entwicklung von Ansätzen für nachhaltige Forstwirtschaft und Landwirtschaft. Die Europäische Union ist ein bedeutender Importeur von Produkten, Rohstoffen oder anderen Gütern, die mit Abholzung in Verbindung stehen. Die Europäische Kommission hat dieses Problem erkannt und einen Vorschlag zur Beendigung der Abholzungsursachen vorgelegt. Um dieses Problem anzugehen, wurde ein Rechtsrahmen auf der Grundlage obligatorischer Sorgfaltspflichten für Unternehmen, die risikobehaftete Güter oder deren abgeleitete Produkte auf dem EU-Markt platzieren, vorgeschlagen. Dieser Rechtsrahmen erfordert eine systematische Überwachung, um den Anbau dieser Produkte und die Abholzung tropischer Wälder zu verfolgen. Eine objektive Rückverfolgbarkeit von der Produktion des Materials im Ursprungsland bis hin zum Kunden ist notwendig, um überprüfen zu können, ob die Vorschriften eingehalten wurden oder nicht.
