Zusammenfassung

Der Beitrag beschreibt zunächst das geodätische Verfahren der Homogenisierung, das seinen Ursprung in der Datenaufbereitung im Zuge der Digitalisierung analoger Karten hat. Der Zusammenhang zu den aus der Geoinformatik stammenden Ansätzen der Integration und Verschmelzung heterogener räumlicher Datenquellen wird aufgezeigt. Es folgt eine Diskussion des Begriffs der geometrischen Heterogenität als Folge der Fragmentierung von Geodatenbeständen. Zuletzt wird gezeigt, dass das Verfahren der Homogenisierung die Integration geometrisch heterogener Datenquellen ermöglicht und dadurch einen Beitrag zur Herstellung geometrischer Interoperabilität in Geodaten-Infrastrukturen leisten kann.
Der zweite Teil des Beitrags stellt das Modell der Homogenisierung und seine Umsetzung in dem Programmsystem KATHOM vor. Die Lösung eines Normalgleichungssystems, dessen Dimension durch die Anzahl der nicht-inzidenten Koordinaten der zu integrierenden Geometrien (Neupunkte) determiniert ist, bildet den Flaschenhals der Homogenisierung von Massendaten. Es folgt eine Untersuchung verschiedener Ansätze zur Überwindung des Flaschenhalses und deren Vergleich anhand realer Datensätze. Praktische Beispiele zeigen, dass ein Fill-In minimierendes Sortierverfahren, das einen Multilevel Nested Dissection Algorithmus (MLND) verwendet, zu einer Verbesserung der Performanz der Homogenisierung von Massendaten bis zum Faktor 80 gegenüber den bisher in KATHOM verwendeten Ansätzen führt.

Summary

 

This paper describes the geodetical procedure of homogenisation, that has its origin in the processing of digitised analogous maps. The link to the geoinformation-science problem of integration and conflation of heterogeneous data sources is established. We discuss geometrical heterogeneity as a consequence of the fragmentation of spatial datasets. It is shown, that the procedure of homogenisation enables the integration of spatially heterogeneous data sources, and may thereby contribute to geometrical interoperability in spatial data infrastructures (SDI).
The second part of this paper presents the functional model of homogenisation and its implementation in the program KATHOM. The solution of a system of normal-equations is identified as the bottleneck of the problem. The number of unknown parameters is determined by the number of non-incident coordinates of the geoobjects that have to be integrated. Multiple approaches to overcome this bottleneck are investigated and compared using real data sets. Practical examples show, that a fill-in minimising ordering procedure, that uses a multi-level nested dissection approach, improves the performance of the homogenisation of large data sets up to the factor 80 compared to the approaches that have been used before in KATHOM.

Wir benutzen Cookies

Diese Seite nutzt essentielle Cookies. Es wird ein Session-Cookie angelegt. Beim Akzeptieren und Ausblenden dieser Meldung wird darüber hinaus der Session-Cookie 'reDimCookieHint' angelegt. Wenn Sie unseren Shop nutzen, stellen weitere essentielle Cookies wichtige Funktionen bereit (z.B. Speicherung der Artikel im Warenkorb).