Geoinformation & Cloud

Cloud Computing und Geoinformation – eine Veranstaltung des InGeoForum 2014

„Cloud Computing“ – ist das die Lösung, um möglichst einfach, schnell und auch möglichst kostengünstig Leistungen und Informationen über Netzwerke, speziell das Internet, geboten zu bekommen? Und wo es um raumbezogene Informationen als Grundlage für zum Teil weitreichende fachliche oder fachpolitische Entscheidungen geht: kann dort Cloud Computing einen signifikanten Beitrag leisten, die Ziele des Ausbaus und der Nutzung einer regionalen und nationalen Geodateninfrastruktur zu fördern und zu unterstützen?

Protagonisten des Cloud Computing suggerieren, dass der Ansatz, die gesamte IT-Infrastruktur, also Software, Daten und Dienstleistungen, über Cloud-Lösungen umfassend zugänglich zu machen, bereits „gelebte Realität“ ist. Gilt das auch für die Geobranche? Ziel des InGeoForum ist es, genau solchen aktuellen und Markt verändernden Fragestellungen nachzugehen.

In einer Veranstaltungsreihe des InGeoForum mit Vorträgen in Darmstadt, München, Hamburg und Bonn lieferten die Referenten substanzielle Grundlagen des Einsatzes des Cloud Computing in der Verbindung mit Geoinformation. Die verschiedenen Komponenten des Cloud Computing wie Infrastrukturen, Plattformen oder Software aus der Cloud standen dabei neben der Erläuterung von Chancen und Risiken in der Cloud im Vordergrund der Veranstaltungen. Zum Teil wurden auch schon Lösungen und Anwendungen der Querschnittstechnologie Cloud vorgestellt. Die für die Vortragsreihe ausgewählten Experten schilderten, wie Cloud-Lösungen einen Mehrwert für Unternehmen und Verwaltungen bringen können und stellten wichtige Schritte auf dem Weg in die Cloud aus ihrer Perspektive dar.

Wenn man das chancenreiche und unstrittig marktrelevante Thema „Cloud Computing“ vertiefter analysiert und auf seine Bedeutung für die Geoinformationsbranche abklopft, wird man feststellen, dass Vorteile des Cloud Computing abgewogen werden müssen gegenüber Risiken, die sich bis in den wichtigen und sensiblen Bereich der Datensicherheit nur über eine zielgerichtete und differenzierte Betrachtung geeignet abwägen lassen.

Um Entscheidungen zum Einsatz von Cloud Computing in Verwaltungen und Unternehmen unterstützen zu können, soll über Beiträge in dieser Broschüre ein grundlegender Einblick in die wichtigsten entscheidungsrelevanten Themenfelder geboten werden. Im Hinblick auf den zielgerichteten Einsatz von Cloud Services und Geoinformation für effiziente Leistungen der Geobranche bieten die Beiträge in der Broschüre auch bereits einen ersten praktischen Bezug.

Die Broschüre richtet sich an Entscheider und Fachleute, die in Unternehmen und Verwaltungen vor der Einführung von Cloud-Lösungen unter Nutzung der vielfältigen Leistungskomponenten der Geoinformation stehen oder nach der Einführung weitere fachliche Orientierung über den bisherigen Einsatz hinaus suchen.

InGeoForum als Netzwerkorganisation, insbesondere auch zur Förderung innovativer Technologien und Leistungen der Geobranche, wird die Cloud-Informationsreihe in den Jahren 2014 und 2015 fortsetzen mit tiefergehender Betrachtungen erfolgreicher Cloud-Anwendungen und beachtenswerten Erfahrungen aus zunehmend breiterem Einsatz von Technologie und Daten im Cloud-Geoinformation-Umfeld.

Und wenn Sie die Stichworte „Cloud Computing“ und „Geoinformation“ bei Google eingeben, werden Sie noch mehr Informationen finden, viele davon im InGeoForum-Umfeld. Ich hoffe, der Inhalt findet Ihr Interesse ebenso wie die Fortsetzung der Cloud-Reihe des InGeoForum via Internet oder bei einem persönlichen Besuch der künftigen Veranstaltungen.

Ihr Dr. Ralf Borchert
Dr. Borchert

Geoinformation in der Cloud – eine Einordnung

Von Hagen Graeff

Der Begriff Cloud Computing gibt in zweierlei Hinsicht eine Richtung vor: Zum einen verdeutlicht er eine gewisse Ferne und eine etwaige Unsicherheit – können doch Wolken insbesondere die Dunklen auch als Bedrohung verstanden werden. Sie sind aber auch Sinnbild für Leichtigkeit und Schönheit. Cloud Computing ist, und das steht fest, ein Marketingbegriff für etwas, was es schon lange vor der Einführung des Kunstworts gab: Nämlich Daten und Prozesse aus den eigenen vier Wänden des Unternehmens auszulagern, in eigene Rechenzentren oder auf fremde Server. Die Cloud, sie soll Sinnbild sein für vernetzte Infrastrukturen und eine IT-Welt ohne Grenzen. Doch genau diese Grenzenlosigkeit, das wenig Fassbare, ist für Unternehmen und Verwaltungen oft das Argument, sich erst gar nicht damit auseinanderzusetzen. Die Akzeptanz des Cloud Computing in Unternehmen und Verwaltungen ist noch nicht so weit gediehen, wie es die Vorzüge aus den veränderten Business-Modellen verdienen. Denn fest steht, dass Cloud Computing für Unternehmen und Verwaltungen einen großen Mehrwert bieten kann, indem beispielsweise

  • eine IT-Infrastruktur nicht gekauft, sondern nur gemietet wird

  • IT-Anwendungen somit installations- und wartungsfrei laufen

  • Server- und Netzwerkkapazitäten nach Bedarf hinzu gemietet werden können.

Cloud Computing definiert den Ansatz, Rechenkapazität, Datenspeicher, Netzwerkkapazitäten sowie Anwendungssoftware über ein Netzwerk bereitzustellen – und das in unterschiedlichster Quantität und Ausprägung. Wird die gesamte Bandbreite der möglichen Dienste in Anspruch genommen, so entspricht das vereinfacht dem vollständigen Auslagern der IT-Infrastruktur. Nach der Definition des National Institute of Standards and Technology (NIST) werden drei Servicemodelle unterschieden.

  • IaaS-Infrastructure as a Service
    Hier bedient sich der Nutzer einer angebotenen Infrastruktur, also Server- und Netzwerkkapazitäten

  • PaaS-Platform as a Service
    In diesem Servicemodell entwickelt der Nutzer seine eigenen Anwendungen und lässt sie dort in der vom Provider zur Verfügung gestellten Umgebung ausführen. Neben den Rechnerkapazitäten wird hier vom Kunden also auch prozessrelevante Middleware mit ausgelagert.

  • SaaS-Software as a Service
    Vom Anbieter zur Verfügung gestellte Software kann vom Nutzer bedarfsorientiert eingesetzt werden, sprich der eigene Rechner unter dem Schreibtisch wird komplett und inklusive Software auf externe Rechner ausgelagert.

Ferner werden verschiedene Liefermodelle definiert:

Die Public Cloud ist ein Angebot eines Anbieters, der seine Dienste über das Internet verbreitet. Diese Dienste können für den Nutzer kostenlos oder kostenpflichtig angeboten werden.

Die Private Cloud hingegen bietet den Zugang nur innerhalb der eigenen Organisation, etwa ausgelagert in einem eigenen Rechenzentrum, die aber zumindest in Teilen die Vorteile des Cloud Computings liefern können. Eine Private Cloud kann aber auch eine eigene separate Partionierung bei einem externen Cloud-Anbieter sein.

Die Hybrid Cloud ist als eine Mischform dieser beiden Ansätze zu verstehen, etwa, wenn bei öffentlichen Verwaltungen bestimmte Dienstleistungen über das Internet betrieben werden, datenschutzkritische Anwendungen und Daten aber intern betrieben und verarbeitet werden.

Cloud Computing beinhaltet erhebliche Kostenvorteile gegenüber herkömmlichen Lösungen. Dies ist beispielsweise der Fall, wenn sich die Bezahlung nach der Dauer der Nutzung der Dienste richtet und der Kunde den Dienst nur gelegentlich nutzt. In diesem Beispiel lassen sich eigene Systeme einsparen und es entsteht eine neue Ressourcenstruktur und -effizienz. Die hohe Skalierbarkeit von Cloud-Anwendungen im Fall von temporären Lastspitzen ist ein weiteres Argument für Kunden, die eine stärker schwankende Nachfrage bewältigen müssen. Bei Anwendungen in der Logistik und in der Materialsteuerung von Produktionsprozessen konnten laut Fraunhofer-Institut für Materialfluss und Logistik (IML) Einsparungen bis zu 50 Prozent nachgewiesen werden.

Auf dem Weg zu Standards

Der Umsatz mit Lösungen rund um Cloud Computing wächst zurzeit mit einer jährlichen Zuwachsrate von rund 35 Prozent. Bis 2016 prognostiziert die Unternehmensberatung Arthur D. Little in einer im Auftrag des Verbands der Deutschen Internetwirtschaft ECO e.V. veröffentlichten Studie eine Steigerung des Umsatzes von 3,7 Milliarden Euro auf 9,6 Milliarden Euro. Wobei der größte Anteil auf SaaS – Anwendungen entfallen wird, wie etwa der Software MS Office für mobile Endgeräte. Motor für diese Entwicklung sind unter anderem Apps auf mobilen Endgeräten, die wie die Geräte selbst hohe Zuwächse verzeichnen und zunehmend auf Cloud-Dienste im Bereich SaaS zurückgreifen. Services rund um mobile Geräte sind daher ein sich stark entwickelndes Marktsegment, das Cloud Computing einfach voraussetzt. PaaS und auch IaaS kommen von einer sehr viel kleineren Basis, wachsen aber ebenfalls rasant.

Ein zumindest noch nicht befriedigend gelöstes Problem ist die Frage nach einheitlichen Standards. Hier verbreiten sich aber die Ansätze der OpenStack-Foundation und können zum jetzigen Zeitpunkt als Quasi-Standard bezeichnet werden. OpenStack ist eine Open-Source-Software zum Betrieb einer Cloud. Viele große Anbieter stützen sich auf diese Entwicklungen und tragen zur Verbreitung der Lösung auch im Interesse der Kunden bei.

Datensicherheit und Datenschutz

Das größte Problem bei der weiteren Etablierung von Cloud Computing sind aber ohne Frage die Themenfelder Datensicherheit und Datenschutz. Nach neueren Untersuchungen vertrauen 60 Prozent der Unternehmen noch nicht der Cloud. Dabei werden gerade für Unternehmen massiv Lösungen angeboten, die einen messbaren Mehrwert für Unternehmen bieten. Noch nicht gelöste Probleme ergeben sich etwa durch mögliche Zugriffe auf Anwendungsdaten durch Dritte beim Transfer zwischen Client und dem Server in die Wolke. Das Problem, die Daten zu verschlüsseln, ist technisch gelöst. Anders stellt sich die Frage im Bereich der Administration durch den Cloud- Anbieter, der hat während der Verarbeitung Zugriff auf Nutzerdaten des Kunden hat. Hier stehen noch notwendige Schutzmechanismen aus.

Im Kontext der NSA-Affäre hat die Datenschutz Problematik noch erheblich an Bedeutung gewonnen. Wenn auch manche Betrachtungsweise hierbei eher emotional motiviert ist, besteht kein Zweifel, dass viele Fragen noch nicht zufriedenstellend beantwortet werden können. Hierzu gehören Rechtsfragen, die die Haftung und Leistungsschuld betreffen, ebenso wie sichergestellt werden kann, dass der Einzelne die volle Verfügungsgewalt über seine Daten tatsächlich behält. Die Diskussion um die Europäische Datenschutzrichtlinie zeigt aber auch, welche Interessen hier zum Ausgleich gebracht werden müssen. Im Rahmen der Stellungnahmen und Anhörungen sind nicht nur europäische Nationen und Vertreter aktiv. Cloud Computing ist ein globales Geschäft, entsprechend verschaffen sich auch viele internationale Vertreter Gehör. Die Diskussion wird insbesondere zum Thema personenbezogene Daten geführt, berührt dabei aber auch die Geoinformationsbranche, wenn etwa das Thema „Street View“ von Google zur Diskussion steht.

Geo und Cloud Computing

Die IT-Trendthemen können mit den Schlagworten Mobility, Big Data, Cloud und Social-Media gekennzeichnet werden. In allen Bereichen spielt die Geoinformationstechnik in ihrer Bedeutung als Querschnittstechnologie eine wichtige und anerkannte Rolle.

Die Herausforderung bei den Geoinformationstechnologien wird es sein, sich dem Kunden als Full-Service-Lösungsanbieter anzubieten und dies auf analytischer und operativer Ebene. Geoinformation sichert Entscheidungen und eingesetzte Sachwerte ab, unterstützt den Anwender auch in der Entwicklung neuer Verfahren. Kostengesichtspunkte und Weiterentwicklung von Geschäftsprozessen stehen im Mittelpunkt. Für einige Bereiche sind die Lösungen zum Standard geworden, wie in der Routenplanung, der geoorientierten Fahrplanauskunft, im Versicherungswesen und sicher auch Im im Einzelhandel.

Übereinstimmend haben die Verantwortlichen von Google, Microsoft und Apple erklärt:
Jeder Service, jede Anwendung hat ihre Basis in Kartendiensten. Ohne Geoinformation, auf welchem Niveau auch immer, entstehen keine neuen Applikationen. Man kann dies als „managed IaaS“ verstehen. Server, Speicher und Netzwerkleistung sind die Voraussetzung.

Die Cloud liefert das „Computing as a Service“ über das Internet. Dabei ist der Ausbau der Breitbandnetze von den politischen Entscheidungsträgern in Europa voll anerkannt. Dies ist auch Grundlage für die Entwicklung neuer Geschäftsmodelle rund um die Bewältigung zukünftiger Herausforderungen wie etwa Big Data. Intelligente Technologien sind Grundlage komplexer Themen wie der urbanen Entwicklung, der Energiewende und dem Klimaschutz. Alle diese Themenfelder brauchen Geoinformation, sie alle brauchen auch Cloud Computing. Insofern ist Geoinformation in der Cloud nicht als Besonderheit zu verstehen. Vielmehr sind viele Faktoren gegeben, die dies als eher zweckmäßige Lösung herausstellen.

Zu diesen Faktoren zählen die ständig wachsenden Datenmengen, wie sie Copernikus und andere satellitengestützte Verfahren erzeugen, aber auch die zunehmende dreidimensionale Abbildung der Geoobjekte. Zwar lassen sich daraus Produkte generieren, die datentechnisch überschaubar bleiben. Doch zunehmend werden Kunden auch Rohdaten und Originaldaten nachfragen, um eigene Produkte und Geschäftsmodelle zu entwickeln. Mit den Initiativen von Open Data und Open Government wird sich dieser Trend noch beschleunigen. Hier bietet sich das Cloud Computing nicht nur aus Kostengründen als eine zukunftsweisende Lösung förmlich an. Dabei wird noch zu untersuchen sein, ob Public Clouds oder Private Clouds oder auch hybride Formen die geeigneten Lösungen darstellen. In jedem Fall wird auch hier der Datensicherheit eine bedeutende Rolle zukommen. Viele Geoinformationsanwendungen lassen sich auch ohne personenbezogene Daten wirkungsvoll einsetzen, so dass hier die Datenschutzproblematik nicht im Vordergrund steht.

Betrachtet man dies einmal etwas globaler, dann wird sich vielleicht ein viertes Servicemodell etablieren: „ DaaS – Data as a Service“. Damit kann sich ein eigenes Geschäftsfeld etablieren, das innovative Produkte, Lösungen und Anwendungen kreiert. Geoinformation in der Cloud kann viel Potenzial freisetzen und die den Geodaten zugrunde liegenden Potenziale zu Tage fördern. Für kleine und mittlere Unternehmen sowie für Wissenschaft und Forschung, die bereits heute „Future Computing Infrastructure for Geospatial Sciences“ näher untersuchen, entstehen neue Herausforderungen und Entwicklungsmöglichkeiten.

Naturgemäß werden noch einige Hemmnisse zu überwinden sein. Dazu zählen die schon genannten Datensicherheitsfragen, der Datenschutz aber auch diese oft nicht näher beschriebene Wolkenangst. Was nicht auch in meinem physischen Besitz ist, wird für zu wenig berechenbar und kontrollierbar gehalten. Hier werden Best-practice-Beispiele eine wesentliche Rolle spielen. Einen erfolgreichen Weg zeigen die Kollegen von Swisstopo auf, die mit Cloud Computing eine kostengünstige Vertriebslösung für ihre Daten geschaffen haben, die für freie aber auch zu bezahlende Daten und Produkte eine hohe Akzeptanz erfahren haben.

Cloud Computing ist ein Baustein im Rahmen sich verändernder Geschäftsprozesse. Auch der Wettbewerb reagiert und zeigt Tendenzen, dass Anbieter und Anwender enger mit einander kooperieren. Dies könnte den Kampf um die notwendigen Fachkräfte durchaus etwas entzerren. Standards wie OpenStack werden eine ebenso wichtige Rolle einnehmen wie breitbandige, hochwertige Netzinfrastruktur. Entscheidend wird aber sein, dass notwendige Vertrauen in diese Technik nachhaltig zu etablieren. Die oft zitierte „Digitale Welt“ wird vom Cloud Computing profitieren.

Hagen Graeff war lange Jahre bei der Hamburgischen Senatsverwaltung zuständig für den Auf- und Ausbau geographischer Informationssysteme. Bis zum Jahr 2007 hat er das Hamburgische Vermessungsamt geleitet. Er hat viele Projekte bei der Hamburger Verwaltung im Bereich des Geoinformationswesens verantwortlich geleitet, insbesondere im Bereich der Planung, des Umweltsektors und der Liegenschaftsverwaltung. In vielen bundesweiten Projekten hat Graeff vor allem in Lenkungsgremien und Koordinierungsstellen mitgewirkt. Graeff war bis 2007 Präsident des DVW e.V. Gesellschaft für Geodäsie, Geoinformation und Vermessungswesen und ist im Fachbeirat des InGeoForum sowie des GIN e.V.

Cloud Computing: Evolution in der Technik, Revolution im Business

Von Monika Rech-Heider

Es klingt einfach: Wer Daten, Software und Prozesse in die Cloud legt, mietet die Serverleistung dafür bei einem Fremdanbieter. In Zeiten, in denen gerade in der öffentlichen Verwaltung der Kurs auf Sparen steht, ist Cloud Computing in vielen Einsatzszenarien eine wirtschaftliche Alternative zu den angestammten IT-Prozessen. Und Geodaten haben in vielen dieser Prozesse mittlerweile ihren angestammten Platz. Doch ganz so einfach ist der Einstieg nicht – es gehören ein Quentchen Mut, eine Prise Weitblick, ein ordentlicher Schuss Sachverstand und eine gehörige Portion Vertrauen dazu, Cloud-Modelle auszuprobieren.

Wer in ein Flugzeug steige, so Johannes Schöniger von Fujitsu, der vertraue darauf, dass ihn das Flugzeug sicher zum Ziel seiner Reise bringe. Und das aus gutem Grund, ergänzt Schöniger, denn schließlich sprächen alle Statistiken für dieses Transportmittel. Vertrauen ist es auch, dass Unternehmen und Verwaltungen brauchen, um über ihre IT-Infrastruktur nachzudenken und ein noch recht junges Vehikel für ihre Prozesse in diese Gedankenwelt einzulassen. Die Cloud sei vertrauenswürdig, dafür sorgen Sicherheitsauflagen, wie sie in verschiedenen Zertifizierungen verlangt werden. Schöniger nennt die BSI-Zertifizierungen ISO 27001, ISO/IEC 2000 und ISO 9001 als unerlässliche Voraussetzung für Kunden, in eine externe Cloud- Infrastruktur zu vertrauen. Schließlich steige man ja auch nicht in ein Flugzeug einer beliebigen Airline ein, so Schöniger. Ist das Thema Sicherheit und Vertrauen erst einmal geklärt, so fängt die eigentliche Arbeit in Richtung Cloud Computing aber erst an. „Wer denkt, er fragt heute an und ist morgen in der Cloud, den muss ich desillusionieren“, so Schöniger. Denn der Weg in die Cloud ist Arbeit und setzt eine gewisse Ausgangsmotivation voraus. Die kann bei einer Verwaltung aus einem Mix an Faktoren bestehen: Während die Prozesse (gerade mit Geobezug) immer komplexer werden, Datenmengen explodieren, die Erwartungshaltung beim Kunden (dem Bürger) hinsichtlich des Informationsangebots (am liebsten Real-Time, rund um die Uhr, mobil, „Easy to use“ und eben ortsbasiert) immer mehr steigen, drückt die Verwaltung auf die Kostenbremse. Wer jetzt auf die Idee kommt, Verwaltungsdaten und -prozesse in die Cloud zu bringen, der muss erst einmal klären, um welche Art von Daten es sich handelt. Sind es Public Data, die gemeinsam im Crowdsourcing erhoben wurden (wie beispielsweise die Openstreetmap), Open Data (mit öffentlichen Geldern erhoben und beispielsweise unter der Prämisse Wissensgesellschaft von öffentlichem Interesse), interne und organisationskritische Daten (beispielsweise Daten vom Integrierten Verwaltungs- und Kontrollsystem InVeKos) oder gar private Daten mit personenbezogenen Inhalten? Mit der Auswahl der Datenarten beginnt die erste Phase im Cloud-Prozess, die Planungsphase. Hier werden Potenziale analysiert und Sicherheitsauflagen analysiert. Ist diese Phase abgeschlossen, tritt der Kunde in die Vertragsphase ein. Hier wird zwischen Kunden und Cloud-Anbieter detailliert und bindend fixiert, welche Leistungen der Anbieter zu erfüllen hat und diese werden anhand messbarer Kennzahlen festgehalten. Ist man sich also einig, wie die Cloud-Prozesse auszusehen haben, beginnt Phase drei, die Migration. Hier ist eine Testphase vorgesehen, in der der Cloudanbieter seine Aussagen aus der Vertragsphase verifizieren kann. Mit Phase vier startet dann der Betrieb der neu aufgesetzten Prozesse.

Laut Schöniger ist Cloud Computing eine Evolution in der Technik, die aber revolutionäre Auswirkungen auf die Prozesse mit sich bringe. Während Hardware und Software in herkömmlichen Prozessen meist gekauft wurden, setzen die Cloud- Anbieter jetzt auf Mieten. „Die Leistungen kommen aus der Cloud wie der Strom aus der Steckdose, und abgerechnet wird nur das, was verbraucht wird.“ Das fordert ein neues Denken bei GIS-Herstellern, Kunden und deren Rechenzentren. Doch in diesem Umdenken stecke jede Menge Potenzial. „Dafür gibt es schon zahlreiche Beispiele“, so Schöniger (siehe Kasten). In vielen Fällen sei die Cloud aber auch eine hervorragende Ergänzung und kein Ersatz, beispielsweise, wenn Kapazitäten für rechenintensive Prozesse oder temporäre Spitzenlasten gebraucht würden.

Cloud Computing definiert den Ansatz, Rechenkapazität, Datenspeicher, Netzwerkkapazitäten sowie Anwendungssoftware über ein Netzwerk bereitzustellen – und das in unterschiedlichster Quantität und Ausprägung. Wird die gesamte Bandbreite der möglichen Dienste in Anspruch genommen, so entspricht das vereinfacht dem vollständigen Auslagern der IT-Infrastruktur. Nach der Definition des National Institute of Standards and Technology (NIST) werden drei Servicemodelle unterschieden.

Fujitsu und Cloud-Computing:

Als traditioneller Hardwarehersteller bietet Fujitsu im Rahmen von IaaS (Infrastruktur-as-a Service) Server- und Speicherkapazität sowie Netzwerkleistungen. Der Service rund um Cloud-Lösungen geht aber weiter über PaaS (Plattform-as-a-Service heißt IaaS plus Middleware) bis hin zu Saas (Software-as a-Service). Saas-Lösungen, die neben Netzwerk, Server und Storage, auch Middleware, Geodatenbanken und GI-Applikationen beinhalten, bietet Fujitsu gemeinsam mit GIS-Systemhäusern an.

Fujitsu berät in Sachen Cloud und betreibt Cloud-Lösungen in eigenen Rechenzentren. Der Hersteller ist technologsich unabhängig und richtet sich in der Wahl des Geoinformationssystems nach den Wünschen oder Ansprüchen der Kunden.

Einige Beispiele für umgesetzte Cloud-Lösungen:

  • WebAtlasDE, einem von Bund und Ländern gemeinsam entwickelter und vom BKG bereitgestellter Web-Kartendienst. (IaaS)
  • BW Map Mobile, Landesamt für Geoinformation und Landentwicklung Baden-Württemberg. Hochwertige topographische Karten werden im Sinne der Bürgerinformation aufs iPhone oder iPad gebracht. (IaaS)
  • Rechenintensive Abfrage- und Renderingprozesse für den Landebetrieb für Geoinformation und Vermessung in Hamburg. (IaaS) In einem Proof of Concept konnte das Unternehmen darlegen, das die geforderte Verwaltung, Bereitstellung und Analyse von Geodaten in der Clud realisierbar sind.
  • Intergraph. Evaluierung der Anforderungen an die Fujitsu Cloud. Aus der positiven Bewertung hat sich Fujitsu als autorisierter Partner von Intergraph in Sachen Cloud Computing hervorgetan.

Johannes SchöningerDer Text entstand auf Basis eines Vortrags von Johannes Schöniger. Er hat den Unternehmensbereich Geoinformation bei Fujitsu mit aufgebaut. Schon früh konstatierte er eine hohe Überschneidung zwischen Cloud-Computing und Geoinformation und setzte auf einen klaren Ausbau dieses Geschäftszweigs. Heute ist Schöniger als Strategic Account Director Geoinformationen bei Fujitsu für Cloud-Lösungen in der öffentlichen Verwaltung zuständig.

johannes.schoeniger [at] fujitsu.com | www.fujitsu.com

Zehn Thesen zum Thema GIS in der Cloud

Von Monika Rech-Heider

Alt gegen neu oder eine Erweiterung der bestehenden Business-Cases? Cloud Computing wirft immer noch viele Fragen auf, doch auch im GI-Umfeld sind die Potenziale, die sich aus den neuen Betriebsmodellen ergeben, nicht mehr wegzudenken. Jürgen Schomakers, Geschäftsführer und CTO der Esri Deutschland GmbH, hat seine Ansichten zum Thema Cloud Computing in zehn Thesen zusammengefasst.

1 „Beim Cloud Computing geht es nicht um alt gegen neu“, soviel steht für Jürgen Schomakers fest. Der Geschäftsführer und CTO der Esri Deutschland GmbH sieht große Chancen für Cloud-basierte GIS-Lösungen, ist aber davon überzeugt, dass auch Client-Server basierte Expertensysteme weiter ihre Berechtigung haben werden. Esri positioniere sich als Hersteller mit ArcGIS Online klar in der Cloud. Der IT-Umbruch berge große Chancen, aber auch Risiken, so der Technologie-Experte, und man müsse als GI-Hersteller das richtige Timing im Blick haben. „Wer zu früh ist, trifft mit seinen Entwicklungen auf unvorbereitete Kunden, wer zu spät kommt, der habe ohnehin das Nachsehen“, so Schomakers. Doch die Zeit arbeitet für die Cloud, das ist Schomakers These Nummer eins.

2 Cloud-Lösungen sollten nicht komplett losgelöst von herkömmlichen GI-Systemen betrachtet werden, so lautet Schomakers These Nummer zwei. Die Geschäftsmodelle werden sich entsprechend der technologischen Entwicklungen anpassen und es entstehen seiner Auffassung nach neue Geschäftszweige, die mit den traditionellen IT-Infrastrukturen nicht denkbar gewesen wären. Moderne Anwendungsszenarien fasst er unter dem Oberbegriff „Collaboration und Sharing“ zusammen. Er versteht darunter beispielsweise die Bereitstellung von GIS-Informationen im Internet, die Integration von Geoinformationen in Enterprise Systeme oder die Zusammenarbeit an GIS Themen über Unternehmensgrenzen hinweg.

3 So wie Cloud-GIS mit traditionellen GI-Systemen korrespondieren, so ist Cloud-GIS auch in die aktuellen IT-Trends und Arbeitswelten eingebettet zu betrachten. Als Turning Point in der IT-Entwicklung steht für Schomakers der 9. Januar 2007 fest. An diesem Tag präsentierte Steve Jobs das erst iPhone und mit ihm eine neue Art zu kommunizieren. IT wurde zum Hype und eine ganze Generation lebt und arbeitet seither mobil, kommuniziert über das Netz, bindet weite Bereiche des Privat- wie Geschäftsleben in Apps ein. „Appifizierung“ nennt der Esri CTO diese Entwicklung – es ist Schomakers These Nummer drei.

4 Mit der Appifizierung setzt der Esri-Experte die Leitplanken für seine These Nummer vier: Auch geschäftlich stehen immer mehr vier Buchstaben Pate für eine neue Arbeitsweise: BYOD. „Bring you own Device“ meint, dass auch immer öfter private Smartphones, iPads, oder andere mobile Plattformen mit in die IT-Landschaft des Unternehmens eingebunden werden. Mitarbeiter werden mobiler, wollen aber auch stets alle Inhalte und Informationen auf dem aktuellen Stand haben, um ihre Arbeiten ausführen zu können, wo auch immer sie sind. Da ist es für Schomakers nur folgerichtig, dass Esri mit der ArcGIS Plattform und über die Cloud Geoinformationen auf jedem Device, an jedem Ort und zu jeder Zeit anbietet.

5 Die „Consumerization“ der IT, also vor allem die immer weiter fortschreitende Vereinfachung der Nutzung, setzt sich auch in GIS-Lösungen fort. „Es werden immer mehr „Punktlösungen“ entwickelt“, so Schomakers – Lösungen also, die speziell auf eine Aufgabe zugeschnitten seien. Diese Punktlösungen erweitern und integrieren sich mit komplexen, großen GIS-zentrischen Lösungen. „Es gibt immer mehr Apps, die auf bestimmte Problemstellungen zugeschnitten sind und damit von vielen genutzt werden“, so Schomakers. Seine These Nummer fünf lautet also: : Die Bedienung von GIS wird immer einfacher, die Nutzer wollen sie bedienen wie Mainstream-IT.

6 Cloud Computing als Stellschraube in diesem Gesamtgefüge bietet für Schomakers in seiner These Nummer sechs eine weitere seit langem ersehnten Nebeneffekt: GIS werde durch Cloud Computing aus seiner Nischenrolle entwachsen, ist sich der CTO von Esri sicher. Ob in Business-Intelligence- oder in Customer-Relation-Management-Lösungen – die räumliche Komponente ist für das Gros an Unternehmenssoftware mehr als ein kleines Plus. Durch Cloud basierte Lösungen werde der Schritt Richtung Integration in die zentrale Enterprise-IT Realität.

7 Cloud Computing ist in erster Linie für den Kunden ein neues Servicemodell, so Schomakers These Nummer sieben. Merkmale dieser neuen GI-Angebote seien, dass man sie aus der Steckdose nutzen könne. „Starte sofort, richte alles selber ein, zahle nach Nutzung“, so umschreibt Schomakers seine Idee vom GIS aus der Cloud.

8 Cloud-Lösungen lassen sich in drei wesentlichen Kategorien darstellen: IaaS (Infrastructure as a Service), PaaS (Platform as a Service) und SaaS (Software as a Service). Esri bedient sich aller drei Ansätze basierend auf einer flexiblen Plattformarchitektur und für alle diese Ansätze gibt es mittlerweile zahlreiche Beispiele. „GIS ist Cloudready“, so könnte man Schomakers achte Kernthese formulieren.

9 These Nummer neun: Wie die ArcGIS Plattform implementiert wird, ob sie „on premise“ – also in der Kunden eigene Infrastruktur –, in der öffentlichen Cloud – etwa bei Amazon – oder auch als SaaS (ArcGIS online) in der Esri Cloud verankert ist, das liegt in erster Linie beim Kunden und dessen Aufgabenstellungen. Die ArcGIS-Plattform und ihre Implementierung in der Cloud ist also geprägt von Flexibilität und kann entsprechend der Kundenwünsche in Bezug auf seine Aufgabenstellungen und seine Ansprüche an Datensicherheit angepasst werden.

10 Wer GIS als Cloud-Service anbiete, sei gut beraten bereits Content mitzuliefern, dessen ist sich Schomakers sicher. „Content ist King“, so seine These Nummer zehn. Esri lebe diese Sichtweise nachdrücklich, indem Content ein fester Bestandteil der ArcGIS-Plattform geworden sei. Esri liefere seinen Kunden auf seiner Plattform mittlerweile kostenlose Basemaps, Luft- und Satellitenbilder, Geosearch und Verkehrsdienste, 3D-Höhen und -Stadtmodelle sowie kostenpflichtige Routingdienste, Batch-Geocoding und weitere Analysedienste. Darüber hinaus kann die ArcGIS-Plattform über den ArcGIS Marketplace mit Partner-Anwendungen und weiteren PartnerContent, wie etwa Wetterdaten oder Sozio-Demographische Daten flexibel erweitert werden.

Jürgen SchomakersDer Beitrag basiert auf einem Vortrag von Jürgen Schomakers. Er ist Geschäftsführer und CTO der Esri Deutschland GmbH. Der gebürtige Lingener hat in Münster und Osnabrück Wirtschaftsgeographie studiert und sich schon währen seines Studiums neben Geoinformatik mit rechtlichen und planerischen Fragen auseinandergesetzt. Er startete seine Karriere bei Siemens Nixdorf, kam bei SICAD Geomatics auch beruflich rasch mit der GIS-Welt in Berührung. Nach einem langjährigen Ausflug in die Business-IT ist Schomakers seit 2011 bei Esri für die Technologiestrategie und seit 2013 auch als Geschäftsführer verantwortlich. Mit ihm setzt die Esri Deutschland GmbH klar auf die parallele Entwicklung von Esri ArcGIS in der Cloud und in der kundeneigenen Infrastruktur.

j.schomakers [at] esri.de | www.esri.com/de | www.arcgis.com

Datenschutz in der Geo-Cloud – es geht!

Von Jan Schneider

Cloud Computing ist auf dem Siegeszug. Auch für die Geo-Cloud sind die datenschutzrechtlichen Anforderungen mit einem praxisnahen Ansatz gut lösbar.

Cloud Computing nimmt mittlerweile erheblichen Einfluss auf die IT-Landschaft. Immer mehr Unternehmen und Einrichtungen profitieren von der flexiblen Inanspruchnahme der externen Datenspeicherung- und Verarbeitung. Nach zahlreichen Diskussionen um die Themen Datenschutz und Datensicherheit in den letzten Jahren bieten viele Cloud Provider ihren Kunden mittlerweile in rechtlicher, technischer und organisatorischer Hinsicht qualitativ hochwertige Cloud Services.

Geoinformationen und Datenschutz

Der Umgang mit georeferenzierten Informationen unterliegt diversen rechtlichen Anforderungen. Soweit die Geodaten innerhalb einer Cloud-Umgebung gespeichert und verarbeitet werden sollen, unterliegt dies den gesetzlichen Anforderungen an den Datenschutz, wenn unter den Geodaten auch sogenannte personenbezogene Daten vorhanden sind.

Personenbezogene Daten – kurz „Personendaten“ – sind solche Informationen und Angaben, anhand derer natürliche Personen identifiziert werden können. Auch Geodaten können unter bestimmten Umständen Aussagen über natürliche Personen treffen. Diesbezüglich ist die rechtliche Diskussion noch im Fluss. Flächendaten im Maßstab 1:10.000 und kleiner werden jedenfalls kaum einen Personenbezug aufweisen können. Auch Luftbilder, Satellitenaufnahmen und Orthophotos mit einer Auflösung gröber als 40 Zentimeter pro Pixel können mangels der Erkennbarkeit einzelner Personen datenschutzrechtlich kaum relevant sein.

Bei der Erfassung einzelner Grundstücke von Privatpersonen per Koordinaten oder gar per Anschrift kann dagegen durchaus ein datenschutzrelevanter Personenbezug gegeben sein. Auch Standortdaten, wie sie etwa bei der Handy-Ortung anfallen und immer häufiger für standortbezogene Dienste erhoben und verarbeitet werden, stellen Personendaten im gesetzlichen Sinne dar.

Soweit die betreffenden Geodaten demnach einen Personenbezug aufweisen, kann dieser gegebenenfalls vor der Datenübermittlung in die Cloud mittels Maßnahmen wie Anonymisierung oder Aggregierung wieder entfernt werden. Andernfalls lässt sich die Übertragung der Geodaten in die Cloud in aller Regel mittels der sogenannten Auftragsdatenverarbeitung legitimieren.

Auftragsdatenverarbeitung in der Geo-Cloud

Dieses in § 11 des Bundesdatenschutzgesetzes und in ähnlicher Form in den Landesdatenschutzgesetzen verankerte „rechtliche Konstrukt“ definiert rechtliche, technische und organisatorische Anforderungen an die Übermittlung der Personendaten an den Datenverarbeiter. Werden diese Anforderungen bei der Bereitstellung und Nutzung des (Geo-) Cloud-Dienstes eingehalten, ist die Übermittlung (auch) der personenbezogenen (Geo-) Daten in die Cloud grundsätzlich rechtlich zulässig. Die Verarbeitung der Geodaten in der Cloud unterliegt dann im Übrigen den gleichen gesetzlichen Anforderungen, die auch bei einer Verarbeitung auf den eigenen Servern des Kunden gelten.

Für eine praktikable Umsetzung dieser gesetzlichen Anforderungen greift die Cloud-Praxis zum Beispiel auf aus dem Outsourcing bewährte Techniken zurück und adaptiert diese für die (Geo-) Cloud-Umgebung.

Geo-Clouds in „Übersee“

Während eine Auftragsdatenverarbeitung innerhalb der Europäischen Union gut umsetzbar ist, fordern die Datenschutzbehörden für die Nutzung von außerhalb der EU stationierten Clouds zumeist weitergehende Maßnahmen. Zunehmend greifen die „Übersee“-Cloud Provider hierfür auf die EU-Standardvertragsklauseln zurück, deren vertragliche Einbindung nach wohl einhelliger Auffassung zu einem ausreichenden Datenschutzniveau beiträgt. Damit ist auch die Nutzung von Geo-Clouds in „Übersee“ im Einklang mit deutschem Datenschutzrecht möglich, wenn gleichzeitig die Anforderungen an die Auftragsdatenverarbeitung eingehalten werden.

Ausblick

Die (datenschutz-) rechtlichen Anforderungen an Geo-Clouds sind in aller Regel mit überschaubarem Aufwand gut umsetzbar. Das gilt insbesondere dann, wenn der Geo-Cloud-Provider die rechtliche Seite bereits bei der Gestaltung seines Dienstes sorgfältig und kundenorientiert im Blick hatte. Kunden sollten dies kritisch prüfen. Insgesamt dürften Cloud-Infrastrukturen auch für Geodaten zukünftig eine attraktive und zukunftsfähige Schlüsseltechnologie darstellen.

Praxistipps

  • Geodaten können Personendaten sein
  • Umsetzung des Datenschutzes mittels Auftragsdatenverarbeitung
  • weitergehende Maßnahmen z. B. bei US-Clouds erforderlich
  • Cloud-Anbieter sorgfältig auswählen und prüfen

Jan SchneiderJan Schneider ist Fachanwalt für IT-Recht und Partner der bekannten Anwaltskanzlei SKW Schwarz Rechtsanwälte. Seit über zwölf Jahren berät er in allen Bereichen des IT-Rechts und im Datenschutzrecht. Jan Schneider hält regelmäßig Vorträge zu aktuellen rechtlichen Themen, veröffentlicht hierzu und ist Mitautor mehrerer Fachbücher, unter anderem des bekannten Standardwerkes "Handbuch der IT-Verträge". Nicht zuletzt im Bereich des Cloud Computing ist er häufig angefragter Referent und Keynote-Speaker.

j.schneider [at] skwschwarz.de | www.skwschwarz.de

"Cloud Computing ist sicher"

Von Monika Rech-Heider

Der Weg in eine vertrauenswürdige Cloud-Umgebung ist eine Reise durch Gesetze, Standards und Gütesiegel. Dass geradezu ein Wildwuchs an Gütesiegeln und Zertifikaten rund um die Cloud um sich greift, hilft der Reputation des Cloud-Konzepts wenig; im Gegenteil, Kunden sind verunsichert und suchen nach wirklich sicheren und nachhaltigen Lösungen. Dabei helfen einige Informationen.

Der potenzielle Kunde einer Cloud-Lösung mag sich ein wenig fühlen wie im am Ende des Märchens vom „Tischlein deck Dich“: Ein überreichlich gedeckter Tisch liefert jede Menge Appetit, aber auch die akute Gefahr, sich den Magen daran zu verderben. Womit starten? Was bekommt mir? Welche Speisen schmecken nicht nur gut, sondern sind auch gesund für mich? Auch in Sachen Cloud-Angeboten füllt sich der Tisch, immer mehr Anbieter drängen mit mehr oder weniger seriösen Angebotenen auf den Markt. Im Gegensatz zur privaten Nahrungsaufnahme, wo die Wahl doch auch Geschmackssache ist, gibt es hier aber einige klar definierte Schritte, die einem sicheren Konsum an Cloud-Angeboten den Boden bereiten. Stefan Möller von der TÜV Trust GmbH ist überzeugt davon, dass Cloud Computing sicher ist. Sinn und Zweck von Zertifizierungen muss es seiner Überzeugung nach sein, damit Prozesse in Unternehmen und Verwaltungen zu optimieren. Die Außenwirkung des Zertifikats, die Kunden überzeugen mag, ist nur ein weiterer Teilaspekt und darf für ein Unternehmen seiner Ansicht nach nicht im Vordergrund stehen. Hier erläutert er einige Schritte, die der Cloud-Hungrige vor dem Konsum beachten sollte.

1 Der Weg in die Cloud wird von Gesetzen und Normen begleitet. Den gesetzlichen Rahmen bilden unter anderem das Bundesdatenschutzgesetz und das Telekommunikationsgesetz. Wichtige Normen und Standards unter anderem COBIT (Controll Objective for Information and Related Technology), ITIL (Information Technology Infrastructure Library), die ISO-Norm 27001, IDW PS 330, NIST (National Institute of Standards and Technology) , PCI DSS (Payment Card Industry Data Security Standard). Schon hier ist es nicht so einfach, den Überblick zu erhalten. Wichtig ist, in einem Cloud-Konzept die passenden Standards zu einem neuen Konzept zusammenzufügen.

2 Es gibt offizielle, akkreditierte Gütesiegel von der DAKKS (Deutsche Akkreditierungsstelle), die nach verbindlichen Regeln ablaufen und von Unternehmen eigens für bestimmte IT-Segmente entwickelte Zertifikate (Hauszertifikate). Letztere müssen nicht gleich weniger leistungsfähig sein, wie die staatlich anerkannten.

3 Um hier einen Durchblick zu erhalten, muss ein vertrauenswürdiger Partner in Sachen Cloud her. Derjenige muss nachweislich Expertise in dem Segment mitbringen, im besten Falle also selber von öffentlichen Akkreditierungsstellen wie DAKKS oder BSI (Bundesamt für Sicherheit in der Informationstechnik) zertifiziert sein.

4 Das Zertifizierungsverfahren muss auf die Bedürfnisse des Kunden zugeschnitten sein. Es kann nicht heißen, „viel hilft viel“, da zu weit reichende Zertifizierungen weder betriebswirtschaftlich sinnvoll noch zielgerichtet sein müssen. Bei kompletten ISO 27001-Zertifizierungen kommen schnell mehrere hunderttausend Euro auf's Tableau, die aber nicht in jedem Fall der Sache dienlich sind.

5 Der Partner muss dem Kunden transparent erläutern, wie er vorgeht. Dazu müssen im Vorfeld des Cloud-Prozesses Fragen geklärt werden wie: Was ist eigentlich Gegenstand der Zertifizierung? Welche Prozesse sollen durch das Cloud Computing betroffen, welche Prozesse verbessert werden? Wie steht der Kunde bezüglich dieser Prozesse da? Gibt es Defizite? Werden Prozesse schon jetzt gelebt, sind sie dokumentarisch festgehalten? Wie ist die technische Umsetzung beispielsweise von Verschlüsselungsstrukturen oder Anonymisierungssoftware?

6 Wichtig ist herauszufinden, welche Intensität und Ausprägung eine Cloud-Lösung haben soll. Denn Cloud ist bei weitem nicht gleich Cloud. Die richtige Cloud-Lösung hängt vor allem davon ab, wie schutzwürdig die in die Daten sind, die in die Cloud sollen (bis hin zu personenbezogenen Daten) und wie hoch die Verfügbarkeit

7 Verspricht ein Unternehmen ein Gütesiegel ohne ein zukunftsgerichtetes begleitendes Monitoring, ist wenig von dem Anbieter zu halten. Eine Zertifizierung bietet nicht nur einmalige, sondern andauernde Arbeit auf Seiten des zu Zertifizierenden.

Jürgen SchomakersDer Beitrag basiert auf einem Vortrag von Stefan Möller. Er ist Leiter im Vertrieb der TÜV TRUST IT GmbH. Das Unternehmen ist spezialisiert auf die Themen Sicherheit und Datenschutz. Als Teil der TÜV Familie steht die TÜV Trust IT GmbH für Neutralität und Unabhängigkeit. Das Unternehmen berät Kunden auf ihrem Weg in die Cloud. Ziel ist es dabei, die Informationswerte des Kunden zu schützen und Prozesse in Unternehmen und Verwaltungen zu optimieren. Die TÜV Trust IT GmbH prüft und zertifiziert Cloud-Anbieter und unterstützt Unternehmen auf ihrem Weg in die Cloud. Hier wird ein so genannter Cloudability-Check vorgenommen und gemeinsam mit dem Unternehmen ein Fahrplan in die Cloud erarbeitet. Wichtig sind dabei so genannte Trust-Level, auf denen das Cloud-Konzept beruht. Fragen, die für die Einordnung geklärt werden müssen, sind beispielsweise die Art der Daten und daraus abgeleitet das Datenschutzniveau. Auch die Anforderungen an die Verfügbarkeit der Daten spielen beim Konzept des Trust-Levels eine Rolle.

stefan.moeller [at] it-tuv.com | www.it-tuv.com

Gute Planung, große Effekte!

Von Monika Rech-Heider

Geodateninfrastrukturen erfordern Investitionen in IT-Infrastruktur, Mitarbeiter und Schulungen. Diese Investitionen in Aufbau und Betrieb der Dienste werden in Deutschland und Europa von den beteiligten Datenanbietern oft unabhängig voneinander vorangetrieben. Verlagern Unternehmen und Verwaltungen diese Dienste schrittweise auf Cloud-basierte Plattformen, bietet das Potenzial für Einsparungen – je besser die Vorbereitung, desto größer der Nutzen.

Der Aufbau von Geodateninfrastrukturen – kurz GDIs – ist politischer Wille in Deutschland und Europa und ein Trend weltweit. GDIs haben zum Ziel, verteilt vorliegende Geodaten verfügbar zu machen und sie damit für wichtige Prozesse wie Umweltmonitoring oder Verkehrsplanung in Wert zu setzen. Dazu sind Standards vor allem durch das Open Geospatial Consortium (OGC) entwickelt worden, die Geodaten und deren Metadaten als Webservices im Internet auffindbar und nutzbar machen sollen. Der Ansatz war unbestritten ein notwendiger Schritt, um das Potenzial von Geodaten zeitgemäß heben zu können. Doch was ist passiert?

INSPIRE – verteilte Webservices

Das Beispiel von INSPIRE-Diensten (Infrastructure for Spatial Information in the European Community) mag das Dilemma verdeutlichen. INSPIRE ist ein Projekt der Europäischen Union (EU) und hat zum Ziel, Geodaten zugänglich zu machen; ursprünglich vor allem in Zusammenhang mit Umweltthemen in Europa. Von der kommunalen Ebene bis zu Bundesbehörden waren und sind Institutionen und Abteilungen aufgefordert, ihre Geodaten zum Allgemeingut zu machen. So sind allerorten erhebliche Anstrengungen unternommen worden, um den Anforderungen durch die EU nachzukommen. Das Ergebnis: 749 mehr oder minder eigenständige, meist voneinander unabhängig konzipierte und betriebene Webservices allein in Deutschland (Stand Mai 2013). Jeder einzelne von ihnen verursacht Kosten. Aus Sicht der IT handelt es sich um 749 weitgehend identische Angebote mit unterschiedlichen Inhalten, die ständig gepflegt werden müssen. Neue Anforderungen, wie die Integration von 3D-Daten oder durch Crowd Sourcing gewonnene Daten, oder aber auch die Verarbeitung großer Datenmengen sowie Auflagen zum Datenschutz, treffen jeden einzelnen der Webservices. Und das ganze Szenario entfaltet sich in Zeiten knapper finanzieller Ressourcen öffentlicher Haushalte. Das ist ein ideales Szenario für Cloud Computing, wenn man den Worten von Hans Viehmann, Product Manager bei ORACLE für den Raum EMEA (Europe Middle East, Africa), Glauben schenken darf. Der ungeheure Aufwand, der durch den X-fachen Aufbau und den Betrieb von IT-technisch identischen Diensten betrieben wird, ist offensichtlich und wird ansatzweise sogar im jährlichen INSPIRE Bericht quantifiziert. „Allein die Manpower, um die Anforderungen an eine sichere und zuverlässige Bereitstellung von Geodaten und -diensten zu gewährleisten, kostet,“, so Viehmann. Mit Cloud Computing ließen sich nach Viehmann Daten und Services auf einer zentralen Plattform verwalten und die Cloud liefere die typischen Cloud-Vorteile wie die Elastizität der IT bei unterschiedlich intensiven Zugriffszahlen, eine schnelle Bereitstellung durch „Self-Service-Komponenten“ und einen höheren Automatisierungsgrad.

Cloud als Kommunikationsthema

Der Einsatz von Cloud-Computing-Konzepten in der öffentlichen Verwaltung ist laut Viehmann vor allem ein Kommunikations- und Mediationsthema – es muss der politische Wille bestehen, sich über die Grenzen hinweg auf einen Betreiber für die Dienste zu verständigen. Entgegen aller Bedenken zum Datenschutz und Datensicherheit, die für den Bereich Open Data ohnehin nur eine untergeordnete Rolle spielen, ist Viehmann überzeugt, dass Cloud Computing für die Geodaten bereitstellende Stelle eine Vereinfachung der Prozesse mit sich bringe und damit die Kosten reduziere. Ob und wie Verwaltungen in die Cloud gehen, ist eine Frage des Vertrauens in die Technologie. „Fest steht, ein Big-Bang-Ansatz ist in Verwaltungen nicht zielführend“, so Viehmann. Eine einfache Übertragung einer bestehenden Umgebung in die Public Cloud ließe große Einsparungspotenziale ungenutzt, so Viehmann. Schritt für Schritt sei hier der richtige weg gefragt, auf den die Datenanbieter mitgenommen werden sollen. Ziel müsse es sein, langfristig Investment- und Betriebskosten für den Betrieb von GDIs zu sparen. Den Weg sieht der IT-Experte in folgenden Schritten: Einer ersten Konsolidierungsphase, in der die heterogene, zumeist auf einer Vielzahl im Unternehmen verteilen Rechner und Server basierte IT-Infrastruktur vereinheitlicht wird. Dieser erste Schritt sollte einhergehen mit einer „Virtualisierung“ der Rechner (siehe Kasten), die eine Neuaufstellung und bessere Auslastung der Server nach sich zieht. Darauf folgt der Aufbau einer Private Cloud und erst dann im nächsten Schritt die Verlagerung von Daten und Prozessen in eine Public-Cloud- oder Hybrid-Cloud-Umgebung.

Beispiele

Einige Beispiele von Cloud-Lösungen von Finanzdienstleistern wie der Credit Suisse, der Commonwealth Bank oder auch der Deutschen Bank zeigen die Potenziale des Cloud Computings.
Die Credit Suisse hat bereits seit 2010 die Entwicklungsumgebung für ihre Entwickler in die Cloud ausgelagert. Diese als PaaS (Plattform-as-a-Service) aufgestellte Lösung hat laut Unternehmensangaben die Betriebskosten um 35 Prozent gesenkt, die Projektkosten um ein Drittel reduziert, mit 44 Prozent fast die Hälfte der bis dato benötigten Energiekosten eingespart, während sich die Kapazitäten vervierfacht haben. Einen Ausfall gab es seit der Installation der Cloud-Lösung nicht ein einziges Mal.

Die Commonwealth Bank hatte bis zu ihrer Cloud-Lösung 300 kleine und mittlere verteilte Datenbanken im Unternehmen, die durch die PaaS-Lösung auf 3 Grids (vernetzten Server- und Speichersystemen) reduzieren. Das Unternehmen spart heute die Hälfte der Betriebskosten ein und die Auslastung der Server ist von 15 Prozent auf 85 Prozent gestiegen. Kosten für ansonsten im 3-Jahresrhythmus angeschaffte Hardware und verbrauchte Energie sanken in Folge der Maßnahmen drastisch.

Auch bei der Deutschen Bank laufen heute mehr als 60 Anwendungen auf einer standardisierten Plattform. IT-Umgebung und Prozesse wurden standardisiert, was zu einer erheblich verbesserten Performance, zu einer Kostensenkung von mehr als 50 Prozent und zu einer Energieeinsparung von 57 Prozent führte.

Virtualisierung:

Virtualisierung ermöglicht die Aufteilung eines physikalischen Rechners in mehrere von einander unabhängige so genannte virtuelle Computer. Hierbei werden die verfügbaren Hardware-Ressourcen wie etwa Prozessoren oder Netzwerkadapter flexibel auf die verschiedenen virtuellen Maschinen aufgeteilt, was eine dynamische Optimierung ermöglicht.

Hans ViehmannDer Beitrag basiert auf einem Vortrag von Hans Viehmann. Er ist Product Manager bei der ORACLE Deutschland B.V. & Co. KG und beschäftigt sich schon seit 1995 mit dem Thema Geodaten in IT Infrastrukturen. Er ist unter anderem für die „Spatial and Graph“ Option der ORACLE Datenbank verantwortlich, die die Verwaltung, Analyse und Abgabe raumbezogener Daten auf Basis der OGC Standards erlaubt und daher häufig in Geodaten-Infrastrukturen zum Einsatz kommt.

hans.viehmann [at] oracle.com | www.oracle.com/de

Cloud Computing in der Praxis

Von Monika Rech-Heider

Gibt es typische Cloud-Computing-Projekte? Ja! Cloud Computing bietet sich bei verschiedenen Voraussetzungen an, etwa bei großen Datenmengen, schnellen rechenintensiven Analysen oder bei Lösungen rund um Crowdsourcing. Uwe Jasnoch von Intergraph SG&I weiß von einigen Beispielen zu berichten, die hier nach diesen Kriterien sortiert dargestellt werden.

Wozu Daten, Prozesse oder Infrastruktur in eine Cloud legen, wenn man alles selber hosten, organisieren und betreiben kann? Für Dr. Uwe Jasnoch von Intergraph SG&I ist diese Frage in der Diskussion um Cloud Computing ein Kernthema. Seine Antwort: Ein Investment in eine eigene Infrastruktur- und Arbeitsumgebung, die Daten und Prozesse vorhält und nachhaltig betreibt, lohnt sich nach seiner Einschätzung zufolge erst ab einer bestimmten Größe eines Unternehmens. Eine „Private Cloud“ oder „Hybrid Cloud“ ist unternehmerisch sinnvoll, wenn ein Konzern über eine kritische Mitarbeiterzahl und Komplexität verfüge. In kleinen und mittleren Unternehmen oder in der öffentlichen Verwaltung auf kommunaler Ebene sei der Aufbau einer private Cloud hingegen zu aufwendig und zu teuer. Die Nutzung einer Public Cloud, wie von Amazon, Google und etlichen anderen Anbietern angeboten, komme für Business-Aufgaben vor allem aus Sicherheitsaspekten nicht in Frage. Bliebe nach Einschätzung Jasnochs die Möglichkeit, mit zertifizierten Partnern Daten oder Prozesse in eine Art vertrauenswürdige Cloud-Umgebung zu legen. Im Folgenden erläutern einige Beispiele das Cloud Computing in einer vertrauenswürdigen Umgebung.

Beispiel Nr. 1: Data-as-a-Service
Energiewirtschaft: Zugriff auf große Datenmengen

  1. Zielgruppe: Energieversorger
  2. Aufgabe: Zugriff auf bundesweiten Content (digitale Orthophotos, 20 cm-Auflösung, topographische Karten, Metadaten, etc.) und bedarfsgerechte Weitergabe an Dritte.
  3. Voraussetzungen:
    • 24/7-Verfügbarkeit,
    • jährliche Aktualisierung des Contents,
    • Lösung muss auch bei schmalbandigen Netzen funktionieren,
    • verschiedenste GIS sollen damit arbeiten können,
    • Nutzung und Verteilung soll auch offline funktionieren,
    • und das alles mit dem Ziel, Kosten zu reduzieren.

Auf den ersten Blick mag es den Anschein haben, als ließen sich diese Rahmenbedingungen nur schwer realisieren. Doch das Vorhaben kann sehr wohl eine „Mission Possible“ werden. Intergraph hat die Rohdaten mit einem speziellen Komprimierungsformat (ECW) derart reduziert, dass Datensätze mit einem Volumen von rund 38 Terabyte zu einem einzigen Terabyte geschrumpft sind. Für den Kunden RWE AG hat Intergraph eine Cloud-Lösung aufgesetzt, die das Unternehmen in die Lage versetzt, jederzeit auf die komplette Datenbasis zugreifen und diese bedarfsgerecht an Partner weitergeben zu können. Dafür ist allein ein Online-Tool nötig, mit dem RWE und einbezogene Partner das Wunschgebiet und die Inhalte festlegen. Per Klick erfolgt die umgehende Zusendung. Manfred Köhler von der Westnetz GmbH, einer Tochtergesellschaft der RWE AG, sagt dazu:“ Wir erhalten bundesweit die Geobasisdaten und Dienste für unsere Prozesse und Produkte aus einer Hand. Zudem reduzieren sich die IT-Infrastrukturkosten durch Nutzung von DaaS – Data-as-a-Service bei gleichzeitig sehr performanten Zugriffen in unseren Produkten.“

Dieses Verfahren wurde im November 2013 von einer unabhängigen Jury und unter öffentlicher Beteiligung mit dem Wichmann Innovations Award ausgezeichnet.

Beispiel Nr. 2: Software-as-a-Service
Kommune: Bürgerbeteiligung und Crowdsourcing

  1. Zielgruppe Kommunen
  2. Aufgabe: Aufnahme und gezielte Weitergabe räumlich verteilter und mit mobilen Geräten aufgenommener Informationen (Crowdsourcing)

Die Bürgergesellschaft lebt. Immer mehr Menschen engagieren sich in ihrer Umgebung, mischen sich ein, wollen Prozesse in ihrer Region initiieren oder mitsteuern. Dieses Engagement von Menschen in ihrem Wohn- und Lebensumfeld machen sich immer mehr Kommunen zunutze, indem sie Wissen und Hinweise ihrer Bürger ernst nehmen und sie in ihre tägliche Arbeit integrieren. Um aber das Ortswissen von Bürgern in die Prozesse der Verwaltung einzubinden, müssen diese Informationen bei den zuständigen Stellen der Fachabteilungen landen. Intergraph hat eine entsprechende App für Kommunen entwickelt, die Menschen in die Lage versetzt, Vorkommnisse mit dem Smartphone zu dokumentieren und samt georeferenziertem Bild an die Verwaltung zu senden. Ob Schlagloch, wild abgelegter Müll, defekte Straßenlaternen oder Beschädigung durch Vandalismus – mit der App „Mobile Alert“ landen diese Informationen nebst möglicher Kommentare direkt in der Verwaltung.

Dahinter steht ein Prozess, der in der Public Cloud gehostet wird. Technisch ist dies ein Web Map oder auch Web Feature Service, der von Intergraph GeoMedia erzeugt wird und als Multimedia-Report die zuständigen Mitarbeiter in der Verwaltung in ihrer Arbeitsumgebung erreicht. Reaktionszeiten der Verwaltung reduzieren sich durch diesen Service erfahrungsgemäß erheblich und die Zufriedenheit der Bürger steigt. Gestartet wurde dies Vorhaben in Dänemark und war dort über mehrere Monate auf Platz 1 im iTunes Store der kostenfreien Apps.

Beispiel Nr. 3: Data-as-a-Service
Kommune: Große Datenmengen, Analyse on demand

  1. Zielgruppe Kommunen
  2. Aufgabe: Rasche Analyse großer Datenmengen.

Ein fiktives Szenario: Ein dicht besiedeltes Gebiet mit gemischter Wohnbebauung und Gewerbeansiedlungen in Flussnähe wird vom Hochwasser überrascht. Evakuierungsmaßnahmen müssen so schnell wie möglich anlaufen. Die Entscheider benötigen ein Werkzeug, um die Hilfsmaßnahmen zu organisieren. Dafür sind Informationen zur Beurteilung der Lage erforderlich. Beispielsweise: Welche Gebiete sind überschwemmt? Wo befinden sich Wohnbebauung, wo sind Gewerbegebiete? Wie ist die Bevölkerung in den überschwemmten Gebieten strukturiert (beispielsweise hinsichtlich des Alters)? Gibt es kritische Infrastruktur (Krankenhäuser, Altenheime, Unternehmen mit kritischen Umweltstoffen)? In einer Kooperation mit der Deutschen Post hat Intergraph dieses Szenario durchgespielt und mit einem Business-Intelligence-Instrumentarium realisiert.

Rund 21 Millionen Adressen mit zugehörigen Koordinaten sowie 48 Millionen Hausumringe – also die georeferenzierten Umringpolygonen von Gebäuden – mit 2,4 Milliarden demographischen Attributen der Deutschen Post landeten im GIS von Intergraph und wurden in der Cloud vorgehalten. Der Zugriff der fiktiven Rettungsorganisation geschah online über das zur Verfügung gestellte Tool. Ein zu evakuierender Bereich wurde in der Web-Anwendung bestimmt, um festzustellen wie viele Wohngebäude betroffen sind. Anschließend konnte basierend auf den Daten die wahrscheinliche Anzahl und die Altersstruktur der Betroffenen auf Straßenabschnittsebene ermittelt werden, um dies dann in eine strukturierte Evakuierungsplanung einfließen zu lassen.

Johannes SchöningerDer Beitrag basiert auf einem Vortrag von Dr. Uwe Jasnoch. Er ist Sales Manager Geospatial für die DACH-Region bei der Intergraph SG&I Deutschland GmbH. Der Informatiker ist ein begeisterter Verfechter vernunftgeleiteter Entscheidungen und steht für Cloud-Lösungen an der richtigen Stelle. Das Unternehmen Intergraph entwickelt und liefert – allein oder gemeinsam mit Fujitsu – Lösungen, die auf der „Trusted Cloud“ von Fujitsu fußen. Intergraphs Leistungsspektrum rund um die Cloud reicht von der Beratung über die Konzeption bis hin zum Betrieb von Coud-Lösungen.

uwe.jasnoch [at] intergraph.com | www.intergraph.de

Über das InGeoForum

InGeoForum versteht sich als Informations- und Kooperationsforum zwischen Anbietern und Nutzern von Geodaten, Geo-Informationssystemen (GIS) und Dienstleistungen. Das grundlegende Ziel des InGeoForum besteht darin, den Geodatenmarkt zu unterstützen und den Aufbau einer nationalen Infrastruktur für Geodaten zu fördern.

InGeoForum versteht sich als Informations- und Kooperationsforum zwischen Anbietern und Nutzern von Geodaten, Geo-Informationssystemen (GIS) und Dienstleistungen. Das grundlegende Ziel des InGeoForum besteht darin, den Geodatenmarkt zu unterstützen und den Aufbau einer nationalen Infrastruktur für Geodaten zu fördern.
Neben den klassischen Anwendungsbereichen der Geoinformation in der Öffentlichen Planung und Verwaltung, dem Umweltschutz, der Verkehrssteuerung und Telekommunikation gibt es zunehmend auch Einsatzfelder, die bis zur Information in weltumspannenden Portalen reichen. „Google-Earth“ bietet beispielsweise eine Serviceplattform über Bilddaten, wo die in früheren Jahren nur in Expertenkreisen denkbaren Entwicklungen mittlerweile aktiv in den Markt der Nutzung „für Jedermann“ gebracht werden. Ziel des Forums ist damit auch, Expertensysteme frühzeitig zumindest im Mitgliederkreis von Unternehmen und Verwaltungen bekannt zu machen und die Möglichkeit zu eröffnen, von den Entwicklungen zu profitieren.

Geoinformation in der Cloud - Die Praxis von Morgen

Cloud-Computing ist derzeit ein bedeutender Trend in der Informatons- und Kommunikatonstechnologie. Gleichzeitig hat sich die Geoinformation zu einem Schlüsselbereich für Wirtschaft und Verwaltung entwickelt. Cloud-Computing bietet die Möglichkeit, Software, Speicherkapazitäten und Rechenleistung kundenspezifisch über das Internet zu beziehen. Das InGeoForum hat daher die Seminarreihe „Geoinformationen in der Cloud“ entwickelt, die sich in einer Vielzahl von Veranstaltungen in den Jahren 2013 und 2014 bewährt hat.
Die Seminarreihe bietet Einblick in das breite Thema Cloud-Computing, soll Orientierung vermitteln und durch die vorgestellten realen Projekte die Chancen und den Nutzen von Cloud-Computing im GIS-Bereich darstellen. Die Inhalte dieser Seminarreihe haben wir hier in Form von redaktionell überarbeiteten Artikeln für Sie zusammen gestellt.

Sie können die Broschüre selbstverständlich auch als PDF-Dokument herunter laden. Falls Sie an einer gedruckten Ausgabe interessiert sind, wenden Sie sich bitte an die InGeoForum Geschäftsstelle.

Geoinformation in der Cloud - Kommunale Anwendungen und Services

Die gelungene Seminarreihe „Geoinformation in der Cloud“ des InGeoForum mit den Netzwerkpartnern ESRI, Intergraph, Oracle und Fujitsu findet ihre Fortsetzung in den kommenden Jahren mit dem Schwerpunkt der kommunalen Anwendungen und Dienstleistungen.
Nachdem in der ersten Seminarreihe die Grundlagen des Cloud Computing unter Einsatz der Geoinformation das zentrale Thema waren, werden erstmals in der neuen Seminarreihe flexible und bedarfsbezogene IT-Services aus der kommunalen Cloud anhand ausgewählter Praxisbeispiele vorgestellt. Anhand relevanter Einsatzfelder für kommunale Aufgaben wird der Nutzen der neueren Cloud-Technologien für den sicheren und effizienten Einsatz im Umfeld bestehender IT-Technologien gezeigt.

Herausgeber

InGeoForum
Informations- und Kooperationsforum für Geodaten des ZGDV e.V.
Fraunhoferstraße 5
D-64283 Darmstadt
Tel.: +49 - 6151 - 155 400
Fax: +49 - 6151 - 155 410
Email: info@ingeoforum.de
www.ingeoforum.de

Text und Redaktion

Monika Rech-Heider, rheintext medien, www.rheintext.com

Grafik und Layout

zeitform Internet Dienste OHG