QSC ist jetzt q.beyond. Weitere Infos in unserer Pressemitteilung.

Fog statt Cloud Computing: Nach der Wolke kommt der Nebel

Landschaft mit Bäumen und Morgennebel

Titelbild: © SAMMYEK/Shutterstock.com

Schlägt das Pendel jetzt zurück? Da die Cloud im Zuge der sich weiter verstärkenden Datenexplosion schon bald auf Kapazitäts- und Bandbreitenprobleme stößt, rufen immer mehr Experten nach „Fog Computing“. Mit ihm würden viele Rechenaufgaben zurück auf lokale Server wandern.

Je mehr Cloud Computing zum Quasi-Standard der Datenverarbeitung wird, umso deutlicher zeichnen sich auch seine Grenzen ab. Nicht die Datenhaltung, sondern die Übertragung der Daten wird angesichts der sich weiter verstärkenden Datenexplosion zum Flaschenhals. Denn es ist mehr als fraglich, ob die verfügbaren Bandbreiten ausreichen, wenn sich bereits in drei Jahren rund 50 Milliarden Geräte im Internet der Dinge tummeln und kommunizieren.

Unzureichende Bandbreite

Die Computerwoche weist in einem aktuellen Beitrag zu Fog und Edge Computing darauf hin, dass das Bandbreitenproblem bereits seit mehreren Jahren diskutiert wird. Der Artikel zitiert unter anderem Guido Jouret, der die IoT-Sparte von Cisco verantwortet. Er habe bereits 2014 erklärt: „Wir verschwenden Zeit und Bandbreite, wenn wir alle Daten von IoT-Devices erst in die Cloud und dann die Antworten wieder zurück ins Netz spielen.“ Es sei viel sinnvoller, zumindest einige Verarbeitungsaufgaben direkt vor Ort von intelligenten Routern erledigen zu lassen.

Rechnen am Rand des Netzwerks

Dementsprechend sieht das Konzept des Fog Computing vor, einen größeren Anteil an Rechenintelligenz und Speicherkapazitäten am Rand des eigenen Netzwerks vorzuhalten. Dies würde die zentrale Datenhaltung und -kommunikation entlasten und damit die riesigen Datenmengen des „Internet of Everything“ überhaupt erst ermöglichen.

Nicht nur Cisco propagiert das Fog Computing als neblige Ergänzung zur Wolke. IBM und Microsoft argumentieren laut Computerwoche ähnlich. Sie bezeichneten das Konzept jedoch als „Edge Computing“, also Rechnen am Rand des Netzwerks und direkt bei den datenproduzierenden Geräten*. Auch die Linux Foundation hat sich des Themas angenommen und zusammen mit mehr als 50 Unternehmen eine Initiative gestartet, deren Ziel offene und einheitliche Frameworks für das Edge Computing im Internet der Dinge sind. Über dieses Projekt informiert ein weiterer Beitrag dieses Blogs.

Wenn die Cloud mal ausfällt

Dass die Cloud ein Kapazitäten- und Bandbreitenproblem hat, ist nicht nur Zukunftsmusik. So ging zum Beispiel im Februar ein wichtiges Rechenzentrum von Amazon Web Services (AWS) in die Knie und legte zahlreiche Dienste in den USA und zum Teil auch weltweit über Stunden lahm. Wenn die Cloud wie in diesem Fall ohne Verbindung bleibt, könnten lokale Kapazitäten solche Ausfälle zumindest abfedern. Auch hinsichtlich der heute zum Teil schon hohen Latenzzeiten, die bei großen Cloud-Anbietern auftreten, können Fog oder Edge Computing Entlastung schaffen.

Wesentlich kürzere Antwortzeiten

Dementsprechend bezeichnete Gartner Edge Computing Ende 2016 erstmals als einen der aktuell zehn wichtigsten Technologietrends auf dem Feld von Infrastruktur und Betrieb – vor allem mit Blick auf „Echtzeitanwendungen, die sehr schnelle Antwortzeiten benötigen.“ Mithilfe von Edge Computing lasse sich die Verzögerung in der Kommunikation auf einige wenige Millisekunden verkürzen. Im herkömmlichen Cloud Computing liege die durchschnittliche Antwortzeit hingegen bei mehreren Hundert Millisekunden. „Edge Computing belässt einige der rechenintensiven Vorgänge auf Edge-Servern und macht dadurch die Datenverarbeitung unabhängiger von den Kapazitäten der einzelnen Geräte“, so Gartner. Hinzu kommen Vorteile in Sachen IT-Sicherheit.

 

*Die Begriffe Fog Computing und Edge Computing werden häufig synonym verwendet. Beide Konzepte sehen die Datenverarbeitung in einer dezentralisierten Infrastruktur am Rande des Internets vor. Digitales-Wirtschaftswunder.de unterscheidet die Begriffe jedoch in Übereinstimmung mit ITWissen.info und AutomationWorld folgendermaßen:

Fog Computing: Anwendungen und Services werden auf Ebene eines lokalen Netzwerks (Local Area Network, LAN) gespeichert und stehen Anwendungen direkt zur Verfügung. Fog-Computer bzw. Fog-Server (Fog Nodes) oder IoT Gateways verarbeiten Daten zentralisiert innerhalb des LAN zu geringeren Latenzzeiten als Cloud-Computing-Lösungen. Sie übermitteln die Ergebnisse an multiple Endpunkte innerhalb des lokalen Netzwerks.

Edge Computing: Daten werden für den hochperformativen Einsatz direkt in intelligenten Clients verarbeitet (Sensoren übertragen zu verarbeitende Daten etwa direkt an Programmable Automation Controller, PAC) oder an nahe gelegene Edge-Geräte (Router, Gateway oder Server) übertragen. Eine zentralisierte Verarbeitung innerhalb des LAN wie beim Fog Computing entfällt. Wenig zeitsensitive Daten werden zur weiteren Verarbeitung und Speicherung in die Cloud übertragen.  

Dieser Artikel erschien ursprünglich auf Digitales-Wirtschaftswunder.de, dem Themenblog der QSC AG

Drucken

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Um die Diskussionsqualität zu wahren, veröffentlichen wir nur noch Kommentare mit nachvollziehbarem Vor- und Nachnamen sowie authentischer E-Mail-Adresse.