Viele Unternehmen haben mit dem Beginn der Cloud-Ära ihre Rechenzentren abgeschafft. Doch es gibt Gründe, warum Einiges wieder vor Ort berechnet und gespeichert werden sollte oder sogar muss.

Gestern in meinem Paralleluniversum. Ich werde angegriffen von den Grumps. Eine unangenehme, parasitäre Alienform, die sich vorrangig von Frankfurter Würstchen ernährt. Obwohl ich alle Verteidigungsinstrumente, Löwensenf, Meerrettich, Chilisoße etc. parat habe: sie überrennen mich und verspeisen meine Vorräte. Oh mein Gott, wie kann so etwas nur passieren?

Man nennt es Latenz. Die Zeitverzögerung, die die Daten zum Rechenzentrum und auf dem Weg zurück erfahren, verhindert, dass ich mich gegen die Angreifer meines aggressiven Gourmetspieles wehren kann. Computerspieler, speziell Professionelle, leiden unter dieser physikalischen Eigenschaft besonders. Edge-Computing könnte also für "Gamer" die Edge of Glory sein, weil ihre Reaktionszeiten nicht durch Latenzen verzögert werden.

Im Straßenverkehr verursachen Verzögerungen Gefahrensituationen. Um letztere nicht heraufzubeschwören, muss, in nicht mehr allzu ferner Zukunft, die vorhandene IT-Infrastruktur in der Lage sein, große Datenmengen in Echtzeit zu verarbeiten. Es gilt den Verkehrsfluss aufrecht zu erhalten, gegebenenfalls neue Routen zu berechnen oder gar Unfälle zu verhindern. Umso wichtiger ist es dann, spezifische Berechnungen am Ort des Geschehens zu vollziehen. Gerade auch Radfahrer können ein Lied davon singen.

Im Internet der Dinge wird die Datenmenge explodieren. Doch nicht alle Daten müssen in die Cloud übertragen werden. Geht es beispielsweise darum Objekte in einem Lager zu orten, kann Edge-Computing die zu übertragende Datenmenge erheblich reduzieren aber die Genauigkeit noch erheblicher erhöhen. Während übliche GPS-Empfänger und Handys eine Genauigkeit von zwei bis dreizehn Meter haben, sind hier, je nach Netz, zehn bis dreißig Zentimeter zu erreichen. Und das in Echtzeit.

Zu guter Letzt ist natürlich auch die Datensicherheit nicht zu unterschätzen. Nicht alle Anbieter arbeiten mit den hohen Sicherheitsstandards einer Open Telekom Cloud. Und die Verschlüsselung von Daten kann zum Teil hochkomplex sein. Deshalb dürfen manche Daten die Firmenumgebung nicht verlassen. Durch die lokale Datenverarbeitung bleiben die Daten im Unternehmen, was die Datensicherheit deutlich erhöht und die volle Datenhoheit ermöglicht. Und durch eine gewisse Autonomie laufen Anwendungen weiter, auch wenn die Verbindung ins Rechenzentrum ausfällt oder sehr langsam ist. Dies kann für Produktionsstraßen beispielsweise von Autoherstellern oder entlegene Standorte wie Ölplattformen von existenzieller Wichtigkeit sein.

Den letzten Angriff der Grumps habe ich übrigens abgewehrt.

Interesse an mehr Informationen?

Ob es einen Paradigmenwechseln bei der Datengetriebenen Transformation mit Edge und Cloud geben könnte, besprechen IDC, Intel, AWS und T-Systems am 7. Dezember 2021 ab 10 Uhr MEZ. Europaweit wurden dazu mehr als 300 Führungskräfte zu den Themen IT-Infrastruktur, IT-Strategie, Datennutzung, Einsatz von IoT, Edge- und Cloud-Lösungen befragt. Die Ergebnisse werden in der Veranstaltung vorgestellt. Die Veranstaltung findet in englischer Sprache statt. Sie sind gerne als Gast gesehen.
Zur den Veranstaltungsdaten und zum Whitepaper Edge-Computing geht es hier.

Attachments

  • Original Link
  • Original Document
  • Permalink

Disclaimer

Deutsche Telekom AG published this content on 29 November 2021 and is solely responsible for the information contained therein. Distributed by Public, unedited and unaltered, on 30 November 2021 09:20:08 UTC.