Big Data, Business Analytics, KI (Künstliche Intelligenz) und ML (Machine-Learning) gehören zu den Technologien, aus denen neue digitale Applikationen und Geschäftsmodelle entstehen sollen. Voraussetzung dafür ist ein intelligentes Datenmanagement, das die Verknüpfung und Analyse von Daten aus unterschiedlichsten Quellen ermöglicht.

Moderne digitale Technologien und Datenmanagement sind sehr viel enger miteinander verknüpft, als es auf den ersten Blick erscheint. Denn selbst die fortschrittlichsten Lösungen müssen zwangsläufig scheitern, wenn sie auf 'schlechten' Daten aufsetzen. Im Vergleich zum klassischen Data Warehouse, traditionell die Basis für BI-Anwendungen im Unternehmen, vergrößern die digitalen Technologien sogar das Risiko fehlerhafter Ergebnisse: 'Machine Learning auf qualitativ schlechten Daten ist ein Fiasko, weil der Algorithmus die Fehler im System als Normalität erkennt und daraus lernt - und in der Folge immer weitere Fehler ableitet', sagt Matthias Stemmler, Head of Presales Platform & Data Management bei SAP Deutschland.

Datenmanagement ist kein neues Thema. Es begleitet die IT-Verantwortlichen seit Beginn der IT - in der Anfangszeit 'elekronische Datenverarbeitung' genannt. Und noch immer gilt die alte Programmierregel 'Garbage in - Garbage out', was nichts anderes heißt, als das vernünftige Ergebnisse nur aus verlässlichen, qualitätsgesicherten Daten zu erwarten sind. Aber während in traditionellen Data Warehouse Umgebungen längst zuverlässige und praxiserprobte Mechanismen für die Aggregation und Qualitätssicherung etabliert sind, stellen die digitalen Technologien völlig neue Anforderungen an den Umgang mit Daten.

Qualitätsgesicherte Daten sind die Voraussetzung für sinnvolle Ergebnisse

Denn in immer mehr Unternehmen entstehen heute hybride Umgebungen aus lokalen Infrastrukturen, Private und Public Clouds. Strukturierte und unstrukturierte Daten aus verschiedenen Datenquellen wie Sensor- und Maschinendaten aus dem IoT, Enterprise-Applikationen wie ERP und CRM, Cloud -basierten Kollaborations- und Social Media-Applikation oder aus Mobilgeräten müssen für die Analyse zusammengeführt werden. 'Es geht um vollkommen unterschiedliche Datenquellen mit zum Teil gewaltigen Datenmengen', sagt der SAP-Exerte. 'Das Konzept des Data Warehouse, das darauf beruht, alle Daten für die Analyse in einer Datenbank zu aggregieren, geht an den Gegebenheiten in hybriden Umgebungen vorbei.'

Dabei ginge es zum einen um den gewaltigen Bedarf an Speicherplatz und Rechenleistung, zum anderen aber um die völlig andere Nutzung von modernen analytischen Anwendungen: 'Data Warehouse Applikationen sind retrospektiv', sagt Stemmler. Auswertungen und Reports, gäben immer nur Auskunft über die Vergangenheit. In modernen digitalen Applikationen aber sei die Auswertung der Daten essentieller Bestandteil operativer Systeme, die im besten Fall in Echtzeit erfolgt. 'Den Unternehmen stehen heute neue Analysemethoden zur Verfügung. Im Gegensatz zur vergangenheitsorientierten klassischen Business Intelligence (BI) verfolgen diese modernen Analysewerkzeuge einen in die Zukunft gerichteten Verwendungszweck', schreiben die Autoren der 'biMA®-Studie 2017/18' von Sopra Steria Consulting und den Marktforschern von BARC.

Serie: SAP NOW - Zukunft gestalten

Weitere Artikel der Serie:

Mangelhaftes Metadatenmanagement behindert den Einsatz digitaler Technologien

Für das Zusammenführen von Daten in hybriden Umgebungen tritt das Konzept der Metadaten an Stelle der Aggregation in einer Datenbank. Metadaten sind Informationen, den Wert, Aufbau, Herkunft und Qualität der Daten in Informationssystemen beschreiben. Wenn die Datenbestände eines Unternehmens in einem Metadatenkatalog zusammengestellt werden, lassen sich ad hoc die Daten aus unterschiedlichen Quellen für die Analyse zusammenführen.

Nach Einschätzung der Analysten von BARC ist das Metadatenmanagement ein entscheidender Hebel für den Erfolg von Projekten: 'Viele Initiativen in BI & Analytics erzielten aufgrund mangelhafter Datenqualität beziehungsweise fehlenden Metadatenmanagements nicht den erhofften Mehrwert.' Obwohl bereits vielfach neue Technologien eingesetzt würden, entfalteten sie ihr Potential nur bedingt, weil die schlechte Datenqualität einer sinnvollen fachlichen Nutzung entgegenstehe. 'Die neuen Möglichkeiten der modernen Technologien breiten sich deshalb nur langsam aus', resümieren die Autoren der biMA-Studie.

SAP NOW Innovationsgipfel in Berlin

Das intelligente Management von Daten und Metadaten ist die Basis für moderne Analytics-Lösungen. Aber Datenmanagement und Analyse-Lösungen sind nur ein Teilbereich einer ganzen Palette von Technologien, Konzepten und Strategien auf dem Weg zum intelligenten, digitalen Unternehmen.

Impulse und Unterstützung auf diesem Weg finden Sie auf dem Innovationskongress 'SAP NOW' am 13. und 14. März 2019 in Berlin. Hier treffen Innovatoren, Start-ups, Praktiker und Experten aus Wirtschaft und Wissenschaft zusammen und diskutieren Strategien, Anwendungen und Technologien. Unternehmen geben Einblicke in ihre Transformationsprojekte und erläutern, wie Sie Innovationen umsetzen und nachhaltig verankern.

Egal ob Sie erste Schritte in die digitale Transformation unternehmen oder das nächste Level erreichen wollen: Auf der SAP NOW finden Sie die Expertise, Technologien, Lösungen und Partner, die Sie bei der Digitalisierung voranbringen. Jetzt mehr erfahren und Ticket sichern.

Das traditionelle Data Warehouse hat nicht ausgedient

Für die Anwender von traditionellen BI- und Data Warehouse Systemen hat Datenmanagement-Experte von der SAP dennoch gute Nachrichten. Zwar stehe das Data Warehouse heute nicht mehr im Mittelpunkt von modernen digitalen Applikationen, es sei aber nach wie vor eine verlässliche Datenquelle im Kontext übergreifender Analyse-Architekturen. 'Das Data Warehouse mit seinen qualitätsgesicherten Daten ist ein solider Fixpunkt und verlässlicher Datenlieferant gerade auch in hybriden Landschaften', sagt Stemmler.

Mehr noch: Die Mechanismen und Tools für die Qualitätssicherung, Aufbereitung, Dublettenbereinigung sowie die Aggregation und die qualitative Auswertung von Daten ließen sich grundsätzlich auch auf hybride, per Metadaten definierte Umgebungen übertragen. SAP hat deshalb unter der Bezeichnung 'Data Hub' klassische SAP-Systeme wie Master Data Governance und weitere Applikationen und Tools etwa für ETL (Extraction, Transformation, Loading), für die Messung der Datenqualität, das Master Data Management, OLAP (Online Analytical Processing) und Data Mining zusammengestellt und für das Metadatenmanagement in hybriden Umgebungen weiter entwickelt.

Damit bietet SAP seinen Kunden ein umfassendes Paket an Entwicklungs- und Management-Tools für das Metadatenmanagement und BI- und Analyse-Lösungen in hybriden Architekturen. Denn der Nutzen und die Verwendbarkeit hängen vor allem von der Qualität und exakten Beschreibung der Datenquellen im Metadatenkatalog ab. Gerade der Erfolg von digitalen Lösungen, die auf Zukunftstechnologien wie KI und ML aufsetzten, steht und fällt mir der Datenqualität.

'Heute verbringen Data Scientists -früher sprach man von Mathematikern und Statistikern - 80 bis 90 Prozent ihrer Zeit damit, Daten aufzubereiten, um sie überhaupt für eine Auswertung zugänglich zu machen', sagt SAP-Experte Stemmler. Dieser Zeitaufwand und damit auch die Entwicklungszeit für neue digitale Applikationen und Geschäftsmodelle verringere sich drastisch mit steigender Daten- und Metadatenqualität. 'Datenmanagement ist kein Selbstzweck und keine technische Spielerei, sondern die Grundlage für moderne digitale Lösungen, mit denen Unternehmen einen messbaren Mehrwert erzielen können.'

SAP SE veröffentlichte diesen Inhalt am 06 Februar 2019 und ist allein verantwortlich für die darin enthaltenen Informationen.
Unverändert und nicht überarbeitet weiter verbreitet am 06 Februar 2019 09:08:00 UTC.

Originaldokumenthttps://news.sap.com/germany/2019/02/ohne-durchdachtes-datenmanagement-versagen-ki-und-ml-algorithmen/

Public permalinkhttp://www.publicnow.com/view/BFB050080C8C988711C43ECD4078102530012DC3