Big Data

Unternehmen stehen heute vor großen Herausforderungen. Einerseits müssen sie die steigende Komplexität beherrschen, die sich aus kürzeren Produktlebenszyklen, einer höheren Variantenvielfalt (Losgröße eins) und der strikten Einhaltung einer wachsenden Zahl behördlicher, rechtlicher, unternehmensinterner und vertragsbezogener Auflagen ergibt. Andererseits müssen die Unternehmen ihre Wettbewerbsfähigkeit steigern, indem sie neue Produkte auf den Markt bringen, Dienstleistungen zu den Produkten anbieten und gleichzeitig die Produktionskosten senken.

Den Daten im Unternehmen kommt dabei eine besondere Rolle zu. Daten sind gleichzeitig Treiber dieser Entwicklungen als auch Schlüssel zum Erfolg. Dies wird unterstützt durch neue Industrie 4.0-Entwicklungen Technologien basierend auf dem Internet der Dinge und cyber-physischen Systemen. In der Automobilindustrie kommen beispielsweise an großen Produktionsstandorten häufig mehrere Millionen Sensoren häufig mit individuellen Ausprägungen zum Einsatz, die über mehrere hundert Parameter für den jeweiligen Einsatzzweck konfiguriert werden.

Was ist Big Data?

Unter Big Data werden Lösungsansätze bestehend aus Methoden zum effizienten Speichern, Verarbeiten, Analysieren und Auswerten von Daten verstanden. Die Eigenschaften von Big Data werden mit dem «V-Modell» – Datenvolumen (Volume), Datenheterogenität (Variety) und Geschwindigkeit (Velocity), Richtigkeit (Veracity) – charakterisiert. Big Data Lösungen bestehen grundlegend aus Modulen für die Verwaltung und Analysen von Daten, welche eng auf einander abgestimmt sind. Für die Datenverwaltung werden Konzepte und Technologien eingesetzt, die eine effiziente Verarbeitung großer und unterschiedlich strukturierter Daten ermöglichen. Der Fokus liegt neben effizienten Zugriffen auch auf der Integration und Verwaltung von Echtzeit-Daten (z.B. Sensor- und AutoID-Daten). Diese Ansätze stehen im Kontrast zu bisherigen relationalen und strukturierten Datenbanken und kommen ohne definierte Datenstrukturen aus. Analysekonzepte umfassen Auswertungen- und Aufbereitung der Daten. Die Datenanalysen werden dynamisch auf Anwendungsfälle angepasst und erweitert.

Was bedeutet Big Data für die Logistik?

In der Anwendungsdomäne der Logistik eröffnen sich mit der Verwertung großer Datenmengen neue Möglichkeiten, denn sowohl in den Unternehmen, als auch im Internet existieren Daten, welche zur Entscheidungshilfe sowie zur Erstellung von Prognosen herangezogen werden können und auf diese Weise einen Mehrwert für die Unternehmen generieren. Hierbei spielen die Big Data Analytics Methoden eine entscheidende Rolle. Zusätzlich zu den großen Datenmengen, der Produkt- und Strukturkomplexität sowie des Vernetzungsgrades müssen in der Logistik viele verschiedene Daten verwaltet werden. Bestehende IT-Systeme in der Logistik müssen immer komplexere Aufgaben bewerkstelligen und auch immer weiter ansteigende Datenmengen verwalten. Um diese Herausforderung bewältigen zu können, wird die IT-Landschaft um Methoden und Systeme aus dem Big Data Analytics Bereich erweitert.

Big Data im Fraunhofer Data Innovation Lab

Im Fraunhofer Data Innovation Lab werden die Kompetenzen des Fraunhofer Innovationszentrums Logistik und IT (FILIT) rund um das Thema Big Data gebündelt. Das Team arbeitet und forscht an neuen Lösungen für Anwendungsfälle in der Logistik und im Supply Chain Management. Im Fokus stehen insbesondere dabei die Integration von Industrie 4.0-Systemen und –Anwendungen sowie die Nutzung von Cloud Lösungen.

Fraunhofer Big Data Allianz

Das Fraunhofer IML ist Mitglied Big Data Allianz und leitet das Geschäftsfeld Mobilität und Logistik.

Weitere Informationen

Leistungen und Angebote

  • Datenzentrierte Logistikprozesse
  • Integration heterogener Datenquellen
  • SAP HANA Integration
  • Cloud Integration
  • Big Data Architekturen
  • Datenvalidierung
  • Datenanalysen und –Aufbereitung