Icon--AD-black-48x48Icon--address-consumer-data-black-48x48Icon--appointment-black-48x48Icon--back-left-black-48x48Icon--calendar-black-48x48Icon--Checkbox-checkIcon--clock-black-48x48Icon--close-black-48x48Icon--compare-black-48x48Icon--confirmation-black-48x48Icon--dealer-details-black-48x48Icon--delete-black-48x48Icon--delivery-black-48x48Icon--down-black-48x48Icon--download-black-48x48Ic-OverlayAlertIcon--externallink-black-48x48Icon-Filledforward-right_adjustedIcon--grid-view-black-48x48Icon--info-i-black-48x48Icon--Less-minimize-black-48x48Icon-FilledIcon--List-Check-blackIcon--List-Cross-blackIcon--list-view-mobile-black-48x48Icon--list-view-black-48x48Icon--More-Maximize-black-48x48Icon--my-product-black-48x48Icon--newsletter-black-48x48Icon--payment-black-48x48Icon--print-black-48x48Icon--promotion-black-48x48Icon--registration-black-48x48Icon--Reset-black-48x48share-circle1Icon--share-black-48x48Icon--shopping-cart-black-48x48Icon--start-play-black-48x48Icon--store-locator-black-48x48Ic-OverlayAlertIcon--summary-black-48x48tumblrIcon-FilledvineIc-OverlayAlertwhishlist

Wichtige Cookie Information

Diese Webseite nutzt unbedingt erforderliche Cookies. Wenn Sie auch der Verwendung von komfortbezogenen Cookies zustimmen, klicken Sie bitte „Einverstanden“. Mit Klick auf „Ändern“ können Sie die Cookie-Einstellung jederzeit ändern und eine erteilte Einwilligung widerrufen. Weitere Informationen erhalten Sie in der Cookies Übersicht.

Bosch Connected Industry

Nexeed Data Analytics

FAQs zu Data Analytics

Die Vorteile von Data Analytics und Predictive Maintenance kurz erklärt

How to benefit from predictive maintenance

Wissenswertes zu Beginn

Wie komme ich zu einer Lösung für eine vorausschauende Wartung?

Es gibt nicht DIE Lösung für eine vorausschauende Wartung. Lösungen für Predictive Maintenance hängen stark von der jeweiligen Maschine oder dem Prozess ab. Außerdem ist die Erstellung einer vorausschauenden Wartungslösung ein schrittweiser Vorgang (von beschreibenden Ansätzen und einer Betriebsüberwachung bis zu vorausschauenden, beschreibenden und automatisierten Lösungen).

Wie viel Zeit nimmt ein Data Analytics-Projekt in Anspruch?

Wie viel Ressourcen und Zeit ein Data Analytics-Projekt erfordert, hängt von zahlreichen Faktoren ab. Die wichtigsten sind

  • der Projektumfang/die Projektgröße,
  • die Qualität und Verfügbarkeit der erforderlichen Daten,
  • bereits vorhandenes Wissen über Analyse-Tools und Recheninfrastruktur
  • die Fähigkeiten und Kenntnisse des Analytics-Teams und
  • vor allem die Unterstützung des Data Analytics-Projekts vom Management-Team und von den Experten vor Ort.

Das Data Analytics-Team erstellt einen Zeitplan auf der Basis der genannten Faktoren. Unser iterativer Ansatz ermöglicht es, bereits innerhalb von 4 bis 6 Wochen erste Ergebnisse zu liefern, die im Laufe des Projekts weiter ausgearbeitet werden. Diese Ergebnisse können erste Einsichten sein, die eine einmalige Lösung für einen konkreten Anwendungsfall darstellen, aber auch ein Konzeptnachweis für eine Lösungsarchitektur oder ein minimalfunktionales Produkt.

Wie hoch sind die Kosten für ein Data Analytics-Projekt?

Für viele unserer Kunden hat sich unsere Data Analytics-Beratung im Produktionsbereich als idealer Einstieg in ihr Projekt herausgestellt. Je nach Bedarf bieten wir ein vielfältiges Beratungsangebot mit der Möglichkeit einer Beratung direkt vor Ort. Die meisten Beratungsangebote haben einen Festpreis. Hier erhalten Sie weitere Informationen zur Data Analytics-Beratung.

Die Kosten für ein Data Analytics-Projekt werden nach einem transparenten Modell berechnet. Erfahrungsgemäß benötigen die meisten Projekte zu Beginn zehn bis zwanzig Arbeitstage. Es können sogar weniger Tage nötig sein, wenn z. B. nur eine einfache Datenqualitätsprüfung oder Machbarkeitsberatung gewünscht ist. Das Projekt kann aber auch zeitintensiver sein, wenn es sich um ein schwieriges Problem handelt oder eine ganz spezielle Infrastruktur implementiert werden soll.

In welchen Fällen verhilft Data Analytics zu höheren Einsparungen als traditionelle technische und statistische Verfahren (z. B. Six Sigma)?

Wenn man sich die Arbeitsweise (z. B. Problemlösung) und die üblichen Tools und Methoden (Excel, Six Sigma, etc.) von heute ansieht, ist der Ansatz von Optimierungsprojekten häufig eindimensional. Bei End-of-Line-Ausschuss werden beispielsweise Prüfdaten analysiert, welche zwar die Wirkung aufzeigen können, jedoch nicht die Ursache, an der Verbesserungsmaßnahmen ansetzen sollten, wie etwa bestimmte Fehlercodes oder nicht bestandene Prüfschritte.

Durch die Nutzung von Data Analytics-Techniken werden Prüfdaten (die Informationen enthalten, welche Teile die Tests bestanden haben und welche nicht) in Verbindung mit den entsprechenden Prozess- und Qualitätsdaten für das Endprodukt und seine Komponenten berücksichtigt. Zusätzlich lassen sich dem Gesamtbild noch Maschinendaten, Rückverfolgbarkeitsdaten, Umgebungsdaten usw. hinzufügen und nach Verbindungen suchen, um neue Einsichten zu gewinnen.

Spezielle Algorithmen helfen bei der Identifizierung multidimensionaler Ursache-Wirkungs-Beziehungen – z. B. dass der End-of-Line-Ausschuss mit einem bestimmten Fehlermodus steigt – in etwa folgender Form: Komponente A von Zulieferer B, Einpresskraft nahe der Untergrenze, und Maschine X kurz vor der nächsten geplanten Wartung.

Eine entscheidende Grundvoraussetzung für diesen fortschrittlichen analytischen Ansatz ist die Anwendungsmöglichkeit dieser Algorithmen dank der richtigen Tools sowie eine geeignete IT-Infrastruktur und Rechenleistung zur Durchführung von multivariaten Analysen in einem angemessenen Zeitraum.

Wie viele Daten benötige ich zu Beginn eines Data Analytics-Projekts?

Data Analytics kann ganz ohne Daten beginnen. Das ist sogar ein guter Ansatz. Um herauszufinden, wie Datenanalysen helfen können, zukünftig noch effizienter zu werden, ist es wichtig zu wissen, welche Daten gespeichert und wie diese anschließend analysiert werden sollen. Dabei gilt es, unnötige Investitionen in eine unpassende Infrastruktur zu vermeiden. Unsere Experten aus der Data Analytics-Beratung helfen mit einer Vielzahl an Angeboten gerne weiter, indem sie Fragen beantworten und Erstanwendungsfälle bewerten.

Gleiches gilt für kleine Datensätze, d. h. Daten im MB-Bereich. Hier lassen sich Daten gewöhnlich sehr schnell analysieren, sodass wertvolle Erkenntnisse oder sogar nachhaltige Vorteile zeitnah gewonnen werden können. Wenn das Datenvolumen den GB- oder TB-Bereich erreicht, ist eine gute Datenverarbeitung und Speicherinfrastruktur unverzichtbar. In diesen Fällen senkt eine Reduzierung der zu speichernden Daten um 10% die Kosten ebenfalls um 10%. Ganz zu schweigen von dem Vorteil, dass die Daten langfristig effizienter analysiert werden können.

Verfahren und Methoden

Was ist der Unterschied zwischen Data Analytics und Statistik?

Data Analytics ist mehr als nur Statistik. Wir verstehen Data Analytics als den Gesamtprozess, Wissen aus Daten abzuleiten. Dies geschieht bei der Bereinigung, Strukturierung und Visualisierung von Daten sowie der effizienten Vorhersage zukünftiger Ereignisse in Echtzeit.

Allerdings gibt es keine Datenanalyse ohne Statistik. Die Identifizierung wichtiger Beobachtungen in einem Umfeld mit einer Unmenge an Daten, das Bestimmen von Ausreißern in Normalverteilungen oder die Berechnung von Wahrscheinlichkeiten für zukünftige Ereignisse sind nur einige Beispiele für Statistikanwendungen in der Datenanalyse.

Es geht immer um große Datenmengen (Big Data), oder nicht?

Falsch! Wie so oft geht es eher um Qualität als Quantität. Zusammenhängende, gut strukturierte und einheitliche Datensätze sind wichtiger als die reine Menge. Es ist gut investierte Zeit, über die Struktur und Möglichkeiten von Datensätzen nachzudenken, und nicht einfach Terabytes an Daten zu speichern, ohne zu wissen, was man damit tun soll. Die Erfahrung zeigt, dass ein Großteil aller Daten nie mehr angesehen wird. Darüber hinaus funktionieren Massenspeichersysteme anders als herkömmliche Systeme. Hier lässt sich Zeit und Geld sparen, indem zuerst Format und Struktur der Daten definiert werden, bevor unnötiges Geld in die Infrastruktur fließt.

Welche Tools verwenden wir für Data Analytics-Projekte?

Wir finden die effizienteste und praktischste Lösung für jeden individuellen Anwendungsfall. Natürlich haben wir Standardlösungen und -tools, die aber nicht auf jeden Anwendungsfall optimal angepasst sind. Die verwendeten Tools und Algorithmen hängen von vielen Aspekten ab. Fangen Sie bei Null an? Verfügen Sie bereits über einen Datenspeicher, eine Datenverarbeitung und eine Analyse-Infrastruktur? Welche Datenmenge erzeugen Sie und in welcher Frequenz? Haben Sie besondere Anforderungen in Bezug auf die Verarbeitungszeit, die Speicherung oder die Transparenz? Wir finden und erstellen die geeignete Lösung für Ihren Anwendungsfall und versuchen nicht, ein Problem zu unserer Lösung zu finden.

In der Regel ist es so: Je weniger die Computing Infrastructure entwickelt ist, desto mehr Freiheit existiert in der Umsetzung. In diesem Fall beginnen wir normalerweise mit Open-Source-Skriptsprachen z. B. Python oder R, die zahlreiche fortschrittliche und häufig verwendete Bibliotheken mit Algorithmen enthalten. Python und R bieten die Möglichkeit, Daten von unterschiedlichen Quellen zu verarbeiten, zu bereinigen und Erkenntnisse aus ihnen zu ziehen, die von einer Visualisierung über Korrelationsanalysen bis hin zu den komplexesten Systemen aus überwachten und unüberwachten maschinellen Lernalgorithmen reichen.

Bei große Datenmengen steht vermutlich ein verteiltes Speicher- und Analyse-System wie bspw. Hadoop zur Verfügung. In diesem Fall bereichern wir das Systeme mit unseren intelligenten Lösungen und verwenden Tools, die sich nahtlos in die vorhandene Infrastruktur einfügen.

Ein mögliches Resultat von Data Analytics sind Visualisierungen. Hierbei verwenden wir kundenspezifische Implementierungen für selbsterklärende Grafiken oder nutzen kommerzielle Tools wie Tableau. Wichtiger ist, dass jeder Kunde sein eigenes Ergebnis nachvollziehen kann, ohne die Feinheiten der zugrundeliegenden Algorithmik verstehen zu müssen.

Welche Algorithmen nutzen wir?

Es gibt nicht einen einzelnen Algorithmus, der jeden Anwendungsfälle löst. Der richtige Algorithmus ist abhängig vom Eingangsdatenformat, der Datenstruktur sowie dem Dateninhalt, der Recheninfrastruktur, den Anforderungen und dem zu lösenden Anwendungsfall. Manchmal ist nicht von Anfang an klar, welcher Algorithmus sich am besten für die vorliegende Aufgabe eignet. Dann probieren wir zunächst die geläufigsten Algorithmen aus (z. B. Entscheidungsbäume, Random Forests, neuronale Netze, Bayes-Modelle oder Clustering) und beurteilen sorgfältig deren Leistung.

Manchmal ist es wichtiger Transparenz zu schaffen, als das präziseste Modell zu erstellen. Geht es im ersten Schritt darum, Vertrauen in eine datenbasierte Entscheidungsfindung aufzubauen kann ein leicht erklärbares Modell wie ein Entscheidungsbaum oder ein lineares Regressionsmodell geeigneter sein als kompliziertere Modelle wie Entscheidungsbäume mit Gradient Boosting oder tiefe neuronale Netze.

Allgemeines

Was ist Data Analytics?

Bei Data Analytics geht es um ein besseres Verständnis von Daten und um aufschlussreiche Erkenntnisse, die ansonsten verborgen geblieben wären. So können zum Beispiel durch die Verwendung intelligenter Algorithmen Trends oder statistische Ausreißer identifiziert werden. Dies bietet die Möglichkeit, Maßnahmen zu definieren, Qualität und Lieferperformance zu verbessern oder Kosten zu senken.

Data Analytics geht weit über Excel-Analysen hinaus. Wir integrieren neueste Software und Algorithmen aus dem Bereich Data Science, um Zusammenhänge zwischen den Daten zu erkennen und unseren Kunden neue Impulse für eine effiziente Zukunft zu geben.

Data Mining? Data Science? Data Engineering? Data …? Was ist der Unterschied zwischen diesen „Data“-Begriffen?

Es sind viele Begriffe im Umlauf, die alle eine leicht unterschiedliche Bedeutung haben, aber häufig synonym verwendet werden. Die Grenze zwischen Data Engineering, Data Mining und Data Science kann nicht immer ganz klar gezogen werden, daher bevorzugen wir den Begriff Data Analytics. Wir möchten nicht über das Vokabular diskutieren, sondern mit modernsten Tools und Technologien Lösungen für reale, datenbezogene Herausforderungen anbieten.

Wie kann Data Analytics meinem Unternehmen nutzen?

Bei der Fertigung und Logistik konzentrieren sich die wichtigsten Leistungsindikatoren auf die Qualität, die Kosten und die Lieferperformance.

Heutzutage werden nahezu in jedem Schritt der Wertschöpfungskette Daten generiert und gesammelt. Wie wäre es also, wenn Sie Ihre Entscheidungen auf der Basis all dieser Informationen treffen, die Ihnen zur Verfügung stehen? Oft werden die Datenquellen nicht miteinander in Verbindung gebracht und in ihrer Gesamtheit analysiert. Data Analytics hingegen nutzt das volle Potenzial der vorhandenen Daten.

Data Analytics kann dabei helfen, eine vollständige Transparenz der Wertschöpfungskette umzusetzen, die Hauptursachen für Qualitätsprobleme automatisch zu finden und eine optimale datenbasierte Strategie für eine Lösung festzulegen. Aber das ist noch nicht alles: Data Analytics kann auch Trends, Unregelmäßigkeiten und Engpässe erkennen, Prüfzeiten optimieren oder Maschinenausfälle vorhersagen, um Wartungsintervalle perfekt zu planen.

Kurzum, überall dort, wo Daten zur Verfügung stehen, hilft Data Analytics dabei, Informationen aus den Daten zu erhalten und eine gute Orientierung für eine effizientere und nachhaltigere Zukunft zu gewinnen.

Goldene Regeln von Data Analytics

Wenn Sie diese 5 Regeln befolgen, befinden Sie sich auf dem richtigen Weg:

1) Behalten Sie das Gesamtziel im Auge, beginnen Sie aber mit kleinen Schritten („Think big, start small“). Konzentrieren Sie sich auf Ihre nützlichen und realistischen Projekte.
2) Kennen Sie Ihre Daten: Seien Sie sorgfältig beim Sammeln, Vorbereiten und Bereinigen der Daten.
3) Achten Sie auf Datenverzerrungen (statistische Verzerrungen, Stichprobenauswahl, Filterung, usw.)
4) Seien Sie kreativ bei der Anwendung von Datenanalyse-Methoden und von Machine Learning, denn Ihr Lieblingsmodell wird nicht alle Probleme lösen.
5) Überlegen und kommunizieren! Das erfolgreichste Projektteam besteht aus Fachbereichs- und Datenexperten, die Ihre Ergebnisse gemeinsam auswerten.

Wie werden die Data Analytics-Serviceprojekte umgesetzt?

Das Vorgehen unserer Professional Services orientiert sich an dem Cross Industry Standard Process for Data Mining (CRIP-DM). Diesen wenden wir in Manufacturing Analytics-Projekten an und erweitern ihn mit „Technical Process Understanding“ um eine wesentliche Komponente. Warum ist das entscheidend? Erfahrungsgemäß ist eine rein datenorientierte Analyse meist nicht zielführend. Daher stellen wir bei Kundenprojekten das fachliche Verständnis des Kundenproblems und technischen Prozesses im Datenkontext an die erste Stelle.

Unsere Data Analytics Engineers begleiten Sie bei der Planung und in der Durchführung Ihres Analytics-Projektes. Sie profitieren von Experten mit langjähriger operativer Erfahrung aus dem Fertigungsumfeld an Ihrer Seite!