Cloud Daten Analyse für Predictive Quality

Was ist Predictive Quality?

Schlechte Qualität kostet viel Geld und bleibt lange im Gedächtnis. Gute Qualität dagegen ist, wenn der Kunde zurückkommt – und nicht das Produkt. Doch wie lässt sich Qualität in der Fertigung zuverlässig erreichen? Predictive Quality ist ein vorausschauender, datenbasierter Ansatz, der die Güte der Prozesse in der Herstellung und des Produkts im anschließenden Einsatz sicherstellen soll.

Definition: Predictive Quality

Predictive Quality oder prädiktive Qualitätssicherung beschreibt die kontinuierliche Optimierung der prozess- und produktbezogenen Qualität mittels datengestützter Prognosen – von der Produktionsplanung bis zur prädiktiven Wartung. Man schaut sich relevante Faktoren an, um Aussagen über die künftige Qualität zu machen – und gegebenenfalls Maßnahmen einzuleiten, die diese verbessern. Bisher unbekannte Muster und Zusammenhänge in den Variablen werden mittels Datenanalyse aufgedeckt. Anhand dieser Erkenntnisse und mithilfe von künstlicher Intelligenz (KI) und Machine Learning werden Prognosemodelle erstellt, die Wahrscheinlichkeiten zur Prozess- und Produktqualität berechnen.

Neben einer Optimierung eröffnet Predictive Quality sogar neue Geschäftsmodelle. Denn Kunden möchten heute oft nur noch für die tatsächlich erbrachte Leistung zahlen. Gekauft wird dann beispielsweise kein Motor, sondern lediglich die garantierte Umdrehungszahl. Umso wichtiger ist es für den Hersteller, Leistungsabfälle oder gar Ausfälle zu vermeiden.

Predictive Quality vs. Predictive Maintenance – der Unterschied

Es ist nicht einfach, eine ganz klare Trennlinie zwischen Predictive Quality und Predictive Maintenance zu ziehen. Predictive Quality bezieht sich eher auf die Prozesse bei der Herstellung, Predictive Maintenance (als ein Teil von Predictive Quality) auf das ausgelieferte Produkt. Bei der Sicherung der Prozessqualität geht es hauptsächlich darum, Ausschuss zu reduzieren. Bei der prädiktiven Wartung darum, den Ausfall einer Maschine oder eines Gerätes im Einsatz beim Kunden zu vermeiden. Dabei ist es wichtig, vorausschauend zu handeln, aber auch nicht zu früh. Denn der Ausbau einer bestimmten Komponente nach einem definierten Zeitraum (wie bei einem Preventive-Ansatz) ohne konkrete Notwendigkeit verursacht ebenfalls unnötige Kosten.

Diskrete Fertigung vs. nicht diskrete Fertigung

Bei den Definitionen von Predictive Quality ist zu unterscheiden, ob sich ein Produkt im Herstellungsprozess (Shopfloor) oder im Einsatz beim Kunden (Field) befindet. Die datengetriebenen Vorhersagen zur Qualität beziehen sich in der diskreten Fertigung stärker auf Herstellungsprozesse und in der nicht diskreten Fertigung auf das reibungslose Funktionieren eines bereits ausgelieferten Produkts.

In der diskreten Fertigung wird oft mit fortschrittlichen KI- und Machine Learning-Methoden wie Bilderkennung gearbeitet. Diese ermitteln diejenigen Variablen, die Ausschuss fördern. Indem deren Auswirkungen verringert werden, verbessert sich die Qualität der fabrizierten Produkte.

In der nicht diskreten Fertigung, also beim Einsatz des hergestellten Produktes, lassen sich beispielsweise historische Daten nutzen. So können Informationen zu vorangegangenen Regressforderungen herangezogen werden, um Aussagen über potenzielle Ausfälle zu machen.

Herstellungsprozess mit Predictive Quality verwalten

Umsetzung der Qualitätssicherung

Die Daten für Aussagen zu Predictive Quality sind zum großen Teil vorhanden – sei es durch Sensormessung oder in Form von Dokumentation (beispielsweise aus der Produktnutzung oder als Kunden-Feedback aus Online-Kanälen). Mit diesen Informationen werden Algorithmen trainiert, die dann automatisch Prognosen erstellen. Der datenintensive Prozess erfordert eine sehr hohe Rechenleistung. Eine Cloud-Infrastruktur kann die benötigten Kapazitäten liefern. Über Schnittstellen lassen sich die gewonnenen Erkenntnisse bereitstellen. Intelligente Lösungen erkennen mittels KI und Machine Learning-Methoden Abweichungen vom Standard oder Güteabfälle. Dazu gehören beispielsweise Cloud-Services für Bilderkennung oder Vorhersagemodule in Form von AWS Microservices.

Für die Interpretation der Daten im Rahmen von Predictive Quality sind Experten im Unternehmen entscheidend. Datenanalysten oder Data Scientists passen die Algorithmen und KI-Modelle anhand bisheriger Analyseergebnisse in Form regelmäßiger Feedbackschleifen permanent an. Diese Spezialisten müssen gleichzeitig in der Lage sein, ihre Erkenntnisse so zu kommunizieren, dass sie der Kundendiensttechniker beim Anwender vor Ort in konkrete Handlungen (zum Beispiel Austausch einer bestimmten Komponente) umsetzen kann. Gesucht werden für diese Aufgabe Mitarbeiter, die Datenexpertise mit Industrie-Know-how verbinden. Festzulegen ist vorab zudem, welches Wissen genau benötigt wird, um Handlungsentscheidungen abzuleiten, wie dieses Wissen aufbereitet werden muss und welche Prognosegüte erforderlich ist.

Vorteile von Predictive Quality

Die Analyse von Daten zum Herstellungsprozess oder zum Produkteinsatz bringt zahlreiche übergreifende Vorteile für das gesamte Unternehmen.

  • Kostenreduktion: Es wird weniger Ausschuss produziert, Unternehmensressourcen lassen sich einsparen und Rückrufaktionen minimieren. Zudem können Unternehmen Regresskosten und unnötige Wartungen vermeiden.
  • Planungssicherheit: Lieferketten werden mit Predictive Quality besser kontrollierbar, robuster und daher weniger anfällig für Unterbrechungen. Darüber hinaus lässt sich der Einsatz von Ressourcen und Rohmaterial optimieren.
  • Imageschutz: Renommeeverluste, verursacht durch geringe Qualität oder Ausfälle von Produkten, lassen sich vermeiden.
    Neue Geschäftsmodelle: Der Kunde kauft im Rahmen eines Subskriptionsmodells eine Leistung statt eines Produkts. Die hohe Produktverfügbarkeit dank Predictive Maintenance verschafft dem Anbieter Wettbewerbsvorteile und rechtfertigt entsprechende Preismodelle.
  • Rechtssicherheit: Zuverlässige Prognosen schaffen eine sichere Grundlage für Service Level Agreements (SLA). Zudem können Unternehmen Regressforderungen vermeiden.
  • Nachhaltigkeit: Kunden achten immer häufiger auf die verantwortliche Haltung eines Anbieters. Optimierte Prozesse bilden die Grundlage für eine ressourcenschonende Herstellung von Produkten und eine Minimierung von Ausschuss.
  • Kundenzufriedenheit: Gerade mit dem Feedback von Käufern zum Produkt lässt sich dieses sukzessive verbessern und an Kundenerwartungen anpassen.

Beispielszenario: Ausschussprognosen in Produktionsketten

Ein Hersteller von Autolampen hat sich zum Ziel gesetzt, in der Phase der Produktherstellung seinen Ausschuss zu minimieren und die Prozessrobustheit zu steigern. Dies lässt sich im Sinne von Predictive Quality durch das Training und die Anwendung von Prognosemodellen erreichen, die optimale Prozessparameter ermitteln. Das Unternehmen wertet Daten zu Produkten und Prozessen entlang der Fertigungslinie aus, die in großem Umfang über das MES bereitstehen. Auf Basis der MES-Daten der gesamten Fertigungskette wird ein prädiktives Grey-Box Modell trainiert. Ein Prognosemodell macht Vorhersagen zu Ausschussteilen im letzten Prozessschritt der Fertigungskette, denn dort entstehen besonders hohe Kosten. Mit diesem Modell lassen sich die Hauptfaktoren für die Ausschussrate identifizieren und erste Handlungsempfehlungen ableiten, um diese zu senken.

Beispielszenario: Digitales Assistenzsystem in der prädiktiven Wartung

Ein Hersteller will Wartungen für seine Geräte im Feld optimieren, indem das Risiko für Fehldiagnosen gesenkt wird. Das Unternehmen setzt dafür ein datengetriebenes, kontinuierlich lernendes Assistenzsystem (Digital Diagnosis Assistent, DDA) ein. Dieses gibt Entscheidungsunterstützung, um die Wahrscheinlichkeit eines unnötigen Austauschs von Komponenten oder Geräten zu verringern. Gleichzeitig wird damit – unabhängig vom Erfahrungswissen des Technikers – die Erst-Erledigungsquote erhöht.

Das Assistentensystem wird dazu mit historischen Daten vorangegangener Einsätze trainiert. Zudem fließt die Analyse unterschiedlicher Daten zum aktuellen Fall (direkte Beobachtungen, Fehlercode des Geräts, Auftragsannahme im Servicecenter) in die Bewertung der Situation vor Ort ein. Der Techniker bekommt eine Vorschlagsliste mit Aussagen zur Wahrscheinlichkeit, dass ein Komponententausch den gewünschten Effekt bringt – und kann sich für den meistversprechenden entscheiden.

Die Zielgenauigkeit der Prognose mit DDA lässt sich signifikant steigern im Vergleich zu Technikern ohne DDA. Die nächste Stufe der Prädiktion ist die Fehlervermeidung. Durch eine Analyse des kontinuierlichen Datenstroms zwischen Endgerät und Assistenzsystem werden Empfehlungen für einen Komponentenaustausch oder ein Softwareupdate ermöglicht, bevor das Gerät ausfällt.

Predictive Quality als Wettbewerbsvorteil

Qualitätsmanagement ist ein wichtiger Faktor für den wirtschaftlichen Erfolg von Unternehmen. Heutzutage reicht es jedoch nicht mehr, in die Vergangenheit zu schauen. Stattdessen werden Datenanalysen benötigt, die zeigen, was passieren könnte, um Kosten und einen möglichen Imageschaden abzuwenden. Prädiktive Qualitätssicherung ist daher ein Wettbewerbsvorteil, den Hersteller nutzen sollten. Ein IT-Dienstleister kann dabei helfen – einerseits über die Bereitstellung einer Cloud-Infrastruktur, andererseits über neuartige Angebote wie Quality as a Service. Eine weitere Option ist WaaS – Warranty-as-a-Service, im Sinne von Gewährleistungsmanagement als Cloud-basierter Lösung. So bleiben Investitionen und Ressourceneinsatz auf Herstellerseite in einem überschaubaren Rahmen. Sprechen Sie mit unseren Experten, welche Variante für Sie die richtige ist.

Sprechen Sie
mit unserem Experten!
Domink Schäfer - Lead Solution Architect SAP Business Innovation
Domink Schäfer
Lead Solution Architect
SAP Business Innovation
E-Mail schreiben
+49 173 305 4112
Bereit für Künstliche Intelligenz und Machine Learning Whitepaper

Whitepaper

Ausgewählte Posts

Herausforderungen kunstliche intelligenz

Bei diesen vier Herausforderungen profitiert der industrielle Mittelstand von KI

Vorteile der sicherheit in der cloud

Vier Vorteile von Backups in der Cloud mit einer zentralen Schnittstelle

Nutzung von CxLink Data Lakes zur integration von SAP daten

Warum CxLink Data Lakes die beste Wahl für Ihre SAP-Datenintegration in AWS sind