

Wissen, das kleben bleibt – jetzt den NEWSLETTER kostenfrei sichern. www.digital-manufacturing-magazin.de/newsletter
![]()


Wissen, das kleben bleibt – jetzt den NEWSLETTER kostenfrei sichern. www.digital-manufacturing-magazin.de/newsletter
Liebe Leserinnen und Leser,
künstliche Intelligenz (KI) entwickelt sich zunehmend zu einer Schlüsseltechnologie – nicht nur für innovative Produkte, sondern vor allem für effizientere Produktionsprozesse. Unternehmen, die KI gezielt in der Fertigung einsetzen, schaffen damit eine wichtige Grundlage für langfristige Wettbewerbsfähigkeit und höhere Produktivität.
Industrielle KI ermöglicht es, Abläufe in Produktion und Montage datenbasiert zu analysieren, zu steuern und kontinuierlich zu verbessern. Gerade im Maschinenbau, der von hoher Variantenvielfalt, kleinen Losgrößen und anspruchsvollen Qualitätsanforderungen geprägt ist, eröffnen sich dadurch neue Chancen. Anwendungen reichen von intelligenter Produktionsplanung über Predictive Maintenance bis hin zu automatisierter Qualitätssicherung.
Auch in der Intralogistik zeigt sich das Potenzial von KI immer deutlicher. Lernfähige Systeme können Materialflüsse transparenter machen, mögliche Engpässe frühzeitig erkennen und Abläufe gezielt optimieren. Das trägt dazu bei, Liefertermine zuverlässiger einzuhalten – ein wichtiger Faktor in einem stark umkämpften Marktumfeld.
Voraussetzung für den erfolgreichen Einsatz von KI ist jedoch eine leistungsfähige digitale Infrastruktur. Denn datengetriebene Anwendungen benötigen große Mengen hochwertiger Daten, die schnell verfügbar sein müssen. Leistungsfähige Rechenzentren und Edge-Computing-Lösungen bilden deshalb die Grundlage, um KI-Anwendungen in Echtzeit betreiben zu können.
In dieser Sonderausgabe zeigen wir Ihnen, was Unternehmen über KI in der Fertigungsindustrie wissen müssen.
Lesen Sie beispielsweise in unserer Titelstory auf den Seiten 6 und 7, warum man erst Ordnung in den Daten schaffen muss, bevor man künstliche Intelligenz (KI) erfolgreich nutzen kann.
Und welche KI-Use Cases bereits heute funktionieren, wo die größten Hürden beim Einsatz von KI liegen und wie Unternehmen KI erfolgreich in ihre Prozesse integrieren können, erläutern Ihnen elf Expertinnen und Experten aus Industrie und Forschung, die wir in unserer großen KI-Expertenumfrage interviewt haben. Die Antworten finden Sie auf den Seiten 18 bis 23.
Viel Spaß beim Lesen!
Ihr
Rainer Trummer Chefredakteur

18
VOM HYPE ZUR ECHTEN WERTSCHÖPFUNG
Wo schafft künstliche Intelligenz in der Industrie heute wirklich Mehrwert – und warum scheitern viele Projekte noch an Daten, Organisation und Skalierung? Elf Expertinnen und Experten aus Industrie und Forschung zeigen, welche Use Cases funktionieren, wo die größten Hürden liegen und wie Unternehmen KI erfolgreich in ihre Prozesse integrieren.
Bild: © Gorodenkoff/stock.adobe.com

News
Neues aus der KI-Welt 5
Titelstory: Erfolgsfaktor strukturierte Daten So wird Ihre Produktion KI-ready 6
KI-Souveränität als Fundament einer resilienten Industrie
KI-Systeme selbstbestimmt einsetzen 8
KI-Readiness beginnt in der Anlagen-IT Infrastruktur entscheidet 10
Computing-Plattform für vertrauenswürdige KI
Warum industrielle
KI-Anwendungen oft enttäuschen 12
Interview mit Patrick Nebout, Yanfeng
So prägt KI die automobile Zukunft 14
Expertenumfrage: KI in der Fertigungsindustrie Vom Hype zur echten Wertschöpfung 18
KI in der Produktionsplanung Weniger Überraschungen, weniger Umplanungen 24
ERP trifft künstliche Intelligenz Warum der KI-Erfolg im Datenkeller entschieden wird 26
KI im Mittelstand Warum strukturiertes Wissen entscheidend ist 28
Datensicherheit und digitale Souveränität m KI-Kontext
Mehr Kontrolle über Daten, weniger Risiko 30
Agentenbasierte KI in der Industrie Produktdaten sind die Basis 32
KI revolutioniert die Fertigungshallen nicht, um bewährte ERP-Systeme zu ersetzen, sondern um sie gezielt zu erweitern. Sie ermöglicht schnellere Entscheidungen, proaktive Warnmeldungen und automatisierte Routineaufgaben. Erfahren Sie, warum saubere ERP-Prozesse entscheidend sind und wo sich KI-Agenten im Shopfloor konkret einsetzen lassen.
Bild: © yoh4nn via Getty Images
KI macht Computer Vision zum strategischen Werkzeug der Fertigung
KI als Schlüsseltechnologie 34
IT-Infrastruktur für KI auf dem Shopfloor
KI in der Fertigung – IT am Limit? 36
Präzision durch Vernetzung
Sensoren: Das Nervensystem der Fabrik 38
Durchlaufzeiten im Werkzeugbau verkürzen Systematische KI-Integration in der Auftragsabwicklung 40
KI und Chaos Engineering in der vernetzten Produktion Die Zukunft der Fertigung sichern 42
KI-gestützte Lösungen für QMS und IMS Effizienz und Normkonformität durch KI-Unterstützung 44
KI-Fabrik: Telekom baut Deutschland-Stack aus Souveräne KI-Plattform aus einer Hand 46 Editorial 3 Impressum 45

TITELSTORY: SO WIRD IHRE
PRODUKTION KI-READY
Künstliche Intelligenz verspricht die Revolution in der Fertigung – so die Theorie. In der Praxis herrscht Ernüchterung. Schuld daran ist meistens eine unzureichende Datenbasis. Warum Sie erst Ordnung in Ihren Daten schaffen müssen, bevor Sie künstliche Intelligenz (KI) erfolgreich nutzen können. Ein Fahrplan für die Produktion von morgen. SEITE 6
REDAKTIONELL ERWÄHNTE INSTITUTIONEN, ANBIETER UND VERANSTALTER
Appian S. 18, Aptean S. 19, 26, Cadfem S. 19, Consense S. 44, DC Smarter S. 36, Dell S. 34, Deutsche Telekom S. 46, Dynatrace S. 42, Elunic S. 19, Empolis S. 28, Fabasoft Approve S. 20, 30, IFS S. 20, Inform S. 24, it’s OWL S. 21, Kyndryl S. 10, Megla S. 22, MHP S. 22, MPDV S. 6, 23, NTT Data S. 38, Palo Alto Networks S. 5, Proalpha S. 28, PTC S. 32, ServiceNow S. 46, Siemens S. 5, 23, Signaloid S. 12, VDMA S. 8, WBA Aachener Werkzeugbau Akademie S. 40, Yangfeng S. 14

TITELANZEIGE: MPDV
SO WIRD IHRE
PRODUKTION KI-READY
MPDV, Spezialist für Fertigungs-IT, bildet mit seinem Portfolio die gesamte Wertschöpfungskette der Produktion ab. Sie reicht von Beratung, Planung, Implementierung bis hin zu Support, mit dem Ziel, die Wettbewerbsfähigkeit zu steigern und Kunden auf dem Weg zur Smart Factory zu begleiten. Durch die nahtlose Datenerfassung mit MES HYDRA X bekommen Betriebsleiter einen tiefen Einblick in den Zustand der Fertigung. Dadurch können sie auf ungeplante Ereignisse reagieren und datengestützte Entscheidungen treffen. Die Basis der hochskalierbaren Lösungen von MPDV bildet die Manufacturing Integration Platform (MIP). Damit lassen sich produktionsrelevante Anwendungen anbinden, auch von Drittanbietern und Legacy-Systemen. Die AI Suite ermöglicht den Einsatz von künstlicher Intelligenz ohne Trainings-Aufwand.
MPDV Mikrolab GmbH
Römerring 1
74821 Mosbach, Deutschland
Telefon: +49 62 61 92 09-10 1
E-Mail: info@mpdv.com www.mpdv.com


SIEMENS UND PALO ALTO NETWORKS
Siemens hat heute eine verifizierte Cybersecurity-Lösung für industrielle private 5G-Netzwerke in Zusammenarbeit mit Palo Alto Networks angekündigt. Die Lösung kombiniert Siemens‘ private 5G-Infrastruktur mit der NextGeneration Firewall (NGFW) von Palo Alto Networks, die speziell für künstliche Intelligenz (KI) optimiert wurde. Siemens hat die Lösung umfassend getestet, um hohe Verfügbarkeit, Netzwerkresilienz und unterbrechungsfreien Betrieb sicherzustellen. Sie ermöglicht es Herstellern, unterschiedliche
Aptean (Halle 15, Stand D29) integriert ERP, Produktion und KI in AppCentral
Produktionsunternehmen müssen heute gleichzeitig Variantenvielfalt, schwankende Lieferketten und steigende Transparenz meistern. Klassische ERP-Systeme bilden zwar das Rückgrat der Unternehmenssteuerung, stoßen aber schnell an ihre Grenzen, sobald Prozesse über Abteilungen, Werke und Systeme hinweg koordiniert werden müssen.
Genau hier setzt AppCentral an. Mit AppCentral bringt Aptean ERP, MES, WMS, CRM, PLM auf einer Oberfläche zusammen. Die cloudbasierte, KI-native Lösung sorgt für durchgängige Datenflüsse statt isolierter Insellösungen und bildet die Grundlage für Smart-Factory-Konzepte sowie eine effiziente Variantenfertigung. Am ApteanMessestand auf der Hannover Messe 2026 (Halle 15, Stand D29) können Besucher live erleben, wie AppCentral Datensilos auflöst und Prozesse über Abteilungsgrenzen hinweg synchronisiert.
Ein wesentliches Merkmal ist die tief integrierte KI-Schicht Aptean Intelligence. Eingebettete KI-Agenten analysieren operative Daten in Echtzeit, automatisieren wiederkehrende Aufgaben und erkennen Abweichungen frühzeitig. In der Produktion lassen sich so beispielsweise Engpässe prognostizieren und Materialflüsse optimieren.
Modularität
AppCentral verfolgt einen modularen Ansatz: Unternehmen können mit einzelnen Anwendungen starten und den Funktionsumfang schrittweise erweitern. Alle Apps sind von Beginn an miteinander vernetzt, sodass Transparenz und Datenkonsistenz jederzeit erhalten bleiben. Die Plattform passt sich flexibel an branchenspezifische Anforderungen an – sei es in der diskreten Fertigung, in der Prozessindustrie oder im Handel – und vereint detaillierte Prozesskontrolle mit unternehmensweiter Flexi-
Siemens und Palo Alto Networks bieten geprüfte Cybersecurity-Lösung für industrielles 5G.
Bild: Siemens
industrielle Sicherheitsanforderungen zu erfüllen und gleichzeitig die kritische Leistung aufrechtzuerhalten, die ihre zunehmend KI-gesteuerten Produktionen erfordern.
Die verifizierte Architektur erfüllt die IEC-62443-Anforderungen für die Sicherheit industrieller Automatisierungs- und Steuerungssysteme und erhält gleichzeitig die Leistungsmerkmale aufrecht, die für zeitkritische Produktionsanwendungen essenziell sind. Die Lösung ist als Teil des SiemensXcelerator-Portfolios verfügbar.

AppCentral vereint ERP, Produktions-, Logistik- und KI-Funktionen in einer Oberfläche und ermöglicht durchgängige Transparenz entlang der gesamten Wertschöpfungskette. Bild: Aptean
bilität. Das ERP wird vom reinen Verwaltungssystem zum zentralen, intelligenten Steuerungsinstrument.
Aptean Germany GmbH

Pforzheimer Straße 128 76275 Ettlingen, Deutschland
TEL.: +49 72 43 20 67-2 00
E-MAIL: germany@aptean.com
www.aptean.com

Um KI erfolgreich zu nutzen, müssen Produktionsunternehmen eine verlässliche Datenbasis schaffen. Wer Daten-Schrott liefert, bekommt KI-Schrott zurück. Bild: © Margarita/stock.adobe.com (generiert mit KI)
Künstliche Intelligenz verspricht die Revolution in der Fertigung – so die Theorie. In der Praxis herrscht Ernüchterung. Schuld daran ist meistens eine unzureichende Datenbasis. Warum Sie erst Ordnung in Ihren Daten schaffen müssen, bevor Sie künstliche Intelligenz (KI) erfolgreich nutzen können. Ein Fahrplan für die Produktion von morgen. VON CHRISTIANE MANOW-LE RUYET
In den Chefetagen und an den Werkbänken der Produktionsbetriebe ist das Kürzel „KI“ omnipräsent. Die Erwartungen stiegen ins Unermessliche, sodass schon mancher Produktionsleiter von künstlicher Intelligenz als Lösung für alle Herausforderungen in der Produktion träumte. Inzwischen weicht die anfängliche Euphorie nüchternem Realismus. Die Zahlen aus der Bitkom-Studie „Künstliche Intelligenz in Deutschland“ von 2025 (Datenbasis: 602 Unternehmen) zeigen: 88 Prozent der befragten Unternehmen in Deutschland nutzen KI, 21 Prozent für Produktionsabläufe.
Der Grund: Etwa 53 Prozent plagen technische Probleme, und neben mangelnden menschlichen Ressourcen fehlt für KI-Anwendungen auch die Akzeptanz unter den Mitarbeitenden. Fraunhofer skizziert 2024 in der Studie „Künstliche Intelligenz in der Produktion“ ein enttäuschendes Bild: Demnach verwenden produzierende Be -
triebe KI-Lösungen meistens nur in einzelnen Bereichen, wie etwa der Steuerung von Produktionsprozessen. Viele künstlichintelligenten Projekte scheitern an einer einfachen Erkenntnis: KI ist nur so klug wie die Daten, auf die sie zugreift. Wer DatenSchrott liefert, bekommt KI-Schrott zurück.
NEBEN MANGELNDEN MENSCHLICHEN RESSOURCEN FEHLT FÜR KI-ANWENDUNGEN OFT AUCH DIE AKZEPTANZ UNTER DEN MITARBEITENDEN.
Damit ein schlauer Algorithmus auf dem Shopfloor wirklich einen Mehrwert bietet, müssen Produktionsunternehmen eine auswertbare, valide Datenbasis schaffen. Dabei geht es um drei Säulen, die das
Fundament jeder smarten Fabrik bilden. Sie lauten:
Transparenz: Zunächst muss eruiert werden, welche Daten überhaupt existieren. Wo verstecken sich zum Beispiel die Sensordaten der Fräsmaschine? Welche Maschinenparameter liegen brach? Struktur: Rohdaten ohne Kontext sind ebenso wertlos wie keine Daten. Eine Temperaturangabe etwa ohne Zeitstempel oder Maschinenbezug ist für eine KI unlesbar. Erst durch eine einheitliche Struktur und Semantik wird aus einem Datenstrom eine Information. Auswertbarkeit: Daten müssen in Echtzeit und in einer Qualität vorliegen, die eine Analyse überhaupt erst ermöglicht. Silo-Lösungen sind deshalb meistens kontraproduktiv.
Digitales Rückgrat
Wie schafft man diese Basis technisch? Hier kommt das Manufacturing-Execution-
System (MES) ins Spiel. Es fungiert als das Nervensystem der Produktion. Das MES liefert die vertikale Integration vom Shopfloor bis zum ERP-System.
Damit ist der Grundstein für die Anknüpfungspunkte der KI gelegt. Die Experten von Fraunhofer erklären dazu: „So setzt knapp jeder dritte Betrieb, der eine technische Lösung für echtzeitnahe Produktionsleitsystem verwendet, auch KI in der Produktion ein; im Gegensatz dazu nutzen nur 13 Prozent der Betriebe ohne echtzeitnahes Produktionsleitsystem eine KI“, wie es in der Studie „Künstliche Intelligenz in der Produktion“ heißt.
Die Kombination mit einer Integrationsplattform sorgt dafür, dass unterschiedliche Protokolle und Legacy-Systeme dieselbe Sprache sprechen. Ohne diese „Dolmetscher“ bleibt die KI isoliert und kann ihre volle Wirkung nicht entfalten. Da KI in der Regel in bestehende Systeme in der Produktion implementiert wird, ist es ein großes Plus, wenn die Integrationsplattform bereits vorhanden ist.
Produktionsunternehmen, die die Möglichkeiten strukturierter Daten erkannt und auf Digitalisierung per MES gesetzt haben, sind bei der KI-Einführung eindeutig im Vorteil: Sie können Maschinendaten, Qualitätsinformationen und Prozesskennzahlen, die im MES zusammenlaufen, von KI analysieren, interpretieren und die Erkenntnisse in Maßnahmen umsetzen lassen wie beispielsweise:
Qualitätsprognosen: Die KI erkennt Datenmuster und kann Qualitätsprobleme entdecken, bevor sie entstehen.
Ausschussanalyse: Anhand der Daten identifiziert sie die Ursachen und Zusammenhänge für Ausschuss. Maschinenleistungsanalyse: KI macht verborgene Potenziale bei der Nutzung und Effizienz von Anlagen sichtbar.
Rüstzeitprognosen: Sie erstellt realistische Vorgabewerte, wodurch sich die Planbarkeit verbessert, was Stillstände reduziert.
OEE-Optimierung: KI analysiert die Gesamtanlageneffektivität datenbasiert, die sich dadurch steigern lässt. Wer im Bereich Feinplanung bereits mit einem APS arbeitet und KI einsetzt, profitiert von einer Qualitätssteigerung für die Planung durch:
adaptive Produktionsplanung: Neben anstehenden Aufträgen berücksichtigt
die KI auch Maschinenzustandsdaten, den Werkzeugeinsatz sowie die Materialflüsse in Echtzeit.
Personaleinsatzplanung: Dank intelligenter Datenauswertung lassen sich auch die Qualifikationen und Verfügbarkeiten der Mitarbeitenden berücksichtigen.
Szenarien-Vergleiche: Ohne den laufenden Betrieb zu unterbrechen, können per KI neue Planungsszenarien simuliert und verglichen werden.
„Die KI kann die Masse an Informationen in der Fertigungsplanung viel besser abbilden als der Mensch. Bei uns im Unternehmen ist das unabdingbar – die KI ist unser wesentliches Element in diesem Zusammenhang“, erklärt Kevin Mahler, COO bei Vacom.
Um den nachhaltigen Erfolg von KISystemen in der Produktion zu sichern, muss man in der Produktion einen strategischen Experten-Mix sicherstellen. Dies gelingt entweder durch den Auf -
DAMIT KI AUF DEM SHOPFLOOR EINEN MEHRWERT BIETET, MÜSSEN PRODUKTIONSUNTERNEHMEN EINE AUSWERTBARE, VALIDE DATENBASIS SCHAFFEN.
bau fester Partnerschaften mit externen Dienstleistern oder gezieltes Recruiting spezialisierter KI-Experten. Parallel dazu ist es entscheidend, ein digitales Grund -

Laut einer Fraunhofer-Studie profitieren Produktionsunternehmen, die eine technische Lösung für ein echtzeitnahes Produktionsleitsystem wie ein MES nutzen, am meisten von KI-Lösungen.
Bild: © jahidmoon026/stock.adobe.com (generiert mit KI)
Künstliche Intelligenz in der Fertigung einzuführen, ist kein reines IT-Projekt, um Ordnung zu schaffen. Vielmehr erfordert KI eine tiefgreifende Transformation in der Arbeitswelt, eine klare Strategie sowie ein Commitment von der Unternehmensführung. Damit Algorithmen messbare Produktivitätssteigerungen liefern, müssen Produktionsleiter den Aufbau von KI-Know-how ins Zentrum ihrer Strategie rücken. KI-Systeme sind nur so effektiv wie die Menschen, die sie bedienen.
verständnis bei den Mitarbeitenden im Shopfloor zu verankern. Nur wenn sie im MES-Umfeld befähigt werden, KI-Vorschläge nicht blind zu übernehmen, sondern diese kritisch auf Basis ihrer Erfahrung zu bewerten, steigt die Akzeptanz für proaktive Maßnahmen. Produktionsunternehmen sollten zudem die Ergebnisse der KI-Maßnahmen messen. Nur so lässt sich feststellen, inwieweit KI-basierte Handlungsempfehlungen tatsächlich in die tägliche Routine einfließen. Oder ob durch gezielte Qualifikationen die Akzeptanzquote für KI sowie die Kompetenz für Problemlösungen nachweislich gestiegen sind. RT
CHRISTIANE MANOW-LE RUYET ist Marketing-Managerin und Presseverantwortliche bei MPDV.
Der deutsche Maschinenbau steht unter Druck. Geopolitische Spannungen, anfällige Lieferketten, steigende regulatorische Anforderungen und ein verschärfter globaler Wettbewerb um digitale Schlüsseltechnologien verändern die Rahmenbedingungen nachhaltig. Für die Unternehmen geht es deshalb längst nicht mehr nur um Effizienzsteigerung, sondern um die Sicherung von Wettbewerbsfähigkeit, Innovationskraft und technologischer Handlungsfähigkeit. Im Zentrum dieser Entwicklung steht KI. VON JESSICA FRITZ
Künstliche Intelligenz (KI) wird zunehmend zur Schlüsseltechnologie industrieller Wertschöpfung und damit auch zu einem strategischen Machtfaktor. Wer KI beherrscht, beeinflusst in wachsendem Maße Produktionsprozesse, Innovationszyklen und industrielle Wertschöpfungsnetzwerke. Gleichzeitig entstehen neue Abhängigkeiten entlang digitaler Wertschöpfungsketten, die bisher in dieser Form nicht bestanden haben.
Aus Sicht des VDMA ist daher klar: KISouveränität ist keine technologische Detailfrage, sondern eine industriepolitische Notwendigkeit.
KI-Souveränität beschreibt die Fähigkeit von Unternehmen, KI-Systeme selbstbestimmt einzusetzen, die Kontrolle über relevante Daten, Modelle und Infrastrukturen zu wahren und technologische Abhängigkeiten bewusst zu steuern, unabhängig davon, ob die Lösungen selbst entwickelt oder extern bezogen werden.
Damit rückt eine zentrale Frage in den Mittelpunkt: Wer behält die Kontrolle über die digitalen Grundlagen industrieller Wertschöpfung?
Schon heute ist erkennbar, dass zentrale KI-Kompetenzen und Infrastrukturen stark außerhalb Europas gebündelt sind. Diese Abhängigkeiten wirken sich nicht nur auf Kostenstrukturen und Innovationsgeschwindigkeit aus. Sie betreffen ebenso die Verfügbarkeit kritischer Technologien und damit die Stabilität und Integrität industrieller Prozesse. Hinzu kommt, dass sich die Wertschöpfung zunehmend in Richtung datenbasierter Geschäftsmodelle verschiebt, wodurch sich bestehende Wettbewerbspositionen grundlegend verändern können.
Nur begrenzter Zugang zu skalierbaren digitalen Infrastrukturen
Für den mittelständisch geprägten Maschinen- und Anlagenbau stellt sich diese


KI-SOUVERÄNITÄT IST KEINE TECHNOLOGISCHE DETAILFRAGE, SONDERN EINE INDUSTRIEPOLITISCHE NOTWENDIGKEIT.
Herausforderung besonders deutlich. Viele Unternehmen verfügen über ausgeprägtes Prozesswissen und tiefes Domänenverständnis, haben aber nur begrenzten Zugang zu skalierbaren digitalen Infrastrukturen. Gleichzeitig wächst der Druck, KI rasch in bestehende Wertschöpfungsprozesse zu integrieren. Ohne geeignete Rahmenbedingungen droht hier eine strukturelle Abhängigkeit von einzelnen Technologieanbietern.
Die Folgen wären erheblich. Wer die Kontrolle über Daten und KI-Systeme verliert, verliert langfristig auch Einfluss auf zentrale Teile der eigenen Wertschöpfung. Strategische Entscheidungen werden dann nicht mehr allein im Unternehmen getroffen, sondern zunehmend durch technologische Vorgaben externer Akteure mitbestimmt.
KI-gestützte Steuerung in der Produktion: Daten und Systeme werden zu zentralen Steuerungsinstrumenten industrieller Prozesse. Bild: © Vadym/stock.adobe.com (generiert mit KI)

Vernetzte und KI-gestützte Produktionssysteme ermöglichen eine flexible und resiliente industrielle Wertschöpfung.
Bild: © kiki/stock.adobe.com (generiert mit KI)
Damit verschiebt sich auch die Machtbalance innerhalb industrieller Ökosysteme.
KI bietet große Potenziale für die Industrie
Gleichzeitig bietet KI erhebliche Potenziale für eine resilientere Industrie. KI-gestützte Optimierung kann Produktionsprozesse stabilisieren und effizienter machen. Vorausschauende Wartung hilft, ungeplante Stillstände zu reduzieren und die Anlagenverfügbarkeit zu erhöhen. Intelligente Steuerungssysteme ermöglichen es Unternehmen, flexibler auf Störungen und auf volatile Nachfragen zu reagieren. Auch in der Qualitätssicherung und im Energiemanagement eröffnet KI zusätzliche Effizienz- und Stabilitätspotenziale.
Diese Potenziale lassen sich jedoch nur dann umfassend nutzen, wenn Unternehmen die eingesetzten Technologien nicht nur anwenden, sondern auch verstehen, kontrollieren und aktiv gestalten können. Vor diesem Hintergrund braucht es klare industriepolitische Weichenstellungen. Erstens braucht Europa leistungsfähige und wettbewerbsfähige digitale Infrastrukturen, insbesondere in den Bereichen Cloud und Edge, die den Anforderungen industrieller Anwendungen gerecht werden und zugleich Verlässlichkeit und Kontrolle gewährleisten.
Zweitens müssen offene Standards und Interoperabilität konsequent gestärkt werden. Nur so können Unternehmen unterschiedliche Systeme miteinander verbinden, technologische Abhängigkeiten verringern und Innovationen flexibel in bestehende Strukturen integrieren. Drittens bleibt der Zugang zu Daten ein zentraler Erfolgsfaktor. Vertrauenswürdige Datenräume und gemeinsame Datenökosysteme ermöglichen es, Skaleneffekte zu erschließen, ohne die Kontrolle über unternehmenskritische Informationen aufzugeben. Gerade im industriellen Kontext entsteht Wertschöpfung häufig erst durch das Zusammenführen verteilter Datenquellen entlang der gesamten Wertschöpfungskette.
UND KI-SYSTEME VERLIERT, VERLIERT LANGFRISTIG AUCH EINFLUSS AUF ZENTRALE TEILE DER EIGENEN WERTSCHÖPFUNG.
Und viertens kommt der Ausgestaltung des regulatorischen Rahmens eine entscheidende Rolle zu. Der europäische AI Act setzt wichtige Leitplanken für Sicherheit und Vertrauen. Ebenso wichtig ist jedoch, dass seine Umsetzung innovationsfreundlich und praktikabel bleibt, damit industrielle Anwendungen nicht unnötig erschwert werden. Regulierung muss dabei als Enabler verstanden werden, nicht als Hemmnis.
KI ist Teil der unternehmerischen Souveränität Für die Unternehmen ergibt sich daraus ein klarer Handlungsauftrag. KI darf nicht allein als Instrument zur Effizienzsteigerung verstanden werden. Sie ist Teil unternehmerischer Souveränität. Entsprechend gilt es, Kompetenzen im Umgang mit Daten und KI aufzubauen, technologische Abhängigkeiten aktiv zu steuern und Investitionsentscheidungen konsequent an langfristige strategische Ziele auszurichten. Dazu gehört auch, eigene Datenstrategien zu entwickeln und Partnerschaften gezielt so zu gestalten, dass Kontrolle und Wertschöpfung im Unternehmen bleiben. Die industrielle Zukunft Europas entscheidet sich nicht allein im Wettlauf um die leistungsfähigsten Technologien. Sie entscheidet sich an der Frage, ob es gelingt, technologische Souveränität mit wirtschaftlicher Leistungsfähigkeit zu verbinden.
KI-Souveränität wird damit zu einem entscheidenden Faktor für eine Industrie, die auch unter unsicheren und geopolitisch geprägten Rahmenbedingungen handlungsfähig, resilient und wettbewerbsfähig bleibt. Sie ist die Voraussetzung dafür, dass industrielle Wertschöpfung auch in Zukunft in Europa gestaltet und nicht nur von außen vorgegeben wird. RT
JESSICA FRITZ ist Expertin Digitaltechnologien beim VDMA e.V. Informatik, Software und Digitalisierung.

Ein zentraler Engpass ist die fehlende Integration zwischen Produktionssystemen und UnternehmensIT. Daten aus Sensorik, PLC-, SCADA- und MESSystemen sind heterogen und oft ohne konsistente Zeitbasis oder eindeutige Anlagenzuordnung.
Bild: © panuwat/stock.adobe.com
In vielen Betrieben wird KI diskutiert, als reiche ein geeignetes Modell plus Datenanbindung. In der Praxis entscheidet jedoch nicht der Algorithmus, sondern die Belastbarkeit der technischen Basis. VON RAIK WEHSER
KI-Systeme erzeugen zusätzliche Rechenlast, erhöhen Datenvolumen und greifen in bestehende Prozessketten ein. Sie benötigen stabile Netze, skalierbare Plattformen, konsistente Datenstrukturen und klar geregelte Betriebsprozesse. Sind Infrastruktur, Datenarchitektur und Verantwortlichkeiten nicht darauf ausgelegt, wird aus einer KI-Initiative schnell ein Verfügbarkeits-, Sicherheitsoder Compliance-Risiko. KI-Readiness ist damit vor allem ein Infrastruktur-, Governance- und Betriebs-Thema.
Denn: Ein erheblicher Teil der produktionsnahen IT basiert auf Komponenten mit auslaufendem Hersteller-Support. Analysen aus dem „Kyndryl Manufacturing Readiness Report 2025“ zeigen, dass rund 29 Prozent der geschäftskritischen IT-Infrastruktur in der Fertigungsindustrie den HerstellerSupport bereits verloren haben oder kurz davorstehen. Dazu zählen Netzwerk-Infrastruktur, Speicher-Systeme sowie physische oder virtuelle Server-Systeme, auf denen produktionsnahe Anwendungen betrieben werden.
Fehlende Patches, knappe Ersatzteile und schwindendes Spezialwissen erhöhen das Ausfallrisiko. Gleichzeitig steigen Anforderungen an Audit-Fähigkeit und Schwachstellen-Management. Jede Modernisierung muss gegen bestehende Abhängigkeiten abgesichert werden. Zusätzliche KI-Workloads erhöhen die Komplexität weiter.
Fragmentierte System-Landschaften verhindern Skalierung
KI benötigt konsistente Daten, standardisierte Laufzeitumgebungen und einen über Werke hinweg einheitlichen Betrieb. In vielen Unternehmen ist die IT jedoch standortweise gewachsen. Unterschiedliche Architekturen, Schnittstellen und lokal optimierte Lösungen verhindern Skalierung. Ohne gemeinsame Datenplattform, einheitliche Identitäten und verbindliche Integrations-Standards bleibt jede Lösung ein Sonderfall. Piloten funktionieren, der Übergang in den Regelbetrieb scheitert an fehlender Zentralisierung von Monitoring, Change-Management und Security-Policies.
Gleichzeitig steigt der wirtschaftliche Druck. 63 Prozent berichten von höherem ROI-Druck auf KI-Investitionen, 54 Prozent sehen Innovation durch Probleme im Tech-Stack gebremst. Variierende Datenmodelle und Berechtigungskonzepte erhöhen Aufwand und Risiko.
KI BENÖTIGT KONSISTENTE DATEN, STANDARDISIERTE LAUFZEITUMGEBUNGEN UND EINEN ÜBER WERKE HINWEG EINHEITLICHEN BETRIEB.
Ein zentraler Engpass ist die fehlende Integration zwischen Produktionssystemen und Unternehmens-IT. Daten aus Sensorik, PLC-, SCADA- und MES-Systemen sind heterogen und oft ohne konsistente Zeitbasis oder eindeutige Anlagenzuordnung. Umbauten und Firmware-Updates verändern kontinuierlich die Datenlage. Ohne klare Datenverantwortung und kontrollierte
Change-Prozesse verlieren Modelle rasch an Verlässlichkeit.
Unkoordinierte Cloud-Strukturen verteuern den Betrieb
In vielen Unternehmen ist die Cloud-Nutzung gewachsen, statt geplant. 51 Prozent beschreiben ihre Cloud-Umgebung als zufällig entstanden, 94 Prozent würden ihre Cloud-Strategie rückblickend anpassen. Für KI ist das kritisch, weil Datenströme und Abhängigkeiten zwischen Edge-, Werknetz- und Cloud-Umgebungen abgestimmt sein müssen.
Fehlende Leitplanken führen zu redundanter Datenspeicherung, steigenden Latenzen und unscharfen Sicherheitsgrenzen. 40 Prozent investieren bereits in die Rückführung von Daten in eigene Infrastruktur-Umgebungen. Für Werke bedeutet das klare Netz-Segmentierung, definierte Datenpfade und eine Edge-Schicht, die Echtzeitanforderungen erfüllt und zugleich zentral steuerbar bleibt.
Modernisieren ohne Produktionsstillstand
Produktionssysteme lassen sich nicht wie Büroanwendungen migrieren. Anlagen laufen im Mehrschichtbetrieb, Stillstände verursachen direkte Kosten. Die Modernisierung erfordert Parallelbetrieb, schrittweise Migration und definierte Rückfalloptionen. Eine Resilienzarchitektur macht Abhängigkeiten transparent, segmentiert Systeme und kapselt Workloads, sodass Änderungen isoliert geprüft werden können. Zero-Downtime lautet die Devise. Doch das setzt Transparenz, automatisierte Tests und kontrollierte Release-Prozesse voraus. Für KI bedeutet das: Daten-Pipelines und Modelle werden wie produktionskritische Komponenten behandelt, mit Versionierung und klaren Rollback-Szenarien.
Hybrid-Architekturen als Risikomanagement
Cloud-Strategien stehen heute unter geopolitischem und regulatorischem Einfluss. 63 Prozent haben ihre Strategien ange -
passt, 75 Prozent sehen Risiken bei globaler Daten-Speicherung.
Hybrid- und Multicloud-Architekturen ermöglichen, Daten je nach Schutzbedarf gezielt zu platzieren und kritische Anwendungen kontrolliert zu betreiben. Voraussetzung ist eine durchgängige Steuerung über alle Plattformen hinweg. Einheitliche Identitäts- und Berechtigungskonzepte, technisch verankerte Compliance-Vorgaben und konsistente Telemetrie schaffen Transparenz. Ohne diese Klammer wächst mit jeder zusätzlichen Plattform die Komplexität.
Governance als Skalierungsbedingung
Mit KI verschärfen sich Fragen nach Verantwortlichkeit und Kontrolle. Werden generative Dienste genutzt, können sensible Produktionsdaten unbeabsichtigt in externe Systeme gelangen. Governance muss daher von Beginn an Teil der Architektur sein.
PRODUKTIONSSYSTEME
LASSEN SICH NICHT WIE BÜROANWENDUNGEN MIGRIEREN.
Datenklassifikation, geregelte Modellfreigaben, rollenbasierte Zugriffe und Protokollierung bilden die Grundlage. Dennoch halten 31 Prozent ihre KI-Implementierung nicht für ausreichend vorbereitet, um künftige Risiken zu beherrschen. Diese Lücke entsteht, wenn Sicherheitsarchitektur und
Betriebsprozesse erst nach Pilotprojekten nachgezogen werden.
Reifegrad als Ausgangspunkt
Unterstützung bietet zudem ein strukturierter Reifegrad-Ansatz wie der Industrial Artificial Intelligence Maturity Readiness Index (AIMRI. Das von der unabhängigen Non-Profit-Organisation International Centre for Industrial Transformation (INCIT) entwickelte Modell bewertet die KI-Fähigkeit von Industrieunternehmen entlang von 20 Dimensionen, darunter Strategie, Governance, Daten- und Infrastruktur-Fähigkeiten sowie operative Anwendungsfelder in Produktion, Lieferkette und Produktlebenszyklus-Management.
Der AIMRI ermöglicht so eine systematische Standortbestimmung, priorisiert Handlungsfelder und schafft Vergleichbarkeit. Damit wird deutlich, dass erfolgreiche KI-Transformation nicht bei Use Cases beginnt, sondern bei struktureller Reife von Organisation, Infrastruktur und Betriebsmodell.
Veraltete Komponenten, fragmentierte Datenräume und unkoordinierte CloudStrukturen machen KI teuer und riskant. Wer Modernisierung als Resilienz-Programm versteht und Governance konsequent im Regelbetrieb verankert, schafft die Grundlage für skalierbare KI in der Fertigung. RT
RAIK WEHSER ist Vice President Consult Partner Automotive & Manufacturing Industry bei Kyndryl Deutschland.
Mit KI verschärfen sich Fragen nach Verantwortlichkeit und Kontrolle. Werden generative Dienste genutzt, können sensible Produktionsdaten unbeabsichtigt in externe Systeme gelangen. Bild: © Dee karen/stock.adobe.com

Viele industrielle KI-Anwendungen enttäuschen in der Praxis. Oft liegt das nicht an den Algorithmen, sondern an der verwendeten Computing-Hardware. Denn die ist weder für die zu verarbeitenden Daten noch die benötigte Software optimiert. Neue Prozessoren, die nicht nur traditionelle Daten, sondern auch Wahrscheinlichkeitsverteilungen verarbeiten können, schaffen Abhilfe.
VON PROF. PHILLIP STANLEY-MARBELL
Steht eine große Automobilfabrik still, kann das mehr als 600 US-Dollar kosten – pro Sekunde. Das ermittelte Siemens im Jahr 2024. In anderen Industrien fällt der finanzielle Schaden zwar geringer aus. Dennoch gehören Ausfallzeiten auch hier längst zu Kostentreibern, die es unbedingt zu vermeiden gilt – egal, ob sie durch defekte Maschinen oder eigentlich überflüssige Routinewartungen verursacht werden.
Kein Wunder, dass Predictive Maintenance seit Jahren zu den industriellen Anwendungen für Künstliche Intelligenz bzw. Machine Learning gehört, denen das größte Potential zugeschrieben wird: Vorausschauende Wartung kann Ausfallzeiten um bis zu 50 Prozent verringern und die Lebenszeit von Anlagen um bis zu 40 Prozent verlängern.
Diese Zahlen bleiben für viele Unternehmen jedoch Theorie. Sie kommen nicht über die Phase von Pilotprojekten hinaus, die nicht die erhofften Resultate bringen. Eine Untersuchung von Bearing Point ergab, dass nur vier Prozent der Unternehmen das erwartete Potential von Predictive Maintenance ausschöpften. Auch andere KI-Projekte in der Industrie bleiben oft hinter den Erwartungen zurück. Woran liegt das?
Heutige Computing-Hardware ist für KI-Anwendungen nur bedingt geeignet Laut einer aktuellen Untersuchung von McKinsey, für die weltweit Industrie-COOs befragt wurden, scheitert der Einsatz von KI neben organisatorischen und kulturellen Faktoren häufig an unzureichender IT/OTInfrastruktur, ungeeigneter Hardware und
mangelhafter Datenqualität. Dabei spielt auch die Rechenarchitektur eine Rolle.
Denn zwischen heutiger Computerarchitektur und den Anforderungen moderner KI für Anwendungen wie Predictive Maintenance, der Optimierung von Produktionsabläufen oder Simulationen klafft eine Lücke. Praktisch alle gängigen Prozessoren – ob in SPS-Systemen, PCs oder Rechenzentren – sind deterministisch konzipiert: ein Wert hinein, ein Wert heraus. Sie verarbeiten einzelne, eindeutige Zahlenwerte und liefern als Ergebnis stets einen einzelnen Zahlenwert.
Die Hardware-Formfaktoren sind so konzipiert, dass sie sich leicht in bestehende Systeme nachrüsten lassen.


Für klassische Anwendungen ist das ideal. Eine Steuerung erhält ein Signal und löst exakt definierte Aktionen aus. Moderne KIund Analyseverfahren operieren jedoch in einer anderen Realität: Ihre Eingangsdaten sind selten exakt. Sie arbeiten mit Wahrscheinlichkeiten und Unsicherheiten. Ihr mathematisches Fundament ist nicht deterministisch, sondern probabilistisch. Das heißt: Deterministisch konzipierte Hardware, die einzelne Zahlenwerte ausgibt, obwohl die zugrundeliegenden Eingaben mit Unsicherheiten behaftet waren, wird zum Problem.
In der industriellen Produktion ist gerade die Unsicherheit von Daten allgegenwärtig. Kein Sensor misst perfekt. Vibrationsdaten enthalten Rauschen. Temperaturfühler haben begrenzte Auflösung. Messwerte driften. Hinzu kommen Modellannahmen und schwankende Betriebsbedingungen. Jeder Eingangswert ist daher nur eine Annäherung an die Realität. Wird diese Unsicherheit bei der Berechnung ignoriert, entstehen zwangsläufig Fehlentscheidungen. Predictive Maintenance zeigt das besonders deutlich. Erkennt ein Modell ein mögliches Problem, reicht es nicht zu wissen, dass „ein Ausfall droht“. Entscheidend ist: Wie wahrscheinlich ist dieser Ausfall? Liegt die Wahrscheinlichkeit bei vier Prozent, wird man anders handeln als bei neunzig Prozent. Ohne diese Einordnung bleibt jede Warnung entweder zu vorsichtig oder zu riskant.
Zentralisierung statt Edge-KI als technische Notlösung und mit neuen
Klassische Hardware kann die benötigten probabilistischen Modelle nur mit hohem Rechenaufwand abbilden, da sie mit Einzelwerten rechnet. Soll eine Wahrscheinlichkeitsaussage erzeugt werden, muss die Berechnung vielfach wiederholt werden – mit leicht veränderten Annahmen. Dieses Vor-
Für Edge-KI-Anwendungen lässt sich der C0-Prozessor direkt an der Maschine in Form eines microSD-Moduls in bestehende Steuerungssysteme integrieren.
gehen, etwa über Monte-Carlo-Verfahren, erzeugt aus vielen Einzelergebnissen eine Wahrscheinlichkeitsverteilung. Technisch funktioniert das. Praktisch vervielfacht es jedoch den Rechenaufwand.
PROBLEM, REICHT ES NICHT ZU WISSEN,
DASS „EIN AUSFALL
DROHT“. ENTSCHEIDEND IST: WIE WAHRSCHEINLICH IST DIESER AUSFALL?
Daher sind Edge-Systeme in der Industrie für diese Berechnungen oft ungeeignet. Also werden Daten zentralisiert und in Rechenzentren oder der Cloud ausgewertet. Dort entstehen neue Herausforderungen: enorme Datenmengen, Integrationsaufwand, Latenz und zusätzliche Infrastrukturkosten. Gleichzeitig entfernt sich die Entscheidung vom Ort des Geschehens – der Maschine selbst.
Damit wird klar, woran KI-Projekte in der Industrie oft scheitern: Die Software
Der C0-Prozessor kann nicht nur Einzelwerte, sondern ganze Wahrscheinlichkeitsverteilungen in Echtzeit verarbeiten. Bilder: Signaloid

ist probabilistisch, die Hardware darunter deterministisch. Predictive Maintenance ist dabei nur ein besonders greifbares Beispiel. Dasselbe Spannungsfeld findet sich bei digitalen Zwillingen, bei der Prozessoptimierung, in der robotischen Zustandsbestimmung oder bei autonomen Systemen in der Intralogistik.
Neue Prozessorarchitekturen für probabilistisches Rechnen
Wenn der Engpass in der Rechenarchitektur liegt, muss die Lösung ebenfalls dort ansetzen. Anstatt Unsicherheit durch vielfache Wiederholungen zu approximieren, sind Prozessoren erforderlich, die Wahrscheinlichkeitsverteilungen nativ verarbeiten können. Genau hier setzen neue Prozessorarchitekturen an.
Ein Beispiel dafür ist der von Signaloid entwickelte C0-Prozessor. Für Edge-KI-Anwendungen direkt an der Maschine lässt er sich in Form eines microSD-Moduls in bestehende Steuerungssysteme integrieren, zum Beispiel von Bosch Rexroth. Er steht auch als Cloud-Lösung zur Verfügung, die unter anderem von Boeing genutzt wird. Der C0-Prozessor kann nicht nur Einzelwerte, sondern ganze Wahrscheinlichkeitsverteilungen in Echtzeit verarbeiten. Dadurch lassen sich teils enorme Leistungsgewinne gegenüber traditionellen Prozessoren erzielen: In Benchmarks zeigte sich etwa eine rund 2000-fache Beschleunigung bei der Unsicherheitsanalyse von Infrarotkameradaten und eine etwa 95-fache Beschleunigung bei der Modellierung von Strahlungsabsorption.
Durch den Einsatz von Prozessoren, die Wahrscheinlichkeitsverteilungen nativ verarbeiten können, wird transparent, mit welcher Sicherheit eine KI-Vorhersage oder -Entscheidung tatsächlich getroffen wird – die Grundlage für eine „Trustworthy AI“ in industriellen Anwendungen.
Ob Predictive Maintenance, digitale Zwillinge, Prozessoptimierung, autonome Robotik oder simulationsgestützte Qualitätsprognosen – überall dort, wo industrielle KI mit realen, variablen und statistisch geprägten Eingangsdaten arbeitet, schafft Hardware, die nativ mit Wahrscheinlichkeitsverteilungen arbeitet, die Grundlage für belastbarere Entscheidungen, effizientere Systeme und den Übergang von Pilotprojekten in den produktiven Einsatz. KF
PROF. PHILLIP STANLEY-MARBELL ist CEO/CTO und Gründer von Signaloid.
Patrick Nebout, CTO von Yanfeng, einem Zulieferer für automobile Innenräume, gibt im Interview einen Einblick in den aktuellen Stand der KI-Transformation in der Automobilproduktion. Dabei erläutert er, wie und warum sich die Ansätze in China, Europa und den USA unterscheiden und in welchen Bereichen Yangfeng bereits heute erfolgreich KI einsetzt.
Digital Manufacturing (DM): Künstliche Intelligenz wird oft als Game-Changer für die Automobilindustrie bezeichnet. Aus Ihrer globalen Perspektive: Wo stehen wir wirklich, wenn es um die Einführung von KI in der Fertigung geht, und wie unterscheiden sich die Ansätze zwischen China, Europa und den USA?
PATRICK NEBOUT: KI transformiert die Automobilproduktion bereits heute, insbesondere durch Bildverarbeitungssysteme, Qualitätskontrolle und vorausschauende Instandhaltung. Unser Unternehmen setzt KI-gestützte Computer Vision seit Jahren erfolgreich in mehreren Werken ein. China schreitet mit bemerkenswerter Geschwindigkeit voran. Unternehmen gehen dort schnell vom Pilotprojekt in die breite Umsetzung über. Europa verfolgt einen vorsichtigeren, analytischeren Ansatz und legt den Fokus auf Validierung, Regulierung und langfristige Nachhaltigkeit. In den USA treiben vor allem das Silicon
Valley und Innovationsökosysteme aus dem Verteidigungsbereich Forschung und Skalierung parallel voran. Heute nähern sich die globalen Ansätze zunehmend an. Die chinesische Führung respektiert lokale Besonderheiten und Compliance-Anforde-
Viele Teams
experimentieren mit
KI, weil die Technologie im Trend liegt – nicht weil sie ein konkretes operatives Problem löst.“
rungen, während westliche Unternehmen grundsätzlich vorsichtiger agieren. Bei Yanfeng erleben wir echte Fortschritte durch regionsübergreifende Zusammenarbeit – wir vernetzen unsere Ökosysteme über China, Europa und Nordamerika hinweg, statt in regionalen Silos zu arbeiten.

DM: Sie haben den chinesischen Markt erwähnt, der oft als Vorreiter bei der KI-Implementierung gilt. Was macht China anders, und was kann Europa davon lernen, während es seine eigenen regulatorischen Standards beibehält?
PATRICK NEBOUT: Chinas Stärke liegt in Pragmatismus und klarer Ausrichtung. Tests werden zügig durchgeführt, und sobald ein Konzept funktioniert, folgt rasch die Skalierung. Nationale Strategien verbinden Universitäten, Technologieunternehmen und Hersteller unter klaren Fünf- bis Zehn-Jahres-Plänen – alle ziehen in dieselbe Richtung.
In Nordamerika wird Innovation durch privates Kapital, Start-up-Ökosysteme und öffentliche Förderung vorangetrieben. Das Ziel ist dort, weltweit führend bei zukunftsweisenden KI-Technologien zu bleiben.
Europa hingegen neigt dazu, sich in Debatten und rechtlichen Rahmenbedingungen zu verlieren, bevor gehandelt wird. Der regulatorische Ansatz der EU ist wichtig für Vertrauen und Ethik, kann aber die industrielle Umsetzung verlangsamen. Europa kann von Chinas Tempo und Umsetzungsdisziplin lernen und dabei sein Engagement für Sicherheit, Datenschutz und verantwortungsvolle KI beibehalten.
DM: Laut der MIT-Studie „State of AI in Business 2025“ scheitern viele KI-Initiativen oder entwickeln nicht die beabsichtigte Wirkung. Welche typischen Fallstricke beobachten Sie in der Praxis, und was unterscheidet erfolgreiche KI-Projekte von solchen, die scheitern?
PATRICK NEBOUT: Laut MIT scheitern über 90 Prozent der KI-Pilotprojekte an der
WEITER AUF SEITE 16
Patrik Nebout ist CTO beim Automobilzulieferer
Die Industrie steht unter starkem Innovations- und Effizienzdruck. Globale Lieferketten, steigende Qualitätsanforderungen und zunehmende Regulierung treiben die Digitalisierung. KI wird zum entscheidenden Wettbewerbsfaktor im operativen Alltag. Intelligentes Dokumenten- und Qualitätsmanagement integriert KI in bestehende Geschäftsprozesse und schafft messbaren Mehrwert. VON ANDREAS DANGL

KI-Chat in Fabasoft Approve. Bild: Fabasoft Approve
In Industrieunternehmen verteilen sich Informationen häufig auf mehrere Systeme – ERP-Lösungen, CRM-Tools, CADoder BIM-Anwendungen. Das Ergebnis: hoher Koordinationsaufwand, Zeitverlust und Fehleranfälligkeit. Moderne Dokumentenmanagementsysteme verbinden ganzheitliches Datenmanagement mit KI-Funktionalitäten und schaffen ein intelligentes Assistenzsystem, das Dokumente, Metadaten und Unternehmenswissen intelligent verknüpft. Wie diese Symbiose in der Praxis funktioniert, zeigen die folgenden vier Use Cases von Fabasoft Approve.
Use Case #1: Interactive Exploded View Fachkräfte aus Konstruktion, Projektmanagement oder Verkauf müssen relevante Informationen schnell in umfangreichen Datenbeständen finden. Interactive Exploded View von Fabasoft Approve erweitert Dokumente kontextbezogen und ermöglicht intuitives Navigieren innerhalb der Datenbanken. Nutzer:innen klicken beispielsweise eine Materialnummer in einer technischen Zeichnung an und öffnen direkt die dazugehörige 360-Grad-Sicht mit Bestellinformationen und weiteren Bauteil-Details. Zusätzliche Suchanfragen in anderen Systemen entfallen.
Qualitätsmanager:innen erhalten so eine konsistente „Single Source of Truth“ für fundierte Entscheidungen über Abteilungsund Systemgrenzen hinweg.
Use Case #3: KI-Chat mit Dokumenten Anlagendokumentationen in der Energiebranche umfassen oft mehrere Tausend Dokumente. Mitarbeitende investieren erhebliche Zeit in die manuelle Durchsicht. Der KI-Chat schafft direkten Zugang zu den Inhalten: Anwender:innen befragen einzelne Dokumente oder ganze Sammlungen per Chatfenster in natürlicher Sprache und erhalten sofort präzise Antworten. Die KI ist mandantenrein konzipiert – sie lernt ausschließlich aus den Unternehmensdaten, hat keine Internetverbindung und gibt kein Wissen an andere Organisationen weiter.
Use Case #4: KI-Formulare und Fragenkataloge
Informationen stecken oft in unstrukturierten Formaten wie Bestellunterlagen oder Ausschreibungsdokumenten. Intelligente KI-Formulare automatisieren die Datenübertragung: Die KI extrahiert Metadaten aus verschiedenen Quellen und überführt sie direkt in strukturierte, digitale Formulare. Bei komplexen Ausschreibungen mit Hunderten technischen Merkmalen beantwortet die KI Anforderungskataloge automatisch, hinterlegt die jeweilige Quelle und macht Abhängigkeiten bei Revisionen sichtbar. So transformieren Unternehmen unstrukturierte Dokumente in nutzbares Wissen und beschleunigen die Projektabwicklung nachhaltig.
Von der Strategie zur messbaren Effizienz
KI entfaltet ihren Mehrwert durch konsequente Integration in bestehende Prozesse – nicht durch isolierte Pilotprojekte. Für Industrieunternehmen bedeutet das: weniger Datenchaos, mehr Durchgängigkeit – und eine nachhaltige Stärkung der Wettbewerbsfähigkeit.

Honauerstraße 4, 4020 Linz, Österreich
TEL.: +43 732 606162-0
E-MAIL: approve@fabasoft.com www.fabasoft.com/approve Fabasoft Approve GmbH
Use Case #2: 360-Grad-Sicht Informationssilos fragmentieren im Anlagenbau oft den Blick auf Projekte: Technische Zeichnungen liegen im Dokumentenmanagement, kaufmännische Daten in ERP-Systemen. Die 360-Grad-Sicht führt diese zusammen. Die KI analysiert Dokumente semantisch, erkennt automatisch Kraftwerk-Kennzeichensysteme (KKS) und verknüpft sie mit relevanten Metadaten wie Bestellpositionen oder Materialnummern.

Andreas Dangl ist Entrepreneur und Geschäftsführer der Fabasoft Approve GmbH. In seiner Funktion unterstützt er Unternehmen aus der Industrie bei der Einführung von KIgestütztem Dokumentenund Qualitätsmanagement. Bild: Fabasoft Approve
Umsetzung. Nach unserer Erfahrung liegt der Hauptgrund im Fehlen eines klaren Business Cases und Skalierungsplans. Viele Teams experimentieren mit KI, weil die Technologie aktuell im Trend liegt – nicht weil sie ein konkretes operatives Problem löst.
Erfolgreiche Projekte starten klein, fokussieren sich auf einen messbaren ROI und zielen auf schnell umsetzbare Anwendungsfälle ab, die sofortigen Mehrwert bringen. Auch externe Partnerschaften machen einen Unterschied, denn die Kombination aus industriellem Knowhow und spezialisierter KI-Expertise ist sehr wertvoll. Wichtig ist zudem: Nicht jeder Anwendungsfall benötigt ein großes Sprachmodell. Manchmal liefert ein gut optimiertes Bildverarbeitungssystem deutlich höhere Erträge.
DM: Ein schneller ROI wird oft als kritischer Erfolgsfaktor genannt. Wie geht Yanfeng an KI-Projekte heran, um sicherzustellen, dass sie tatsächlichen Wert schaffen, anstatt zu langwierigen Experimenten zu werden?
PATRICK NEBOUT: Wir verfolgen einen disziplinierten Innovationsprozess: Zunächst ein Proof of Concept, dann bei vielversprechenden Ergebnissen ein Minimum Viable Product. Zeigt ein PoC nicht schnell genug Potenzial, stoppen wir ihn konsequent. Diese agile Vorgehensweise ermöglicht es uns, Ressourcen auf Initiativen mit nachweislichem Wert zu konzentrieren.
Unsere KI-Projekte sind funktions- und regionsübergreifend angelegt und werden
durch klare Governance-Strukturen für die Skalierung unterstützt. Das Aufbrechen von Silos zwischen Business Units und Produktlinien ist dabei essenziell, denn Erfolg entsteht durch Zusammenarbeit. Zudem pflegen wir eine Kultur, die Scheitern als Teil des Lernprozesses akzeptiert. Risiken komplett zu vermeiden ist weitaus riskanter, als intelligent zu experimentieren.
den Ausschuss um mehr als 30 Prozent reduzieren. Das zweite Beispiel betrifft den Laminierungsprozess: Hier hilft KI den Mitarbeitern, Qualitätsprobleme vorherzusagen, bevor die Teile verarbeitet werden. Unser Management fördert diese Projekte aktiv auf Executive-Ebene und stellt sicher, dass Best Practices funktions- und geschäftsbereichsübergreifend ausgetauscht werden.
In fünf Jahren wird KI nahtlos in unsere Geschäftsprozesse, Entscheidungsfindung und Produktinnovation integriert sein.“
DM: Können Sie 2-3 Beispiele nennen, wo Yanfeng bereits erfolgreich KI in der Produktion eingesetzt hat? Welche messbaren Verbesserungen haben diese Anwendungen geliefert?
PATRICK NEBOUT: Für uns ist KI ein strategischer Wettbewerbsvorteil und daher teilen wir detaillierte Ergebnisse primär intern mit unseren Partnern. So viel kann ich sagen: KI-Anwendungen in der Fertigung und im Engineering haben bereits messbare Verbesserungen in Qualität, Effizienz und vorausschauender Wartung gebracht. Zwei Beispiele aus der Fertigung: Bei Endof-Line-Tests für Sichtteile setzen wir KI auf Basis von Computer Vision und Large Language Models ein. Damit konnten wir

DM: KI-Technologie ist eine Sache, aber die Menschen dahinter eine andere. Wie nehmen Sie Ihre Belegschaft auf dieser Transformationsreise mit, und wie sieht Ihr interner KI-Ansatz in der Praxis aus?
PATRICK NEBOUT: Unsere Transformation basiert auf einem KI-Ökosystem, das interne Talente, externe Partner und strukturierte Lernprozesse verbindet. Dafür bauen wir ein Center of Excellence für KI auf, das Schulungen, den Austausch von BestPractices und die gemeinsame Entwicklung von Anwendungsfällen fördert.
KI beschränkt sich nicht auf Fertigung oder Engineering – jeder Bereich kann profitieren, von Logistik und Finanzen bis zu HR und Nachhaltigkeit. Wenn Mitarbeiter KI als praktisches Werkzeug erleben, das ihre tägliche Arbeit verbessert, steigt die Akzeptanz ganz natürlich.
DM: Wo sehen Sie Yanfeng und die Automobilzulieferindustrie in Bezug auf KI in fünf Jahren? Welche Entwicklungen werden die Branche am stärksten prägen.
PATRICK NEBOUT: In fünf Jahren wird KI nahtlos in unsere Geschäftsprozesse, Entscheidungsfindung und Produktinnovation integriert sein. Die Unternehmen, die KI am effizientesten integrieren, werden sich einen entscheidenden Wettbewerbsvorteil verschaffen.
Wir erwarten, dass KI über die reine Fertigungsoptimierung hinauswächst und auch Produktinhalte prägt – intelligente Systeme werden direkt in Fahrzeugkabinen eingebettet, nicht nur in Fahrerassistenzsysteme oder beim autonomen Fahren. Das wird das Nutzererlebnis grundlegend verändern und neue Wertschöpfung für unsere Kunden ermöglichen.
Bei Yanfeng gestalten wir diese Zukunft bereits aktiv, über China, Europa und Nordamerika hinweg, im Einklang mit unserer globalen Innovationsstrategie.
DM: Herr Nebout, wir danken Ihnen für das Gespräch. KF
Zwischen Pilotprojekt und Produktivbetrieb entscheidet sich, ob KI-Lösungen ihre Versprechen einlösen können. Dabei bestimmen
auch in der Produktion nicht allein Algorithmen und Daten den Erfolg, sondern vor allem die Frage, wie belastbar und nachvollziehbar ihre Ergebnisse im Alltag wirklich sind.
Für die Manufacturing-Branche entwickelt sich künstliche Intelligenz langsam, aber sicher zum neuen Standard. Während viele Pilotprojekte in den operativen Betrieb übergehen, entscheidet sich ganz konkret in den Produktionshallen und Ingenieurbüros, ob sich die neuen Lösungen langfristig im Alltag durchsetzen. Denn was bei aller Technologie-Euphorie schnell übersehen wird: In der Praxis entscheidet nicht nur Rechenleistung über Akzeptanz und Wirksamkeit der KI, sondern in erster Linie auch das Vertrauen der Menschen, die mit ihren Ergebnissen arbeiten.
Kommt es hier zu einer Schieflage, verpuffen Investitionen in neue KI-Lösungen schnell, ohne dass Unternehmen einen Mehrwert aus ihnen ziehen können. Ein Praxisbeispiel kann verdeutlichen, wo das gesamte System bei fehlendem Vertrauen ins Stocken gerät: Meldet die KI etwa ein erhöhtes Ausfallrisiko für eine Turbine, kann die gelieferte Datenlage durchaus eindeutig erscheinen und das System empfiehlt eine vorgezogene Wartung. Das Team ist allerdings skeptisch, weil eine ähnliche Warnung sich vor Monaten als Fehlalarm erwiesen hatte, unnötiger Stillstand und entsprechend hohe Kosten waren die Folgen. Für die Mitarbeitenden stellt sich bei der neuen Analyse also nicht nur die Frage, ob die Prognose stimmt, sondern vor allem, warum und wie die KI zu diesem Ergebnis kommt.
Präzise KI-Entscheidungen sind ausschlaggebend
Die Skepsis ist angebracht und wichtig, denn besonders in Industrie- und Produktionsumgebungen sind präzise Entscheidungen ausschlaggebend. Fachkräfte müssen nachvollziehen können, welche Sensorwerte, historische Muster oder Kontextfaktoren eine Empfehlung beeinflussen.

Für einen wirklichen Mehrwert und Wettbewerbsvorteil müssen KI-Modelle erklärbar und transparent sein.
KI muss aus diesen Gründen immer auch erklärbar sein und auch abstrakte Ergebnisse begründen können. Sie macht sichtbar, welche Variablen Gewicht haben und wo Unsicherheiten liegen. Damit entstehen sowohl transparente Prozesse als auch die Möglichkeit, Verantwortung bewusst zu übernehmen. Auf diese Weise kann Vertrauen wachsen, weil Entscheidungen von der Belegschaft nicht blind akzeptiert, sondern verstanden werden.
Wie KI zum Innovationstreiber wird Erklärbarkeit allein genügt allerdings nicht. Nachhaltige Akzeptanz entsteht erst, wenn KI-Entscheidungen nachvollziehbar und in eine klare Governance-Strategie eingebettet sind. Um Risiken zu kontrollieren und Compliance-Anforderungen zu erfüllen, müssen Unternehmen Modelle, Datenbasis und Einsatzkontext transparent dokumentieren und Entscheidungen über Audit Trails rekonstruierbar machen.
Genau hier setzt IFS.ai an. Die IndustrialAI-Plattform von IFS verbindet erklärbare Modelle mit integrierter Dokumentation und konkreten Anwendungsfällen. Entscheidungslogiken entwickeln sich damit vom rein technischen Hintergrundprozess hin zu einem integrierten Bestandteil der operativen Abläufe. Empfehlungen bleiben begründbar und überprüfbar, Mitarbeitende werden nicht mit einem isolierten Output konfrontiert, sondern erhalten Kontext und Transparenz. Unternehmen können KI damit produktiv einsetzen, ohne Verantwortung aus der Hand zu geben. Mit branchenspezifischen Lösungen verbindet IFS Innovation mit klarer Governance und macht vertrauenswürdige KI zum belastbaren Wettbewerbsvorteil. Entscheidend sind diese Aspekte auch, weil mit dem EU AI Act die Transparenz, Dokumentation und das Risikomanagement zur Voraussetzung für den rechtskonformen Einsatz von KI werden.

Wo schafft künstliche Intelligenz in der Industrie heute wirklich Mehrwert – und warum scheitern viele Projekte noch an Daten, Organisation und Skalierung? Elf Expertinnen und Experten aus Industrie und Forschung zeigen, welche Use Cases funktionieren, wo die größten Hürden liegen und wie Unternehmen KI erfolgreich in ihre Prozesse integrieren. VON RAINER TRUMMER
Künstliche Intelligenz (KI) gilt als Schlüsseltechnologie für die industrielle Transformation. Von Predictive Maintenance über Qualitätskontrolle bis zur Produktionsplanung verspricht sie effizientere Prozesse und bessere Entscheidungen. Doch zwischen Pilotprojekten und breitem Roll-out liegen oft Datensilos, organisatorische Hürden und fehlende Strategien. Wie Unternehmen diese Herausforderungen meistern können und wo KI bereits messbaren Mehrwert schafft, erläutern auf den nächsten Seiten elf Experten aus Industrie und Forschung.
1 KI-Anwendungen rücken auch in der Industrie immer mehr in den Mittelpunkt. In welchen konkreten Anwendungsbereichen der Produktion schafft KI aktuell den größten Mehrwert?
2 Wie bewerten Sie die aktuelle Datenverfügbarkeit und Systemlandschaft (Maschinenanbindung, MES, ERP, Cloud/Edge) als Grundlage für KI-Anwendungen – und wo sehen Sie hier den größten Handlungsbedarf?
3 Welche Voraussetzungen müssen erfüllt sein, damit KI-Lösungen vom Pilotprojekt in einen stabilen Roll-out überführt werden können?

Senior Advisory Solution Consultant bei Appian Bild: Appian
1. Künstliche Intelligenz schafft vor allem Mehrwerte in den Bereichen Qualitätskontrolle, Predictive Maintenance und Lieferkettenoptimierung. Bei der Qualitätskontrolle erkennt KI präzise Abweichungen von Standards, indem sie Daten extrahiert und anhand von Geschäftsregeln prüft. In der vorausschauenden Wartung analysiert KI Sensordaten in Echtzeit, um Ausfälle frühzeitig zu erkennen und Wartungen optimal zu planen. Hochrelevant ist auch der Bereich ‚Know Your Business Partner‘ (KYBP): KI prüft automatisch Lieferantenzertifikate und gleicht diese mit Referenzdaten ab. So lassen sich auch Anforderungen des Lieferkettengesetzes effizient erfüllen.
2.
Der größte Handlungsbedarf liegt in einer einheitlichen Datenbasis.“
Die heterogene Systemlandschaft aus MES, ERP, Maschinen und Cloud-Lösungen erzeugt Datensilos, die KI-Pro -
jekte ausbremsen. Der größte Handlungsbedarf liegt in einer einheitlichen Datenbasis. Mithilfe einer Data Fabric lässt sich eine virtuelle Datenschicht schaffen, die Daten aus allen Quellen in Echtzeit zugänglich macht – ohne aufwändige Migration. KI-Systeme erhalten so aktuelle, qualitativ hochwertige Daten für präzise Entscheidungen. Zusätzlich identifiziert KI automatisch Datenqualitätsprobleme und hilft frühzeitig bei der Korrektur.
3.
Für einen stabilen Roll-out muss KI als integraler Bestandteil von Geschäftsprozessen verstanden werden – nicht als isoliertes Tool. In Prozesse eingebettete KI erhält klare Ziele, Governance und Verantwortlichkeit. Prozesse ermöglichen die Messbarkeit jeder KI-Aktion, gewährleisten Skalierbarkeit und sichern durch menschliche Kontrollschritte die notwendige Sicherheit. Nachvollziehbarkeit aller KI-Entscheidungen sowie klare Datenkontrolle schaffen das Vertrauen, das für einen unternehmensweiten Einsatz unabdingbar ist.

Director Product Management bei Aptean Germany Bild: Aptean Germany
Den stärksten Hebel sehen wir derzeit in drei Bereichen: vorausschauende Instandhaltung, Qualitätssicherung und Produktionssteuerung. Mit Aptean AppCentral fließen Daten aus Oxaion ERP, Syncos MES, Sensorik und Instandhaltung in eine gemeinsame KI-Schicht zusammen. Ausfallrisiken werden so frühzeitig erkannt, Wartung wird vorausschauend statt reaktiv geplant und Qualitätsmuster werden identifiziert, bevor Ausschuss entsteht. Darüber hinaus ermöglichen KI-Agenten in AppCentral erste Schritte zur autonomen Prozesssteuerung – etwa bei der Feinplanung oder wenn Regeln in der Fertigung verletzt werden. Das alles kommt aus einer Hand und einer integrierten Plattform, ohne dass Unternehmen einen zusätzlichen KI-Spezialanbieter einbinden müssen.
2.
Das ERP ist kein Auslaufmodell, sondern wird zum Backbone für eine KI-Skalierung.“
kontinuierlich einfließt. Drittens weniger Komplexität: Wer KI, ERP und MES aus einer Hand bezieht, vermeidet Schnittstellenprobleme und das Koordinieren mehrerer Anbieter. Aptean liefert genau dieses integrierte Portfolio – und macht den Roll-out damit planbar, anstatt zum Projektrisiko.

Lead Artificial Intelligence bei Cadfem Germany
Bild: Cadfem Germany
KI schafft heute schon greifbare Mehrwerte in der gesamten Produktentwicklung – vom Requirements Engineering bis hin zur Überführung in den Betrieb. Den größten Nutzen stiftet sie allerdings in den frühen Phasen der Produktentwicklung, dort, wo Varianten schnell erzeugt, bewertet und optimiert werden müssen. AI Augmented Ideation & Design beschleunigt Simulationen von Stunden auf Sekunden und macht damit große Designräume erstmals real nutzbar. KI unterstützt bei der Variantenfindung, liefert valide physiknahe Vorhersagen, reduziert Iterationszeiten und schafft so eine neue Qualität datengetriebener Entscheidungen.
2.
Für KI sind saubere Datenerfassung, Standards, klare Pipelines und einheitliche Formate entscheidend.“
Das eigentliche Problem ist nicht die fehlende Datenverfügbarkeit – es sind Datensilos. ERP, MES und Maschinenanbindung liefern reichlich Informationen, aber eben isoliert voneinander. Entscheidungen basieren deshalb oft auf verzögerten oder unvollständigen Auswertungen. Der größte Handlungsbedarf liegt in der semantischen Integration: Systeme müssen nicht nur verbunden, sondern in einen gemeinsamen Kontext gebracht werden. Genau das übernimmt AppCentral als zentrale Intelligenzschicht, die Oxaion ERP, Syncos MES und weitere Quellen konsolidiert und für KI-Modelle nutzbar macht – flexibel on-premise, in der Cloud oder hybrid betrieben.
3.
Drei Faktoren sind aus unserer Sicht entscheidend. Erstens eine saubere, konsistente Datenbasis: keine Silos, sondern durchgängige Integration über alle Systemebenen. Zweitens Transparenz: KI darf keine Blackbox sein. AppCentral liefert nachvollziehbare Empfehlungen, in die Nutzerfeedback
Daten gibt es in der Industrie bereits heute reichlich: Simulationen, Sensorik und bestehende Systeme liefern einen großen Datenschatz. Der Engpass liegt nicht in der Menge, sondern in der Struktur, Qualität und Nutzbarkeit. Häufig sind Daten verteilt, inkonsistent oder nicht maschinenlesbar. Für KI sind jedoch saubere Datenerfassung, Standards, klare Pipelines und einheitliche Formate entscheidend. Der größte Hebel besteht darin, Daten systematisch vorzubereiten und über Abteilungsgrenzen hinweg zugänglich zu machen.
3. Der Übergang scheitert selten an der Modellgüte, sondern an Betrieb und Organisation. Für einen stabilen Roll-out braucht es robuste Datenpipelines, Versionierung, Monitoring und klare Verantwortlichkeiten, um Modelle automatisiert zu aktualisieren und Qualitätsdrifts früh zu erkennen. Ebenso wichtig ist die Nutzerakzeptanz: Mitarbeitende müssen die KI verstehen, vertrauen und in ihre Workflows integrieren können. Erst das Zusammenspiel aus Technik, Prozessen und Change-Management ermöglicht skalierbare KI.

1.
Vorstand Elunic AG
Bild: Elunic
Die wahre Revolution durch KI findet aktuell in der Verwaltung statt – in den Fabrikhallen haben wir in Deutschland
1 KI-Anwendungen rücken auch in der Industrie immer mehr in den Mittelpunkt. In welchen konkreten Anwendungsbereichen der Produktion schafft KI aktuell den größten Mehrwert?
2 Wie bewerten Sie die aktuelle Datenverfügbarkeit und Systemlandschaft (Maschinenanbindung, MES, ERP, Cloud/Edge) als Grundlage für KI-Anwendungen – und wo sehen Sie hier den größten Handlungsbedarf?
3 Welche Voraussetzungen müssen erfüllt sein, damit KI-Lösungen vom Pilotprojekt in einen stabilen Roll-out überführt werden können?
die letzten 30 Jahre zur Produktion 4.0 hochautomatisiert, an den Schreibtischen stecken viele Unternehmen aber noch im Büro 1.0 fest. Aktuell sehe ich den größten Mehrwert nicht bei den physischen Maschinen, sondern im Customer Service und After Sales sowie bei der Aufbereitung von Stammdaten. Wir bewegen uns in der Kundenbetreuung von Self-Service-Portalen hin zum echten ‚Self-Solvement‘. Ein weiterer großer Hebel ist das Aufbrechen von Datensilos. Produktionsdaten und Fehlercodes lassen sich heute einfach in natürlicher Sprache abfragen, ohne dass jemand komplexe Dashboards aufwändig konfigurieren muss. Der eigentliche Mehrwert liegt im Skalieren von Erfahrungswissen und im Abgeben von Routineaufgaben an Agenten.
2.
Das große Sprachmodell (LLM) – ob nun von OpenAI, Anthropic oder anderen Anbietern – ist mehr oder weniger austauschbar und nicht mehr so relevant. Der große Hebel liegt im Prozess und der Datenzugänglichkeit, denn nur durch die Mitgabe von maschinenbauspezifischem Kontext kann die KI in unserer Systemlandschaft verlässliche Entscheidungen treffen. In vielen Unternehmen ist das Wissen heute noch in hierarchischen Strukturen abgegrenzt, die durch einen geschützten Zugang zu Informationen geprägt sind. Der größte Handlungsbedarf liegt in der fachlichen Strukturierung und Aufnahme dieser Datenmengen.
3.
Um aus der Pilotphase herauszukommen, müssen wir in Stufen denken.“
Die Technologie ist da, das eigentliche Nadelöhr ist das Mindset und die Disziplin. Ein erfolgreiches Projekt scheitert oft daran, dass direkt das ‚dickste Brett‘ gebohrt werden will – etwa einen Service-Bot zu bauen, der ab Tag eins jedes hochkomplexe Fachproblem löst. Um aus der Pilotphase herauszukommen, müssen wir in Stufen denken. Bei Elunic bewerten wir Geschäftsvorgänge dafür mit der RICE-Methode – einem Priorisierungs-Framework aus dem Produktmanagement, das wir auf KI-Use Cases übertragen haben. RICE steht für Reach, Impact, Confidence und Effort. Das Prinzip: Wer zu viele Ideen hat und nicht weiß, wo er anfangen soll, braucht kein Bauchgefühl, sondern eine objektivierte Entscheidungsgrundlage. Genau das liefert RICE – und stellt sicher, dass die ersten umgesetzten Cases schnelle Durchschlagskraft haben und intern Vertrauen in die Technologie aufbauen. Viel wichtiger ist aber die menschliche Komponente: Wir müssen das Delegieren lernen. Wer mit KI arbeitet, hört auf, Ergebnisse mühsam selbst zu schreiben, und lernt stattdessen zu beschreiben, welches Ergebnis er erzielen will. Diese Transformation erfordert den Fokus auf das Wesentliche.

Geschäftsführer
von Fabasoft Approve
Bild: Fabasoft Approve
Den größten Mehrwert schafft KI dort, wo große Mengen qualitätsrelevanter Daten verarbeitet und in Maßnahmen überführt werden. Ein wesentlicher Hebel liegt in der präventiven Qualitätssicherung. KI erkennt frühzeitig Muster in Produktionsund Qualitätsdaten, bevor überhaupt Fehler entstehen. Gleichzeitig beschleunigt sie Abläufe wie FMEA oder den 8D-Prozess durch datenbasierte Vorschläge für Ursachenanalysen und Maßnahmen. Gerade in der Fertigung und im Anlagenbau, wo viel Wissen bislang unstrukturiert vorliegt, schafft KI erstmals eine durchgängige, wirklich nutzbare Datenbasis.
2.
Viele Industrieunternehmen verfügen bereits über Systemlandschaften mit ERP und weiteren Tools. Die Herausforderung liegt darin, diese Systeme sinnvoll zu vernetzen und konsistente Daten zu schaffen. In der Praxis begegnen uns häufig Datensilos, Medienbrüche und fehlende Datenmodelle. Das erschwert den Einsatz von KI deutlich, da ihre Leistungsfähigkeit von der Datenqualität abhängt. Handlungsbedarf sehen wir im Aufbau einer unternehmensübergreifenden ‚Single Source of Truth‘ sowie in der Integration bestehender Systeme in eine gemeinsame Datenumgebung. Cloud-native Architekturen helfen dabei, da sie die nötige Skalierbarkeit und Flexibilität für den effizienten KI-Betrieb bieten.
KI-Initiativen brauchen klar definierte Anwendungsfälle mit messbarem Mehrwert.“
3. Der Übergang ist vor allem eine Frage der richtigen Rahmenbedingungen. KI-Initiativen brauchen klar definierte Anwendungsfälle mit messbarem Mehrwert und eine saubere Datenbasis für verlässliche Ergebnisse. Entscheidend ist außerdem, dass sich die KI nahtlos in bestehende Systeme und Arbeitsabläufe integriert. Erst wenn sie im operativen Alltag genutzt wird und sich auf Basis realer Daten stetig verbessert, entfaltet sie ihr volles Potenzial.

1.
Sören Michl
Vice President AI Adoption bei IFS
Bild: IFS
Aktuell schafft KI den größten Mehrwert in der Produktion, indem sie beispielsweise mit Predictive Maintenance Stillstände vermeidet, Produktionspläne optimiert, Lieferketten effizienter steuert und transparenter macht sowie Abweichungen im Shopfloor frühzeitig erkennt. Dadurch entstehen nicht nur stabilere Abläufe, sondern auch eine deutliche Kostentransparenz und konkrete Einsparpotenziale. Dies setzt allerdings voraus, dass KI direkt in die operativen Prozesse integriert ist.
Viele Unternehmen haben bereits eine breite Systemlandschaft aus Maschinenanbindung, MES und ERP, die große Datenmengen produziert. Die Herausforderung liegt jedoch weniger in der Verfügbarkeit, sondern in der Fragmentierung, dem fehlenden Kontext und der oft unzureichenden Qualität der Daten. Sie liegen oftmals in Silos, sind nicht durchgängig verknüpft und häufig nicht in Echtzeit verfügbar. Gleichzeitig wird genau hier bereits KI eingesetzt. Sie nutzt die Daten nicht nur passiv, sondern trägt aktiv dazu bei, deren Qualität zu verbessern. Beispielsweise erkennt sie Inkonsistenzen, ergänzt den Kontext und bereinigt automatisiert Daten. So entsteht schrittweise eine belastbare Datengrundlage, auf der weiterführende KI-Anwendungen sinnvoll aufbauen können.
3.
Die beste KI ist die, die man nicht sieht –weil sie nahtlos in Prozesse integriert ist.“
Der erfolgreiche Roll-out von KI gelingt dann, wenn sie im Alltag spürbaren Nutzen schafft, ohne zusätzliche Komplexität zu erzeugen. Die beste KI ist die, die man nicht sieht – weil sie nahtlos in Prozesse integriert ist und im Hintergrund bessere Entscheidungen, Automatisierung und klare Handlungsempfehlungen liefert. Entscheidend ist also, dass KI direkt in der Anwendung wirkt und nicht als isoliertes Tool genutzt werden muss.

1.
Bereichsleiter Fraunhofer IEM, Geschäftsleitung it’s OWL
Bild: it’s OWL
Es gibt nicht ‚den‘ Anwendungsfall in der Produktion; der Mehrwert von KI entsteht in der Breite. In unserem Flagship-Projekt Datenfabrik.NRW haben wir beispielsweise rund 50 konkrete Use Cases umgesetzt – von der Fabrikplanung über die Produktionssteuerung bis hin zur Qualitätskontrolle und Logistik. Die zentrale Erkenntnis: KI ist kein punktuelles Tool, sondern ein Querschnittswerkzeug für bessere Entscheidungen entlang der gesamten Wertschöpfungskette. Unternehmen, die das verstehen, gehen weg von einzelnen Leuchtturm-Use Cases hin zu einer systematischen Integration von KI in ihre Kernprozesse.
2.
KI ist kein punktuelles Tool, sondern ein Querschnittswerkzeug für bessere Entscheidungen entlang der gesamten Wertschöpfungskette.“
In KI-Projekten werden ‚Digitalisierungssünden‘ schnell sichtbar: historisch gewachsene, wenig integrierte Systemlandschaften und oft unzureichende Datenqualität. Der größte Aufwand liegt daher meist in der Datenaufbereitung, nicht in den Algorithmen. Der zentrale Handlungsbedarf liegt in sauberen Datenstrukturen, Schnittstellen und konsistenter Datenbasis. Gleichzeitig kann KI helfen, Daten zu verbessern, zum Beispiel durch Anomalie-Erkennung oder das Ergänzen fehlender Informationen. Kurz gesagt: Ohne solide Datenbasis bleibt KI Stückwerk. Wer jedoch in Datenqualität und Systemintegration investiert, schafft die Voraussetzung, KI-Anwendungen skalierbar und nachhaltig in die Produktion zu bringen.







1 KI-Anwendungen rücken auch in der Industrie immer mehr in den Mittelpunkt. In welchen konkreten Anwendungsbereichen der Produktion schafft KI aktuell den größten Mehrwert?
2 Wie bewerten Sie die aktuelle Datenverfügbarkeit und Systemlandschaft (Maschinenanbindung, MES, ERP, Cloud/Edge) als Grundlage für KI-Anwendungen – und wo sehen Sie hier den größten Handlungsbedarf?
3 Welche Voraussetzungen müssen erfüllt sein, damit KI-Lösungen vom Pilotprojekt in einen stabilen Roll-out überführt werden können?
3. Business Case und die Übertragbarkeit auf weitere Anlagen oder Werke müssen von Anfang an mitgedacht werden. Das erfordert klare Governance mit definierten Verantwortlichkeiten sowie interdisziplinären Teams aus Produktion, IT und KI-Expertise. Auch mit solchen organisatorischen Fragen haben wir uns in der Datenfabrik.NRW intensiv auseinandergesetzt.

1.
Leiter Competence Center Data Science bei Megla Bild: Megla
KI kommt in der Produktion heute unterschiedlich stark zum Einsatz. Bilderkennung zur Qualitätssicherung hat sich bereits etabliert, wobei Predictive Maintenance, Predictive Quality und Energieoptimierung immer stärker gefragt sind. KI-gestützte Sichtprüfung erkennt Defekte oft mit über 99 Prozent Genauigkeit – deutlich zuverlässiger als manuelle Kontrolle. Was sich durch den KI-Hype klar verändert, ist der Wunsch, wie
mit Daten und Systemen gearbeitet wird – Stichwort Agentic AI: KI-Systeme, die selbstständig Aufgaben übernehmen, zum Beispiel das Erstellen von Dashboards und Reports.
2.
Die Datenbasis ist das Fundament, aber der Einstieg muss nicht perfekt sein. Oft lassen sich erste Projekte mit vorhandenen Daten schnell umsetzen. Was nicht fehlen darf: eine klare Datenstrategie mit definierten Zielen sowie eine Data Governance, die von Anfang an sicherstellt, dass die wachsende Datenlandschaft auch für die Anwendungsfälle von morgen geeignet ist.
3.
Der häufigste Grund, warum Pilotprojekte nicht in die Produktion überführt werden ist kein technischer. Oft wird der Faktor Mensch nicht ausreichend berücksichtigt. Konkret bedeutet das: Mitarbeitende früh einbinden Pilotteams als interne Botschafter nutzen und Erfolge sichtbar machen. Wer Change-Management von Anfang an mitdenkt und nicht ignoriert, erhöht die Erfolgschancen deutlich.
Oft wird der Faktor Mensch nicht ausreichend berücksichtigt.“

1.
Dr. Walter Heibey
Partner und Lead Architect Manufacturing bei MHP
Bild: MHP
Aktuell entfaltet KI ihren größten Mehrwert in der bildbasierten Qualitätssicherung (QS), da hier etablierte Technologien zum Einsatz kommen. Die Vorhersage von Messwerten auf Basis von Zeitreihen wird sowohl in der QS als auch in der Instandhaltung genutzt. Trotz ihres großen Potenzials
werden Large Language Models (LLMs) aktuell noch eher sporadisch eingesetzt.
2.
Hochwertige Produktionsdaten stehen heute nahezu überall zur Verfügung. Der Unterschied entsteht in der Nutzung: Während andere Märkte, insbesondere Unternehmen in China und in den USA KI-basierte, weitgehend automatisierte Echtzeit-Entscheidungen etablieren, bleibt der DACH-Bereich laut unserem aktuellen ‚Industrie 4.0 Barometer‘ häufig in der Analysephase stehen. Nicht die Datenerhebung, sondern die datengetriebene Steuerung entscheidet über Produktivität und Wettbewerbsfähigkeit. KI-Anwendungen können diesen Mehrwert erst entfalten, wenn man einen Schritt davor macht: Und zwar Steuerungslogiken konsequent in Software zu überführen und von der Hardware zu entkoppeln. Unternehmen, die ein klar definiertes architektonisches Fundament etablieren, schaffen die Voraussetzung für flexible, skalierbare und zukunftssichere Produktionssysteme sowie die Basis für KI-Anwendungen.
3.
Unternehmen haben hohe Erwartungen an KI, übersetzen diese jedoch nur begrenzt in praktische Implementierungen.“
Datendrehscheibe zwischen Shopfloor und Unternehmens-IT fungieren. Das größte Optimierungspotenzial liegt daher weniger in der KI selbst, sondern in einer durchgängigen Datenbasis, einer besseren Integration von MES- und ERP-Systemen sowie in offenen Plattform- und Cloud-/Edge-Architekturen.
3.
Grundlegende Voraussetzungen wie eine zuverlässige Maschinenanbindung, integrierte Systeme von Shopfloor bis ERP und vor allem eine durchgängige Datenbasis müssen erfüllt sein. Genauso wichtig ist, KI-Anwendungen in bestehende Prozesse und IT-Architekturen, etwa über ein MES, einzubetten und nicht als isolierte Insellösungen zu betreiben. Erst wenn die Datenqualität, Systemintegration und organisatorische Strukturen stimmen, lassen sich KI-Anwendungen langfristig stabil und erfolgreich einsetzen.

Ebenfalls in unserer aktuellen weltweiten Unternehmensbefragung haben wir gesehen, dass die DACH-Region in einem ‚KI-Hype-Gap‘ feststeckt. Unternehmen haben hohe Erwartungen an KI, übersetzen diese jedoch nur begrenzt in praktische Implementierungen. Dies unterstreicht die Notwendigkeit, Kompetenzen, Investitionen und organisatorische Voraussetzungen gezielt auszubauen, um die erwarteten Potenziale von KI in der industriellen Produktion künftig tatsächlich realisieren zu können.

1.
Für den erfolgreichen Einsatz von KI ist die konsistente Datenzusammenführung entscheidend.“
Geschäftsführer Products & Services bei MPDV Bild: MPDV
Wo man sehr viele Produktionsdaten auswerten muss und klassische Algorithmen an ihre Grenzen stoßen, bringt KI den größten Nutzen, beispielsweise in der Produktionsplanung. Da moderne Fertigungen sehr viele Arbeitsgänge, Artikelvarianten und Ressourcen benötigen, entstehen große Datenmengen und eine hohe Komplexität. KI wertet diese nicht nur aus, sondern sucht die ideale Reihenfolge für die Arbeitsgänge der jeweiligen Planungsszenarien. So reduzieren sich Bearbeitungs- sowie Rüstzeiten, und der Ressourcen-Einsatz wird optimal geplant.
2.
In den vergangenen Jahren hat sich die Datenverfügbarkeit deutlich verbessert, doch die Systemlandschaft ist noch sehr fragmentiert. Für den erfolgreichen Einsatz von KI ist die konsistente Datenzusammenführung aus Maschinen, Prozessen und Planungssystemen entscheidend. ManufacturingExecution-Systeme spielen dabei eine zentrale Rolle, da sie als
1.
Dr. Matthias Loskyll
Senior Director AI & Robotics bei Siemens Digital Industries Bild: Siemens
Industrielle KI verbessert den gesamten Lebenszyklus von Produkten und Anlagen. Großen Mehrwert sehen wir bei der Echtzeit-Datenanalyse, zum Beispiel mit Senseye Predictive Maintenance: KI prognostiziert den Wartungsbedarf von Maschinen, noch bevor ein Defekt auftritt. Aber auch bei der Qualitätskontrolle, beispielsweise mit unseren KI-gesteuerten Systemen für Sichtprüfungen Inspekto. Im Bereich generative KI beschleunigen unsere industriellen Copiloten die Generierung, Optimierung, Fehlerbehebung und Dokumentation von SPS-Code mittels natürlicher Sprache.
2.
Eine industrielle KI muss die Sprache des Engineerings sprechen: präzise, komplex und zutiefst technisch.“
Grundlage für industrielle KI ist, dass Unternehmensdaten verfügbar sind. Diese sind aber oft in Silos gefangen oder werden nicht ausreichend genutzt, weil sie zu komplex oder unstrukturiert sind. Daher ist es essenziell, Daten aus der Fertigung durchgängig zu verbinden und kontextualisieren – in einer unternehmensweiten semantischen Ebene, die Daten einheitlich zusammenführt. So kann Industrial AI Erkenntnisse in fundierte Entscheidungen verwandeln.
3.
Die Skalierung bleibt aktuell schwierig. Essenziell ist eine industrielle KI, die die strengen Anforderungen und Standards der anspruchsvollsten industriellen Umgebungen erfüllt. Sie unterscheidet sich grundlegend von KI im alltäglichen oder kommerziellen Einsatz und muss die Sprache des Engineerings sprechen: präzise, komplex und zutiefst technisch. Unsere industriellen KI-Lösungen sind für diese reale Welt entwickelt. Jeder kann sie nutzen, auch ohne KI-Expertise. Und sie ermöglichen es, eigene Industrie-KI-Modelle und Anwendungsfälle einzuführen und zu skalieren. Mit unserer Industrial AI Suite unterstützen wir zum Beispiel Audi bei der Skalierung von industrieller KI und der robusten, maschinennahen Ausführung von KI-Modellen.
KI macht Lieferzeiten planbarer, indem sie Muster in Bestell- und Lieferdaten erkennt.
Bild: MF3d | Getty Images

Eine gute Planung steht und fällt mit realitätsnahen Basiswerten. Wiederbeschaffungszeiten gehören dabei zu den entscheidenden Stellgrößen in der Produktionsplanung. Doch gerade sie sind oft der Grund, warum Terminpläne kippen, Bestände wachsen oder kritische Baugruppen fehlen. Gerade im Maschinen- und Anlagenbau stößt die Pflege statischer Lieferzeiten schnell an ihre Grenzen. Künstliche Intelligenz kann Wiederbeschaffungszeiten datenbasiert prognostizieren und macht Terminierungen so spürbar belastbarer. VON MARKUS GÜNTHER
Eine Planung folgt meist einem einfachen Prinzip. Man versucht, aus Erfahrungen und Daten die Zukunft so gut einzuschätzen, dass sich Entscheidungen treffen lassen. Dafür arbeitet man mit festen Annahmen, die als Orientierung dienen. In der Produktionsplanung im Maschinen- und Anlagenbau sind das beispielsweise Stücklisten, Arbeitspläne, Kapazitäten oder Rüstzeiten. Das funktioniert in der Praxis, solange diese Größen die Realität halbwegs treffen. Genau da wird es knifflig. Manche Planungswerte wirken stabil, sind im Alltag jedoch deutlich beweglicher. Das gilt besonders für Zukaufteile. Denn zwischen Bestellung und Wareneingang liegen nicht nur Transport und Fertigung beim Lieferanten, sondern auch dessen Auslastung, mögliche Materialengpässe, Priorisierungen, Feiertage
oder andere Besonderheiten. So können zwei formal identische Teile je nach Woche deutlich unterschiedliche Lieferzeiten haben. Und natürlich hält sich die Realität dabei nicht immer an das, was im System schön hinterlegt ist.
Statische Wiederbeschaffungszeiten als Planungsfalle „Trotzdem werden Wiederbeschaffungszeiten in vielen Unternehmen noch wie ein Fixwert behandelt“, gibt Stipo Nad, Head of Sales Produktion bei Inform, zu bedenken. „Im ERP-System stehen sie oft als feste Zahl. Einmal hinterlegt, ab und zu angepasst, aber im Tagesgeschäft nicht konsequent nachgezogen. Und wenn es Abweichungen gibt, passiert meist das, was schnell hilft. Es wird disponiert, umgeplant und eskaliert“, so der KI-Experte.
WENN DIE WIEDERBESCHAFFUNGSZEITEN IN DER PRAXIS SCHWANKEN, STELLT SICH DIE FRAGE, OB SICH AUS DEN EIGENEN DATEN NICHT MUSTER ABLEITEN LASSEN.
Die Planung rechnet also mit einem Wert, der im Grunde ein Durchschnitt aus vielen Fällen ist, während die Realität längst in Varianten auseinanderläuft. Später kippt der Plan, weil Lieferungen abweichen, oder es werden Puffer aufgebaut. Beides hat seinen Preis. Gerade im Maschinen- und Anlagenbau reicht oft ein fehlendes Zukaufteil, um eine Baugruppe auszubremsen. Die Risiken werden häufig erst sichtbar, wenn die Fertigung schon reagiert, anstatt dass man früh genug gegensteuern kann.
An dieser Stelle kommt KI ins Spiel. Wenn die Wiederbeschaffungszeiten in der Praxis schwanken, stellt sich die Frage, ob sich aus den eigenen Daten nicht Muster ableiten lassen, die diese Schwankungen erklären und für die nächste Planung nutzbar machen. Statt eine Lieferzeit als statisch hinterlegten Wert zu verwalten, prognostiziert ein KI-Modell sie datenbasiert und aktualisiert die Werte regelmäßig, sobald neue Bestell- und Lieferdaten vorliegen. Dabei ist der Kontext entscheidend. Ein Teil hat nicht einfach eine Wiederbeschaffungszeit, sondern eine Wiederbeschaffungszeit unter bestimmten Bedingungen. Dazu gehören beispielsweise Lieferant, Losgröße, Bestellrhythmus, gewünschter Liefertermin oder Abweichungen zwischen bestätigtem und tatsächlichem Termin. Oft kommen auch interne Zeiten hinzu, zum Beispiel Wareneingang und Prüfung, da am Ende nicht das Ankunftsdatum, sondern die tatsächliche Verfügbarkeit im Prozess zählt.
Lieferzeiten verstehen statt schätzen „Machine Learning kann solche Einflussfaktoren gleichzeitig berücksichtigen und daraus Prognosen ableiten, die näher an der Realität liegen als ein pauschaler Mittelwert“, erklärt Nad. „Und es kann genau dort differenzieren, wo es in der Praxis weh tut. Bei manchen Lieferanten ist die Streuung gering, bei anderen groß. Manche Teile laufen stabil, andere hängen sichtbar von der Auslastung oder Priorisierung ab. Klassische Stammdaten bilden diese Unterschiede kaum ab. Ein lernendes Modell kann sie dagegen erkennen und in eine belastbare Wiederbeschaffungszeit übersetzen.“ Wichtig ist dabei auch, was KI nicht tut. Sie ersetzt nicht die Disposition und sie nimmt niemandem Entscheidungen ab. Sie

KI-Prognosen für Wiederbeschaffungszeiten im Planungscockpit der Software Felios von Inform, inklusive Warnhinweisen für kritische Bestellvorschläge und Analysen zu Terminabweichungen. Bild: Inform
liefert vor allem ein besseres Bild davon, wie wahrscheinlich bestimmte Laufzeiten sind. Das ist für die Planung Gold wert, da Abweichungen so früher sichtbar werden. Sobald Wiederbeschaffungszeiten nicht mehr als Fixwert betrachtet werden, verändert sich auch die Art der Planung. Denn in der Praxis ist nicht nur die Frage spannend, wie lange ein Teil „im Schnitt“ braucht. Viel hilfreicher ist es, zu wissen, in welchem Bereich sich die Lieferzeit typischerweise bewegt. Eine einzelne Zahl wirkt zwar eindeutig, sie unterschlägt aber genau die Unsicherheit, die später den Plan ins Rutschen bringen kann.
Kontext statt Fixwert
KI
STIPO NAD, HEAD OF SALES PRODUKTION BEIM AACHENER SOFTWAREUNTERNEHMEN INFORM: „In vielen Unternehmen werden Wiederbeschaffungszeiten noch wie ein Fixwert behandelt.“
Bild: Inform
Schauen wir uns das an einem Beispiel an. Für eine Baugruppe fehlt ein kritisches Zukaufteil. Im System steht eine Wiederbeschaffungszeit von 15 Tagen. Das passt meistens, sagt die Historie. Nur ist „meistens“ in der Planung kein besonders belastbarer Zustand. Schaut man genauer hin, zeigt sich oft ein Muster. Bei kleinen Bestellmengen und normaler Auslastung liegt die tatsäch-

liche Lieferzeit eher bei zehn bis zwölf Tagen. Fällt die Bestellung größer aus oder in bestimmte Kalenderwochen, rutscht sie regelmäßig auf 18 bis 22 Tage. Der Fixwert im ERP-System bildet dies nur ungenau ab. Er ist ein Durchschnitt, der in beiden Richtungen danebenliegen kann. Eine KIbasierte Prognose differenziert genau an dieser Stelle. Sie nutzt vergangene Bestellungen und Lieferungen und erkennt, dass der Kontext den Unterschied macht. Für die aktuelle Bestellung kann sie deshalb eine realistischere Erwartung liefern, nämlich dass unter den aktuellen Bedingungen eher mit 19 Tagen zu rechnen ist. „Das ist immer noch keine Garantie, aber es ist ein deutlich besserer Hinweis als eine Zahl, die aus ganz unterschiedlichen Fällen zusammengewürfelt wurde“, stellt KI-Experte Nad klar. In der Praxis lassen sich so Schätzfehler bei Wiederbeschaffungszeiten um bis zu 42 Prozent reduzieren und Termine werden spürbar belastbarer. Puffer können gezielter gesetzt werden, anstatt pauschal überall Sicherheit draufzuschlagen. Bei kritischen Teilen plant man bewusst konservativer, bei stabilen dagegen schlanker. Das wirkt sich schnell positiv aus. Weniger Überraschungen, weniger Umplanungen und weniger ad hoc Maßnahmen. Wenn Abweichungen früher sichtbar werden, kann man eher gegensteuern. KI macht Wiederbeschaffungszeiten somit nicht perfekt, aber besser planbar. Und das reicht oft schon aus, damit Terminpläne auch dann noch halten, wenn die Realität nicht zu den Stammdaten passt. RT
MARKUS GÜNTHER ist Chief Operating Officer Produktion bei Inform.
Grundlage für Smart-FactoryKonzepte: Die KI-native Plattform AppCentral vereint ERP, MES, Logistik- und KI-Funktionen in einer Oberfläche – alle relevanten Daten ohne Systemwechsel im Blick. Bild: Aptean

KI revolutioniert die Fertigungshallen nicht, um bewährte ERP-Systeme zu ersetzen, sondern um sie gezielt zu erweitern. Sie ermöglicht schnellere Entscheidungen, proaktive Warnmeldungen und automatisierte Routineaufgaben. Holger Ritz, Director Product Management bei Aptean, erläutert, warum saubere ERP-Prozesse entscheidend sind, wo KI-Agenten im Shopfloor konkret eingesetzt werden und wie AppCentral die Brücke von Backoffice zur intelligenten Fertigungssteuerung schlägt. VON WOLFRAM WIESE
Die Zeiten, in denen ERP-Hersteller mit umfangreichen Funktions-Roadmaps punkteten, sind vorbei – die Systeme haben ihren Reifegrad erreicht. Differenzierung entsteht heute nicht mehr durch das hundertste neue Formularfeld, sondern durch die Intelligenz, mit der Daten verknüpft und Prozesse optimiert werden. Holger Ritz bringt es auf den Punkt: „KI ist kein ERP-Ersatz. Das Ziel ist, aus dem ERP-System nochmal Effizienzgewinne rauszuziehen – durch prädiktive Analysen, bessere Automatisierung und adäquatere Echtzeitentscheidungen.“
ERP bleibt damit der Backbone, auf dem KI-Skalierung erst möglich wird. Und genau hier setzt Ritz einen klaren Rahmen: Effektive KI funktioniert ohne saubere Daten nicht. Wer Auftragserfassung, Lagerverwaltung oder PPS nicht im Griff hat, wird auch mit KI keine belastbaren Ergebnisse erzielen. „Aus falschen Prozessen zieht die
KI falsche Schlüsse“, so Ritz. Eine Warnung, die in der Praxis häufig unterschätzt werde.
Gezielt statt grenzenlos: KI im kontrollierten Unternehmenskontext
Aptean grenzt sich bewusst von KI-Lösungen ab, die unkontrolliert quer durch die gesamte IT-Infrastruktur laufen. Ritz nennt das Risiko: Systeme, die gleichzeitig auf WhatsApp, Kalender und Finanzbuchhaltung zugreifen, haben keine ComplianceSchranken – der Arbeitsvorbereiter liest im schlimmsten Fall Gehaltsdaten aus, ohne dass dies beabsichtigt war.
Bei Aptean ist das anders gelöst. KI-Agenten erhalten dieselbe Benutzeridentität wie der jeweilige ERP-Nutzer – mit allen damit verbundenen Rollenberechtigungen. „So sieht der Arbeitsvorbereiter über die KI nicht die Daten aus der Finanzbuchhaltung, und der Einkäufer nicht die Verkaufsmargen“, erklärt Ritz.

ERP ist kein Auslaufmodell, sondern wird zum Backbone für eine KI-Skalierung.“
HOLGER RITZ
Vom Posteingang bis zur Stückliste: KI-Agenten in der Praxis
Was KI im Fertigungskontext konkret leistet, zeigt sich an den Anwendungsfällen, die Aptean für AppCentral entwickelt. Ein erstes Beispiel ist die sogenannte Smart Inbox: Ein KI-Agent überwacht eingehende E-Mails, klassifiziert sie automatisch – Bestellung, Beschwerde, Rechnung, Anfrage – und bewertet die Priorität anhand von Inhalt und Tonalität. Tickets werden automatisch angelegt und geroutet, während bei sensibleren Aktionen wie Bestellanlagen ein menschlicher Kontrollschritt erhalten bleibt. Das Prinzip: „Human in the Loop“ – KI unterstützt, der Mensch entscheidet.
Ein zweites Beispiel aus der Fertigungspraxis ist der NaturalLanguage-Formelgenerator für die Variantenfertigung. Formelsyntaxen in konfigurierbaren Stücklisten sind komplex und erfordern Spezialwissen – das oft nur bei einzelnen Mitarbeitern liegt. Ritz beschreibt das Problem: „Heute ruft jemand an und sagt, ich habe hier eine Formel, der Herr Müller-Meyer-Schmidt, der die erstellt hat, ist seit zwei Jahren nicht mehr im Unternehmen. Was macht denn diese Formel?“
Mit dem KI-Agenten lässt sich dieser Prozess in beide Richtungen abbilden: Arbeitsvorbereiter formulieren Anforderungen in natürlicher Sprache – etwa „Wenn das Sachmerkmal Material geändert wird, müssen in der Stückliste verzinkte anstatt Stahlschrauben hinterlegt werden“ – und der Agent erzeugt daraus die technisch korrekte Formelsyntax. Umgekehrt erklärt er bestehende Formeln in verständlichem Deutsch. Das erleichtert nicht nur das Onboarding neuer Mitarbeiter, sondern hilft auch dabei, implizites Prozesswissen aus dem System zurückzugewinnen – ein Aspekt, der in vielen Betrieben an Dringlichkeit gewinnt.
Frühwarnsystem statt Dashboard-Rauschen
Klassische ERP-Dashboards zeigen in funktionierenden Unternehmen typischerweise 13 von 15 Kennzahlen im grünen Bereich – aber auch diese unauffälligen Werte müssen täglich überprüft werden, ein kontinuierliches Grundrauschen. KI filtert Ausreißer selbstständig heraus und meldet sich nur, wenn tatsächlich Handlungsbedarf besteht.
Noch wertvoller wird dies, wenn interne Daten mit externen Quellen kombiniert werden. Ritz nennt ein konkretes Beispiel: „In dem Moment, wo ich über aktuelle Zolländerungen informiert werde, kann ich schon voraussagen, dass meine Marge bei Auslandsbestellungen unter Umständen sinken wird – und sollte idealerweise gleich automatisiert einen Termin mit dem Sales Team ansetzen.“

KI greift dort an, wo ERP-Daten auf ShopfloorRealität trifft – von der Maschinenbelegung bis zur Prüfmittelsuche. Bild: © yoh4nn via Getty Images
waren – und kein einzelnes System einen vollständigen Überblick lieferte. Eine KI, die über AppCentral auf alle diese Quellen zugreift, kann Kapazitäten in Echtzeit sehen, Umrüstzeiten einplanen und Engpässe frühzeitig signalisieren.
Ein praktisches Beispiel aus der Instandhaltung: Bei Maschinenretrofit-Projekten sitzen häufig mehrere Ingenieure zusammen, um zu beurteilen, ob eine Generalüberholung, eine Teilmodernisierung oder ein Retrofit im laufenden Betrieb wirtschaftlich sinnvoll ist. Eine KI, die Zugriff auf das gesamte Maschinenspektrum identischer oder ähnlicher Anlagen hat, kann deutlich schneller bewerten, welche Maßnahme sich lohnt – und unmittelbar eine Kostenschätzung liefern. Bei langen Lieferzeiten für neue Maschinen ist ein Retrofit damit oft die schnellere und wirtschaftlichere Lösung.
Wer bis Ende 2026 oder 2027 noch keine KI im Einsatz hat, wird es schwer haben, mit der Konkurrenz Schritt zu halten.“
HOLGER RITZ
Dasselbe gilt für volatile Materialpreise: Erkennt ein KI-Agent, dass sich der Durchschnittspreis eines Artikels im letzten halben Jahr um mehr als zehn Prozent verschoben hat, meldet er dies proaktiv – lange bevor eine Preiskorrektur in der Auslieferung schmerzhaft wird. Ritz ergänzt: „Mit einer KI, die das Datenmodell selbstständig verknüpfen kann, lassen sich solche Fragen ad hoc beantworten.“
KI im Shopfloor:
Maschinenbelegung, Retrofit und Prüfmittelverwaltung
Bisher war die Herausforderung in der Produktion, dass Informationen über Maschinenbelegung, Shopfloor-Status und Fertigungsplanung auf ERP, MES und digitale Plantafeln verteilt
Auch die Suche nach Betriebs- und Prüfmitteln im Werk ist ein häufig unterschätztes Alltagsproblem: Ist ein Prüfmittel in einer anderen Abteilung bevorratet, folgen Telefonate oder gar Doppelbestellungen. Eine natürlichsprachliche Suchanfrage an die KI lokalisiert den Standort sofort – ohne Systemwechsel.
AppCentral: Eine Plattform, alle Systeme, ein Einstiegspunkt
Die technische Basis für all diese Szenarien ist AppCentral, Apteans cloudbasierte, KI-gestützte Plattform. Sie integriert ERP, MES, WMS, CRM, PLM und weitere Anwendungen in einer einheitlichen Arbeitsumgebung. KI-Agenten sind direkt in die BackendProzesse eingebettet, ohne neue Schnittstellen. Unternehmen finden alle Informationen zentral an einem Ort – mit den gleichen Berechtigungen wie in den Einzelsystemen. Zudem plant Aptean ein AI-as-a-Service-Modell, das Unternehmen den Einstieg ohne aufwändige Installationen ermöglicht. TB
WOLFRAM WIESE ist Fachredakteur bei der PRX Agentur für Public Relations in Stuttgart.
Die enttäuschenden Ergebnisse vieler KI-Initiativen liegen häufig am Fehlen einer zentral verfügbaren Wissensbasis. Dabei besitzen mittelständische Unternehmen meist mehr nutzbares Wissen, als sichtbar ist –es liegt nur verteilt oder implizit vor. Moderne KI-Anwendungen strukturieren dieses vorhandene Wissen, schließen Lücken und führen fragmentierte Informationen zusammen. VON ERIC BRABÄNDER
Künstliche Intelligenz ist längst in der industriellen Realität angekommen – und dennoch bleibt die wirtschaftliche Wirkung vieler KI-Initiativen hinter den Erwartungen zurück. Zwei Drittel der deutschen Unternehmenslenker sehen bislang keinen positiven Effekt ihrer KI-Investitionen – das ist das ernüchternde Ergebnis einer aktuellen PwC-Studie [1] unter mehr als 4.400 CEOs aus 95 Ländern. Nur elf Prozent konnten durch KI höhere Umsätze erzielen, und lediglich zwei Prozent gelang es, Umsatz zu steigern und gleichzeitig Kosten zu senken. Die Ursache liegt weniger in der Technologie selbst als in der Herangehensweise. Unternehmen beginnen mit der KI-Einführung, bevor die organisatorische Grundlage dafür geschaffen ist. Ohne strukturiertes, zugängliches Unternehmenswissen bleibt der ROI von KI-Projekten aus.
Fragmentiertes Wissen als strukturelles Hemmnis
Industrieunternehmen verfügen über umfangreiche Datenmengen – aus Produktionssystemen, Servicedokumentationen, ERP- und MES-Systemen. Diese Daten sind jedoch meist auf Abteilungen, Standorte und Anwendungen verteilt, inkonsistent gepflegt und selten so aufbereitet, dass KI-Systeme damit operieren können. Darüber hinaus existiert in vielen Betrieben ein erheblicher Bestand an implizitem Erfahrungswissen: Maschinenbediener, Servicetechniker und Konstrukteure tragen jahrzehntelang gewachsenes Prozess- und Störungswissen in sich, das nie systematisch erfasst wurde. Gehen sie in den Ruhestand, droht ein schwer kompensierbarer Kompetenzverlust.
Unvollständige, inkonsistente oder kontextarme Daten verhindern, dass KI-Sys-


teme zuverlässige Muster erkennen und verwertbare Aussagen treffen können, etwa in der vorausschauenden Wartung, der Qualitätskontrolle oder der Produktionsplanung. Betriebliches Wissen entfaltet seinen Nutzen erst dann vollständig, wenn es strukturiert erfasst, validiert und abteilungsübergreifend zugänglich ist.
Strukturiertes Wissen als Fundament digitaler Wertschöpfung
KI-Systeme arbeiten ausschließlich mit dem, was ihnen strukturiert und umfassend verfügbar gemacht wird. Sie erkennen Muster in Daten und generieren Prognosen, doch implizite Annahmen, ungeschriebene Regeln oder historisch gewachsene Ausnahmen erschließen sich nicht von selbst. Wo Fachbegriffe uneinheitlich verwendet werden, Wartungsprozesse an verschiedenen Standorten unterschiedlich dokumentiert sind oder Zuständigkeiten
Fragmentierte Daten, verteilte Systeme, implizites Wissen: Die eigentliche Herausforderung liegt vor der KI-Einführung.
Bilder: Proalpha
unklar bleiben, verstärkt KI bestehende Inkonsistenzen, anstatt sie aufzulösen. Wissensmanagement ist deshalb so wichtig, denn es schafft die semantische Grundlage, die KI braucht, um Wert schöpfen zu können: klare Begriffsdefinitionen, konsistente Taxonomien, strukturierte Dokumentationsstandards und nachvollziehbare Zuständigkeiten. Wer sie erfolgreich einsetzen will, muss den eigenen Wissensbestand
ZWEI DRITTEL DER DEUTSCHEN UNTERNEHMENSLENKER SEHEN BISLANG KEINEN POSITIVEN EFFEKT IHRER KI-INVESTITIONEN.

ebenso konsequent managen wie seine finanziellen oder materiellen Ressourcen.
Aufbau eines KI-fähigen Wissenssystems in vier Schritten
Gerade für mittelständische Unternehmen, die weder über eigene KI-Abteilungen noch über große Projektbudgets verfügen, liegt der größte Hebel nicht in spektakulären Leuchtturmprojekten, sondern in der konsequenten Organisation des bereits vorhandenen Wissensbestands. Leistungsstarke, spezialisierte SaaS-Lösungen, die diesen Prozess unterstützen, sind längst am Markt verfügbar und lassen sich leicht in bestehende IT-Landschaften integrieren. Für die Umsetzung empfiehlt sich ein zyklischer Ansatz aus vier aufeinander aufbauenden Schritten:
1. Identifizierung und Erschließung von Wissen: Dokumentiertes Expertenwissen, informelles Kommunikationswissen aus Chats und Besprechungsprotokollen sowie Daten aus bestehenden Systemen wie ERP, MES, CRM oder PIM werden in einem zentralen Knowledge Hub zusammengeführt und über standardisierte Schnittstellen regelmäßig synchronisiert.
2. Aufbereitung und Freigabe von Wissen: Moderne KI-Anwendungen erleichtern den Aufbau einer Wissensdatenbank erheblich. Mitarbeitende laden unstrukturierte Daten oder Stichpunkte in das System hoch und die KI generiert daraus automatisch Wissensartikel. Ein integriertes Wissensmodell identifiziert dabei systematisch relevante Inhalte.
Eine abschließende Expertenprüfung sichert die Qualität.
3. Bereitstellung von Wissen: Über ein granulares Rollen- und Rechtesystem lässt sich das aufbereitete Wissen gezielt ausspielen – an interne Mitarbeitende ebenso wie an externe Servicepartner. Die Einbindung in bestehende Arbeitsumgebungen wie Outlook, CRMund Ticketing-Systeme und der Zugriff über mobile Endgeräte sichern die Akzeptanz im operativen Betrieb.
4.Nutzung künstlicher Intelligenz: Knowledge Graphen bilden das semantische Gerüst des Unternehmenswissens. Generative KI übersetzt natürliche Sprache in den Unternehmenskontext, überführt unstrukturiertes Wissen in strukturierte Artikel und ermöglicht über einen RAGAnsatz (Retrieval Augmented Generation) quellenbasierte, nachvollziehbare Auskünfte.
Beispiel: KI-gestützter Wissenstransfer im industriellen Service
Die Viastore Group ist seit über 50 Jahren Spezialist für automatisierte Intralogistiklösungen und Hochregallager. Mit zunehmender Internationalisierung, steigender Anlagenkomplexität und einem signifikanten Anteil an Mitarbeitenden kurz vor dem Renteneintritt stand das Unternehmen vor der Anforderung, kritisches Servicewissen systematisch zu konservieren und standortübergreifend nutzbar zu machen.
Gemeinsam mit dem Lösungspartner Empolis wurde eine zentrale Wissens-
KI entfaltet ihr Potenzial, wo Wissen systematisch erfasst und verfügbar ist.
GERADE FÜR KMU LIEGT DER GRÖSSTE HEBEL IN DER KONSEQUENTEN ORGANISATION DES BEREITS VORHANDENEN WISSENSBESTANDS.
management-Plattform implementiert. Schulungen und Experteninterviews hat man automatisch transkribiert und KIgestützt in strukturierte Wissensartikel überführt. Inhalte lassen sich für die internationale Nutzung sprachlich aufbereiten. Eine semantische Suche sorgt dafür, dass sich relevante Informationen im Servicekontext schnell finden lassen.
Die erzielten Effekte zeigen sich auf mehreren Ebenen: Die Recherchezeiten im Remote-Service haben sich messbar reduziert, Servicetechniker finden störungsrelevante Informationen schneller und mit höherer Treffsicherheit. Ausscheidendes Expertenwissen wird systematisch im Unternehmen gesichert und neue Mitarbeitende lassen sich schneller produktiv einsetzen. Damit schafft Viastore die Datenbasis für weiterführende KI-Anwendungen – etwa KI-gestützte Diagnoseassistenten oder prädiktive Instandhaltungsansätze im Anlagenbetrieb. RT
[1] https://www.pwc.de/de/ceosurvey/2026/ pwc-29-ceo-survey-report.pdf
ist Chief Product Officer bei Empolis.
Europa erlebt gerade eine stille Zeitenwende im Umgang mit Daten. Laut aktuellem Bitkom Cloud Report halten 78 Prozent der deutschen Unternehmen Deutschland für zu abhängig von US-Anbietern. Und das Analystenhaus Gartner geht davon aus, dass bis 2030 mehr als 75 Prozent der europäischen Unternehmen ihre virtuellen Workloads in Lösungen überführen, die geopolitische Risiken gezielt reduzieren. Zum Vergleich: Im Jahr 2025 haben das weniger als fünf Prozent getan. VON ANDREAS DANGL
Der US Cloud Act macht das Thema greifbar: Er verpflichtet amerikanische Unternehmen, gespeicherte Daten auf Anfrage an US-Behörden herauszugeben – selbst wenn sich die Daten physisch in Europa befinden. Damit verliert jede Organisation, die auf US-basierte Cloud-Dienste setzt, ein Stück ihrer Kontrolle über vertrauliche Informationen. Digitale Souveränität ist damit keine abstrakte Forderung, sondern eine ganz konkrete Frage der Selbstbestimmung.
In industriellen Umgebungen geht es bei digitaler Souveränität um weit mehr als
Datenschutz im klassischen Sinne. Konstruktionsdaten, Stücklisten, Prüfprotokolle, Audit-Trails und Validierungsnachweise bilden das operative Rückgrat technischer Prozesse. Sie sind unmittelbar mit regulatorischen Anforderungen, Zertifizierungen und Haftungsfragen verknüpft.
Cyberangriffe auf industrielle Steuerungssysteme, gezielte Sabotage oder Datenmanipulation in Lieferketten haben in den vergangenen Jahren reale wirtschaftliche Schäden verursacht. Wer heute noch nicht beantworten kann, wo die eigenen Daten liegen, wer darauf zugreift und wie

Systeme sie verarbeiten, nimmt ein erhebliches unternehmerisches Risiko in Kauf.
Die Rückholung der Kontrolle
Immer mehr Unternehmen führen geschäftskritische Daten und Anwendungen aus internationalen Public-Cloud-Umgebungen zurück in rechtlich kontrollierbare, regionale Infrastrukturen. Dieser Prozess – Data Repatriation – ist jedoch kein simples „Lift and Shift“. Wer Daten zurückholt, muss gleichzeitig Datenklassifizierungen vornehmen, bestehende Dokumentationsund Freigabeprozesse neu abbilden und Integrationen zu ERP-, CRM-, PLM- oder Produktionssystemen sicherstellen.
IN INDUSTRIELLEN UMGEBUNGEN
GEHT ES BEI DIGITALER SOUVERÄNITÄT UM WEIT MEHR ALS DATENSCHUTZ IM KLASSISCHEN SINNE.
Besonders im DMS- und QMS-Umfeld zeigt sich die Komplexität: Revisionssichere Archivierung, lückenlose Nachvollziehbarkeit entlang der gesamten Qualitätskette und klare Zugriffsrechte – all das muss auch in der neuen Infrastruktur durchgängig funktionieren. Ein präzises Rollen- und Berechtigungskonzept regelt, wer welche Daten einsehen, bearbeiten oder freigeben darf.
Eine souveräne Datenstrategie schafft Resilienz gegenüber äußeren Einflüssen und sichert den langfristigen Erfolg. Bild: © hkama/stock.adobe.com
Jede Änderung lässt sich nachvollziehen, jeder Bearbeitungsschritt dokumentieren – über den gesamten Lebenszyklus eines Dokuments, auch in der Zusammenarbeit mit Lieferanten und Kunden entlang der Supply Chain.
EIN SOUVERÄNER KI-EINSATZ
SETZT AUF KLAR ABGEGRENZTE, KONTROLLIERBARE UMGEBUNGEN.
Künstliche Intelligenz:
Potenzial mit Verantwortung Künstliche Intelligenz (KI) verändert das industrielle Datenmanagement grundlegend. Automatisierte Klassifizierung technischer Unterlagen, intelligente Suchfunktionen oder mehrsprachige Dokumentenprüfungen steigern Effizienz und Qualität spürbar.
Large Language Models wie ChatGPT oder Claude demonstrieren die Leistungsfähigkeit generativer KI. Diese Systeme analysieren, strukturieren und formulieren Inhalte auf Basis umfangreicher Trainingsdaten neu.
Gleichzeitig bleibt oft unklar, wo Systeme eingegebene Informationen verarbeiten oder speichern. In vielen Szenarien verlassen Daten den europäischen Rechtsraum. Unternehmen verlieren dadurch Transparenz über Verarbeitungsprozesse und schaffen potenzielle Compliance-Risiken.
Ein souveräner KI-Einsatz setzt deshalb auf klar abgegrenzte, kontrollierbare Umgebungen. Mandantenreine Modelle arbeiten innerhalb abgeschotteter Infrastrukturen ohne Internetanbindung. Sie greifen ausschließlich auf Daten der jeweiligen Organisation zu und geben keine Informationen nach außen weiter. Unternehmen kombinieren auf diese Weise Geschwindigkeit und Automatisierung mit maximaler Datensicherheit.
Vor allem bei sensiblen Anwendungsfällen wie automatisierter Vertragsprüfung, technischer Risikobewertung oder regulatorischer Dokumentation entscheidet die Architektur der KI-Anwendung über Rechtssicherheit und Vertrauenswürdigkeit.
Mandantenreine KI: Geschwindigkeit ohne Datenverlust
Die Antwort auf dieses Dilemma liegt in mandantenreinen KI-Modellen. Sie arbeiten innerhalb abgeschotteter Umge -

bungen ohne Verbindung zum Internet, lernen ausschließlich aus den Daten der jeweiligen Organisation und geben keine Informationen nach außen. So kombiniert KI Geschwindigkeit mit Sicherheit – und stärkt die Wettbewerbsfähigkeit, ohne das Unternehmenswissen zu gefährden. Konkret bedeutet das: KI-gestützte Dokumentenprüfungen, automatische Übersetzungen technischer Unterlagen und intelligente Klassifizierung von Prüfdokumenten laufen vollständig innerhalb der kontrollierten Unternehmensumgebung ab. Kein Datenpunkt verlässt den definierten Rechtsraum. Das schafft die Grundlage für rechtssichere KI-Nutzung, auch bei hochsensiblen Informationen –etwa in der Rüstungs-, Medizintechnik- oder Automobilindustrie.
Digitale Selbstbestimmung beginnt bei der Infrastruktur. Vollständig in Europa betriebene Cloud-native-Plattformen unterliegen dem europäischen Rechtsrahmen und verpflichten sich zu Transparenz, Überprüfbarkeit und Sicherheit bei Datenhaltung, Entwicklung und Betrieb. Unternehmen profitieren nicht nur von rechtlicher Klarheit, sondern auch von der technischen Flexibilität moderner Cloud-Architekturen.
Umfassende Zertifizierungen nach ISO 27001/27018, BSI C5 Testat, ISAE 3000 SOC2 Testat und dem EU Cloud Code of Conduct (Level 3) machen Datenschutz und Informationssicherheit messbar. Regelmäßige Audits schaffen Transparenz und Nachvollziehbarkeit – ein wesentlicher Aspekt, um
Die Sicherstellung von digitaler Souveränität sorgt für den Schutz sensibler Industriedaten.
Bild: © FG Trade via GettyImages
Vertrauen innerhalb globaler Lieferketten zu festigen.
Die Möglichkeit, den Datenstandort gezielt zu wählen, stärkt das Vertrauen in die eigene digitale Infrastruktur und verhindert strukturelle Abhängigkeiten von außereuropäischen Anbietern.
Souveränität als Wettbewerbsvorteil Datensicherheit und digitale Souveränität sind weit mehr als technische Schutzmechanismen. Sie stehen für Eigenständigkeit, Innovationskraft und die Fähigkeit, Verantwortung für das eigene Wissen zu übernehmen. Wer Datenhoheit, Compliance und Effizienz miteinander verbindet, legt den Grundstein für eine starke, selbstbestimmte und zukunftsfähige Industrie in Europa.
Europas Industrie gestaltet ihre digitale Zukunft nur dann erfolgreich, wenn sie Technologien nutzt, die Kontrolle und Fortschritt in Einklang bringen. Eine souveräne Datenstrategie – kombiniert mit mandantenreinen KI-Systemen auf europäischer Cloud-Infrastruktur – schafft die nötige Resilienz gegenüber äußeren Einflüssen und sichert den langfristigen wirtschaftlichen Erfolg. RT
ANDREAS DANGL ist Entrepreneur und Geschäftsführer von Fabasoft Approve.
KI sollte nicht isoliert betrachtet werden, sondern als integraler Bestandteil einer durchgängigen Produktdatenstrategie im Sinne eines Intelligent Product Lifecycle.

Mit agentenbasierter KI entsteht erstmals die Möglichkeit, komplexe Produkt- und Prozesszusammenhänge nicht nur zu analysieren, sondern aktiv zu verstehen und eigenständig zu handeln. Doch welches Potenzial steckt konkret hinter diesem Ansatz und wie entwickelt sich seine Reife in der Praxis?
Künstliche Intelligenz hat in der industriellen Praxis eine neue Entwicklungsstufe erreicht. Während erste Anwendungen auf punktuelle Automatisierung oder Datenanalyse zielten, geht agentenbasierte KI deutlich darüber hinaus: Sie kann Aufgaben im Kontext komplexer Produkt- und Prozessstrukturen interpretieren, Handlungsschritte ableiten, vorbereiten und eigenständig ausführen.
Das kann zum Beispiel die Analyse von Änderungen in Stücklisten und Arbeitsplänen sein, die Ableitung fertigungsgerechter Anpassungen oder eine automatisierte Erstellung bzw. Aktualisierung von Arbeitsanweisungen. KI-Agenten können Qualitäts- oder Abweichungsdaten aus der Produktion auswerten und an vorgelagerte Prozesse zurückspielen. So können sie für eine bessere Abstimmung zwischen
Entwicklung und Fertigung sorgen und damit für weniger Fehler, mehr Effizienz, kürzere Reaktionszeiten und eine spürbare Entlastung der Teams von manuellen Abstimmungs- und Analyseaufgaben.
IM UNTERSCHIED ZU KLASSISCHER REGELBASIERTER AUTOMATISIERUNG ANALYSIEREN KI-AGENTEN INFORMATIONEN KONTEXTSENSITIV.
Technisch stützen sie sich dabei auf drei zentrale Bausteine: vektorbasierte Datenmodelle zur Einbindung unstrukturierter Inhalte, semantische Schichten zur Übersetzung natürlichsprachlicher Anfragen in Systemabfragen sowie offene APIs, um systemübergreifend Aktionen auszulösen. Drei Reifestufen agentenbasierter Unterstützung
In der industriellen Praxis lassen sich KIAgenten in drei Reifestufen beobachten: Stufe 1 – Beraten: Indem KI-Agenten spezifische Informationen liefern, Doku-
Im Unterschied zu klassischer regelbasierter Automatisierung analysieren KI-Agenten Informationen kontextsensitiv. Dadurch können sie Abhängigkeiten erkennen und in ihre Entscheidungslogik einbeziehen. Zudem sind KI-Agenten interoperabel, sie arbeiten also nicht innerhalb einer Anwendung, sondern können Daten und Prozesse zwischen verschiedenen Systemen verknüpfen.
mente zusammenfassen und Empfehlungen geben, ermöglichen sie Effizienzsteigerungen und eine schnellere, datenbasierte Entscheidungsfindung. Derartige KI-Agenten lassen sich schon mit geringen Investitionen umsetzen, Voraussetzung ist die Integration mit den relevanten Datenquellen.
Stufe 2 – Unterstützen: Diese KI-Agenten unterstützen nicht nur, sondern führen einzelne Teilaufgaben aktiv aus. So können sie Prozesse optimieren und Fehler reduzieren. Entscheidungen werden datenbasiert vorbereitet, bleiben aber letztlich beim Menschen. Diese Agenten erfordern eine tiefere Integration in Unternehmenssysteme, ein ausgefeilteres Prompt-Engineering und eine KIgesteuerte Entscheidungsunterstützung.
Stufe 3 – Automatisieren: In klar definierten Szenarien führen KI-Agenten eigenständig Aufgaben aus, dabei passen sie sich dynamisch an veränderte Daten und Prozesse an. Das kann die betriebliche Effizienz erheblich steigern. Transparenz und Governance sind dabei jedoch essenziell. Zudem braucht es hierfür Agenten-Architekturen, ein hochentwickeltes Prompt-Engineering und ggf. auch spezialisierte MachineLearning-Modelle.
PLM als strukturierte Datenbasis für KI Für KI-Agenten aller drei Stufen gilt: Ihre Wirksamkeit hängt entscheidend von der Verfügbarkeit strukturierter, konsistenter und kontextualisierter Daten ab. Die Realität ist jedoch von heterogenen Systemlandschaften, Medienbrüchen und historisch gewachsenen Dokumentenstrukturen geprägt. Der Schritt von dokumentenzentrierten Arbeitsweisen hin zu teilezentrierten, durchgängig verknüpften Produktdatenmodellen ist daher nicht nur ein Effizienzthema, sondern eine strategische Voraussetzung für den KI-Einsatz.
Genau darin liegt die Stärke von PLM(Product Lifecycle Management) und ALM(Application Lifecycle Management) Systemen. Indem hier Produktdaten, Stücklisten, Änderungsprozesse, Anforderungen und Freigaben entlang des gesamten Lebenszyklus verwaltet werden, können KI-Agenten aktuelle und belastbare Daten abrufen und in den Kontext des Gesamtsystems setzen. Das macht sie zum Fundament agentenbasierter KI und bringt Intelligenz in den Produktlebenszyklus.
Das beschreibt PTC mit dem Konzept des Intelligent Product Lifecycle. Er beginnt bei den Produktdaten in der Entwicklung und nutzt diese systematisch weiter für die Fertigung und Beschaffung bis hin zum Service. So entsteht eine konsistente Datenbasis, die Silos überwindet und Rückverfolgbarkeit sowie Rückkopplungsschleifen ermöglicht, etwa von der Fertigung oder dem Service zurück in die Konstruktion. Die Produktdatenbasis ist hier nicht nur als Dokumentationsinstrument zu sehen, sondern als strategische Infrastruktur. Denn je besser diese Daten strukturiert, verknüpft und qualitätsgesichert sind, desto größeren Nutzen entfalten sie für unternehmensweite Prozesse und desto wirkungsvoller kann agentenbasierte KI darauf aufsetzen.
Einführung als Transformationsprojekt
Die Integration agentenbasierter KI ist jedoch nicht nur ein technologisches Vorhaben. Sie ist ein kultureller Wandel, der neue Fähigkeiten sowie veränderte Rollen, Prozesse und organisatorische Strukturen erfordert. Als Einstieg empfehlen sich deshalb klar definierte und abgegrenzte Pilotprojekte mit eingeschränktem Risikoprofil. So können Unternehmen Erfahrungen sammeln und schrittweise skalieren. Ein durchdachtes Change-Management hilft Mitarbeitenden dabei, KI als Unterstützung zu betrachten, die ihnen ermöglicht, Routineaufgaben abzugeben, ungehindert
(zusammen) zu arbeiten und besser informierte Entscheidungen zu treffen. Zudem müssen Schulungen und Verfahren sicherstellen, dass KI effektiv, aber auch verantwortungsvoll eingesetzt wird.
Außerdem ist regulatorische Compliance entscheidend. KI-Systeme müssen erklärbar und transparent sein und den aktuellen Regularien wie DSGVO, dem EU AI Act sowie Cybersecurity-Richtlinien und -Anforderungen entsprechen.
Ausblick: KI als Verstärker industrieller Kompetenz
Auch KI-Agenten sind kein Allheilmittel. Doch sie können mehr Agilität, Effizienz und Innovationsfähigkeit ermöglichen. Entscheidend hierfür ist es, KI nicht isoliert zu betrachten, sondern als integralen Bestandteil einer durchgängigen Produktdatenstrategie im Sinne eines Intelligent Product Lifecycle. Fertigungsunternehmen, die ihre Produktdaten auf diese Weise nutzbar machen, profitieren nicht nur durch operative Effizienzgewinne, sondern legen auch den Grundstein für eine KI-gestützte Weiterentwicklung der gesamten Organisation. KF
DR. FLORIAN HARZENETTER ist Global Advisor Industrials bei PTC.
KI-Agenten können z. B. Qualitäts- oder Abweichungsdaten aus der Produktion auswerten und an vorgelagerte Prozesse zurückspielen – für eine bessere Abstimmung zwischen Entwicklung und Fertigung. Bilder: PTC

Mit KI-basierter Computer Vision lassen sich Montagelinien überwachen.
Bild: Getty Images

Künstliche Intelligenz hat Computer Vision grundlegend weiterentwickelt. Sie macht aus einer ehemals schwerfälligen und stark eingeschränkten Technologie ein selbstlernendes und flexibles Werkzeug. Um diesen Mehrwert zu heben, benötigen Unternehmen neben KI auch eine leistungsfähige, skalierbare IT-Infrastruktur. VON CHRIS
Die großen Fortschritte der künstlichen Intelligenz verändern auch Computer Vision nachhaltig. Früher waren Anwendungen zur Erkennung und Verarbeitung von Bildern durch Computer stark regelbasiert und von fest programmierten Merkmalen abhängig – und dadurch technisch sehr eingeschränkt. Sie erkannten lediglich einfache Muster, waren fehleranfällig und konnten schlecht skalieren, weil sich ihre Regeln und Programmierungen nur schwer auf neue Anwendungen übertragen ließen. Zudem war ihre Einrichtung mit großem manuellem Aufwand verbunden und verlangte tiefgehendes Expertenwissen.
Künstliche Intelligenz (KI) hat die Spielregeln grundlegend geändert. Deep Learning und neuronale Netze ermöglichen es Computer-Vision-Systemen heute, aus Bilddaten von Kamerasystemen selbstständig zu lernen, welche Merkmale eines Bildes wichtig sind. Sie erreichen eine deutlich
MIT IHREN FÄHIGKEITEN IST
KI DEUTLICH MEHR ALS NUR EINE ERGÄNZUNG VON COMPUTER VISION.
höhere Erkennungsgenauigkeit und funktionieren auch in komplexen Umgebungen und bei ungünstigen Lichtverhältnissen. Sie können mit bislang unbekannten Bildern umgehen, lassen sich durch Feedbackschleifen kontinuierlich verbessern und skalieren deutlich besser, weil sich dieselbe Modellarchitektur durch das Training mit neuen Daten für viele verschiedene Szenarien einsetzen lässt.
Mit ihren Fähigkeiten ist künstliche Intelligenz deutlich mehr als nur eine Ergänzung von Computer Vision – sie ist der eigentliche Motor ihrer modernen Ausprägung und macht sie zu einer breit einsetzbaren
Schlüsseltechnologie. Die Einsatzmöglichkeiten für Fertigungsunternehmen sind vielfältig:
Qualitätskontrolle: KI-basierte Computer Vision ermöglicht die automatische Inspektion von Produkten in Echtzeit und erkennt selbst kleinste Fehler, Kratzer oder Montageabweichungen. Dadurch können Fertigungsunternehmen die Ausschussquote deutlich reduzieren und die Qualität ihrer Produkte konstant hochhalten.
Predictive Maintenance: Maschinen können kontinuierlich auf Verschleiß, Verfärbungen oder ungewöhnliche Bewegungen überwacht werden, die auf bevorstehende Ausfälle hindeuten. Durch diese frühzeitige Erkennung lassen sich teure Stillstände und Reparaturen vermeiden.
Montage-Überwachung: In komplexen Montageprozessen überprüft Computer
Vision Schritt für Schritt, ob Bauteile korrekt zusammengebaut werden. Fehler in der Montage lassen sich sofort erkennen und können noch während des Produktionsprozesses korrigiert werden.
Bestandsmanagement: Kameras überwachen Lagerbestände und Palettenbewegungen und erkennen fehlende oder falsch platzierte Teile. Bestände lassen sich in Echtzeit aktualisieren und Nachbestellungen automatisch auslösen. Arbeitssicherheit: Computer Vision identifiziert Gefahrenbereiche, falsche Körperhaltungen oder das Fehlen von Schutzausrüstung in der Produktion. Mitarbeiter erhalten sofortige Warnmeldungen, sodass sich Unfälle und gesundheitliche Risiken minimieren lassen. Prozessoptimierung: KI-gestützte Kameras analysieren die Abläufe von Robotern, Förderbändern und Mitarbeitern, um Engpässe oder ineffiziente Bewegungen zu erkennen. Anhand dieser Daten können Unternehmen Produktionsprozesse gezielt optimieren und Zykluszeiten verkürzen.
Edge AI spielt entscheidende Rolle
Um solche Anwendungen in der Praxis effizient, skalierbar und sicher betreiben zu können, ist eine leistungsfähige IT-Infrastruktur nötig. Dabei spielt Edge AI, also die Verarbeitung der Daten durch KI nahe an ihrem Entstehungsort, eine wichtige Rolle. Bei Edge AI wird zunächst ein generisches KI-Modell, das als Basis dient, auf zentralen Servern vortrainiert, die dafür eine ausreichende Rechenleistung bieten. Diese Server können sich je nach Datenschutz- und Sicherheitsanforderungen im eigenen Rechenzentrum oder einer Public Cloud befinden; für das Training können echte oder synthetische Daten eingesetzt werden. Das trainierte Modell wird anschließend auf die Edge-Geräte verteilt,
Spezielle Server können Bilddaten nahe an ihrem Entstehungsort mit künstlicher Intelligenz analysieren. Bild: Dell Technologies
also auf KI-fähige PCs oder Mini-Server, die sich nahe an den Kamerasystemen befinden und damit vernetzt sind. Auf diesen Geräten kommen die Modelle dann produktiv zum Einsatz und analysieren die Bilddaten. In regelmäßigen Abständen werden Produktionsdaten an die zentralen Server geschickt, um das KI-Modell weiterzutrainieren und anschließend die Edge-Geräte wieder mit den aktualisierten Modellen zu bespielen.
WELCHE SERVER UND EDGE-DEVICES FÜR SIE GUT FUNKTIONIEREN UND WELCHE STORAGE- UND NETZWERKKOMPONENTEN IHRE ANFORDERUNGEN ERFÜLLEN.
Eine solche Infrastruktur bietet zahlreiche Vorteile. Da die Daten direkt vor Ort analysiert werden, fallen keine Übertragungskosten an. Es kann nicht zu Ausfällen wegen instabiler Internetverbindungen kommen, und es entstehen auch keine Latenzen durch Datenübertragungen. Das ist für Computer-Vision-Anwendungen besonders wichtig, da ihre Analysen oft sehr zeitkritisch sind. Durch das permanente Weitertraining der KI-Modelle werden diese immer besser, ihre Erkennungsraten steigen und sie passen sich an neue Bedingungen an – etwa jahreszeitlich bedingte Änderungen der Lichtverhältnisse.
Föderiertes Lernen
Eine vor allem aus Datenschutzgründen weiterentwickelte Form dieses InfrastrukturAnsatzes ist das sogenannte föderierte Lernen. Dabei erfolgt auch das weitere Training der KI-Modelle direkt auf den Edge-Geräten. In regelmäßigen Abständen senden die Geräte ihre gelernten Modellparameter zurück an den zentralen Server, der das Modell aktualisiert und das Update wieder zurück an das Edge-Gerät sendet. Dieser Ansatz bietet den zusätzlichen Vorteil, dass man keine
Produktionsdaten mehr zwischen Edge und zentraler Plattform übertragen muss, sondern lediglich die modellbezogenen Aktualisierungen. Sensible Informationen bleiben dort, wo sie entstehen, wodurch Unternehmen geistiges Eigentum besser schützen und Datenschutz-Vorgaben besser einhalten können.
vereinfachen die Implementierung
Die Implementierung von Computer-VisionAnwendungen ist anspruchsvoll. Unternehmen müssen klären, welche Server und Edge-Devices für sie gut funktionieren und welche Storage- und Netzwerk-Komponenten ihre Anforderungen erfüllen. Über die Hardware hinaus benötigen sie auch die Software für ihre Anwendungen. Dazu zählen Lösungen für Datenintegration, Modelltraining, Bereitstellung, Überwachung, Governance und Sicherheit sowie die Fachanwendungen selbst. Über die Auswahl der Lösungen hinaus gilt es zu klären, welche Kombinationen aus Hardware und Software zuverlässig funktionieren. Validierte Designs von IT-Partnern können Unternehmen dabei maßgeblich unterstützen und stark entlasten. Solche Designs enthalten Blaupausen für Architekturen aus Hardware und KI-Software, die bereits getestet und validiert wurden. Sie bieten zudem Empfehlungen für die richtige Dimensionierung und geben detaillierte Anleitungen für das Deployment und den Betrieb der Infrastrukturen. Natürlich können solche Designs nur grundlegende ComputerVision-Workloads abdecken und müssen noch an die individuellen Anforderungen von Unternehmen angepasst werden. Da sie aber bereits getestet und validiert sind, ermöglichen sie Unternehmen eine deutlich schnellere, skalierbarere und risikoärmere Implementierung und legen damit den soliden Grundstein für eine individuelle Computer-Vision-Lösung. RT
CHRIS KRAMAR ist Director & General Manager OEM DACH bei Dell Technologies.

Viele Unternehmen sind überzeugt: Der Einsatz künstlicher Intelligenz wird zukünftig über die Wettbewerbsfähigkeit der deutschen Industrie entscheiden. Nicht in einzelnen Pilotprojekten, sondern in unternehmenskritischen Anwendungen.
Aber: In Diskussionen um die Digitalisierung der Fertigung geht es meist um Daten, Datenqualität und Software –doch wer spricht von den zur Datenübertragung erforderlichen Netzwerkkomponenten? VON JÖRG HESSELINK
Hochauflösende Kameras bemerken feinste Materialveränderungen, eine Vielzahl von Sensoren erfassen relevante Parameter direkt an der Maschine, die Steuereinheiten selbst liefern enorme Datenmengen – dank eigens trainierter KI-Anwendungen lassen sich Produktionsanlagen in vielerlei Hinsicht optimieren. Fertigungsprozesse werden schneller, effizienter, liefern eine höhere Produktqualität oder arbeiten zuverlässiger. Allerdings müssen die KI-Systeme auf dem Shopfloor Daten in Echtzeit auswerten. Nur so lassen sich die entsprechenden Aktionen direkt an die Steuerung rückmelden. Latenzen durch lange Datenübertragungsstrecken können sie sich nicht leisten. Die Konsequenz: Die Netzwerktechnologie auf dem Shopfloor rückt immer näher an die automatisierten Fertigungslinien. Mit der Zahl der verteilten Serverschränke in der Fertigung wach-
sen auch der Wartungsaufwand und das Ausfallrisiko.
Viele Unternehmen stehen vor der ersten großen Herausforderung: die Abgrenzung der Zuständigkeiten. Vor Industrie 4.0 und dem Zusammenwachsen der IT- und OT-
DIE NETZWERKTECHNOLOGIE AUF DEM SHOPFLOOR RÜCKT IMMER NÄHER AN DIE AUTOMATISIERTEN FERTIGUNGSLINIEN.
Netzwerke war die Abgrenzung klar. Die produktionsnahen Netzwerkkomponenten wie SPS, Maschinen und Sensorik wurden in der Regel vom Team operative Technologien (OT) installiert und verantwortet. Die

IT-Abteilung verwaltete hingegen Backbone und Core-Switches für das Zusammenspiel mit der ERP-Software sowie den Bereich Security. Mit dem Zusammenwachsen der Netze sind diese klaren Grenzen bereits verschwommen. OT-Komponenten sind mittlerweile netzwerktechnisch an die Unternehmens-IT angebunden. Als Schnittstelle von IT und OT werden häufig Manufacturing-Execution-Systeme (MES) eingesetzt, um die Silos zu verbinden und Produktionsprozesse zu steuern, zu überwachen und zu optimieren.
Ob die OT- oder IT-Abteilung die für den Datenaustausch erforderlichen Netzwerkkomponenten auf den Produktionsflächen betreut, wird in den Unternehmen unterschiedlich gehandhabt. Teilweise werden Managed Service Provider mit der Wartung und Pflege der Komponenten beauftragt. Eines steht fest: Der kontinuierliche Betrieb der Anlagen hat höchste Priorität. Die von Siemens 2022 veröffentlichte Studie „The True Cost of Downtime“ geht von stündlichen Kosten zwischen 39.000 Dollar bei einem Fertigungsausfall bei schnelldrehenden Konsumgütern und zwei Millionen Dollar in der Automobilindustrie aus. Mit der zunehmenden Komplexität der Systeme und den wachsenden Bedrohungen steigt das Ausfallrisiko. Stundenlang einen Fehler zu suchen, kann sich niemand leisten.
KI-Systeme müssen auf dem Shopfloor Daten in Echtzeit auswerten.
Bild: DC Smarter (KI-generiert mit OpenAI)

Die Grundvoraussetzung, um Fehler schnell zu lokalisieren und zu beheben, ist neben der Kenntnis der logischen Netzwerkstruktur eine jederzeit aktuelle Dokumentation der verbauten Hardware-Komponenten. Klingt banal – nicht aber in der Praxis! In der automatisierten Fertigung sprechen wir häufig von weitläufigen Hallen mit dezentralen Systemen. Erschwerend kommt hinzu, dass die Produktionsstätten häufig weit entfernt sind vom Hauptsitz des Unternehmens. Werden die Roboter umgebaut oder gewartet, kommt es regelmäßig zu Änderungen in den verteilten Serverschränken, ohne dass diese dokumentiert werden. Kabelführungen werden verändert oder andere Ports angeschlossen. Tauchen dann Fehler im Netzwerk auf, erfordern sie eine aufwändige und zeitintensive Fehlersuche. Die zentrale IT-Abteilung ist häufig nicht vor Ort involviert und stößt an Grenzen. Wie kann sichergestellt werden, dass die Netzwerke logisch und physisch immer akkurat dokumentiert sind?
Die größte Gefahr für eine korrekte Inventarisierung aller Komponenten sind Medienbrüche. Bei geplanten Umbauten im Netz erhalten die Technikteams vor Ort in der Regel Arbeitsanweisungen im Servicemanagement-System. Sie gehen mit den Informationen auf den Shopfloor und
führen die entsprechenden Änderungen aus. Zwar melden sie anschließend die Aufgabe als beendet, die genaue Dokumentation der Portbelegung etc. bleibt aber entweder aus oder erfolgt in separaten Reports, die dann erst im Backend eingepflegt werden müssen.
Entscheidende Vorteile für das IT-AssetManagement insbesondere in Produktionsumgebungen bietet die KI-unterstützte Inventarisierung aller Komponenten. Software-Lösungen wie DC Vision, eine Software von DC Smarter, kombinieren dazu
ENTSCHEIDENDE VORTEILE FÜR DAS
IT-ASSET-MANAGEMENT BIETET DIE KI-UNTERSTÜTZTE INVENTARISIERUNG ALLER KOMPONENTEN.
die Technologie des digitalen Zwillings mit Augmented Reality. Zur Inventarisierung der Hardware in den Racks werden diese mit Tablet oder Handy optisch erfasst. Die integrierte KI-basierte Bilderkennung greift auf eine umfangreiche Datenbank zu und erstellt einen digitalen Zwilling der Infrastruktur. Alle Komponenten eines komplett bestückten Racks lassen sich in nur zehn Minuten mit der Lösung dokumentieren. Änderungen werden direkt im Prozess ohne Medienbrüche vor Ort erfasst.
Dank Augmented Reality und digitalem Zwilling lassen sich dezentrale IT-Systeme auf dem Shopfloor sicherer und einfacher betreiben sowie verwalten.
Bild: DC Smarter
Zusammenarbeit per App
Die gesamte IT-Infrastruktur auf dem Shopfloor als digitalen Zwilling abzubilden, vereinfacht die Zusammenarbeit zwischen den Abteilungen und die Abgrenzung der Verantwortlichkeiten. IT-Abteilungen können jederzeit den Überblick über die Infrastruktur auf dem Shopfloor behalten – selbst, wenn sie weit vom Produktionsstandort entfernt arbeiten. Muss die Hardware vor Ort geändert werden, erstellt die IT-Abteilung einen Arbeitsauftrag, der im Work-OrderManagement der DC Vision-App angezeigt wird. Die verantwortlichen Technikteams in der Produktion sehen alle Arbeitsschritte. Gibt es Fragen bei der Ausführung, können sie direkt auf die Dokumentation der Hardware zugreifen oder den verantwortlichen Experten um Hilfe bitten. Selbst IT-fremde Mitarbeiter können sämtliche Änderungen auf diesem Weg in kürzester Zeit zuverlässig dokumentieren. Sobald die Änderungen abgeschlossen sind, wird die neue Ist-Situation mit der Kamera des Tablets oder Mobiltelefons erfasst. Die Änderungen werden direkt im digitalen Zwilling eingepflegt – ohne Medienbruch und ohne Verzögerung. Trotz KI auf dem Shopfloor, trotz verteilter Systeme und den daraus resultierenden Anforderungen behält die IT-Abteilung so jederzeit den Überblick über die vorhandenen Assets. RT
JÖRG HESSELINK ist CEO & Founder von DC Smarter.
Die Fabrik der Zukunft basiert nicht allein auf leistungsfähigeren Maschinen, sondern auf besseren Daten.
Sensoren erfassen die Realität in Echtzeit, KI wertet sie aus und Sensorfusion verknüpft unterschiedliche Informationsquellen zu einem präzisen Gesamtbild. Gemeinsam bilden sie das Rückgrat einer effizienten und resilienten Industrieproduktion. VON OLIVER KÖTH
In klassischen Fertigungsumgebungen war das mechanische Zusammenspiel von Maschinen jahrzehntelang der entscheidende Faktor für Effizienz und Produktivität. Stückzahlen, Taktzeiten und Materialfluss bestimmten das Geschehen auf dem Shopfloor. Zwar hat sich diese Perspektive nicht grundlegend verschoben, doch inzwischen liegen mehr Daten vor, um die Prozesse zu optimieren.
Durch die Vernetzung aller Komponenten – von den Produktionsanlagen über die Logistiksysteme bis hin zur Energieversorgung – und die damit einhergehende Erfassung und Auswertung unterschiedlichster Parameter lassen sich Schwachstellen nahezu in Echtzeit identifizieren und frühzeitig beheben. So wird ein komplett neues Level an Produktivität erreicht. Die eigentliche Wertschöpfung entsteht nicht mehr allein durch physische Leistungsfähigkeit, sondern durch die intelligente Nutzung aller Daten.
Die Rolle von Sensoren in modernen Produktionssystemen
Sensoren sind quasi die Sinnesorgane moderner Produktionssysteme. Sie erfassen Temperatur, Druck, Vibrationen, Positionen, Oberflächengüte oder Umgebungsbedingungen und wandeln physische Vorgänge in digitale Informationen um. Drucksensoren sind beispielsweise für die Überwachung von Änderungen in Flüssigkeiten oder Gasen erforderlich, um einen sicheren Betrieb zu gewährleisten. Vision-Sensoren
wiederum sind unverzichtbar für die Bildanalyse, beispielsweise zur Optimierung von Inspektionsprozessen. Dabei erweitern sie die bestehenden Regelkreise um eine Echtzeit-Komponente, sodass Zusammen-
PHYSICAL AI ERFASST IHRE
UMGEBUNG INKLUSIVE ALLER PHYSIKALISCHEN PHÄNOMENE UND ZUSAMMENHÄNGE RÄUMLICH, DEUTET SIGNALE AUS SENSOREN UND GREIFT UNMITTELBAR IN PROZESSE EIN.
hänge beziehungsweise Missstände, die zu schlechter Qualität führen, nicht nur erkannt, sondern auch frühzeitig beseitigt werden können. Adaptive Fertigungsprozesse, bei denen Maschinen automatisch auf Abweichungen reagieren, werden damit Realität.
Die Herausforderung besteht jedoch in der einheitlichen Verarbeitung der erfassten Daten. Sensoren erzeugen Rohinformationen in sehr unterschiedlichen Formaten

und Protokollen – von klassischen industriellen Standards über moderne Ethernetbasierte Protokolle bis hin zu drahtlosen Technologien wie LoRaWAN oder 5G. Um diese Daten sinnvoll verarbeiten zu können, bedarf es einer Normalisierung und Standardisierung. Hier ermöglichen Frameworks wie Open Platform Communications Unified Architecture (OPC UA) eine semantische Beschreibung von Maschinendaten und ermöglichen die Interoperabilität zwischen unterschiedlichen Herstellern.
Künstliche Intelligenz ist der Verstärker der Sensorik
Die zunehmende Anzahl an Sensoren in der Fertigung führt zu einem überproportionalen Anstieg an Daten. Herkömmliche Systeme haben Schwierigkeiten, Muster, Abweichungen oder Optimierungspotenziale in Echtzeit in dieser Informationsflut zu erkennen. Hier kommt Künstliche Intelligenz ins Spiel. Mit Methoden des maschi-
Je bessere Sensordaten in der Fertigung gewonnen werden können, desto besser lassen sich Muster erkennen und verstehen. Bild: © Gorodenkoff/shutterstock


nellen Lernens und der Mustererkennung können komplexe Zusammenhänge in großen Datenmengen identifiziert werden. Dadurch steigt wiederum das Interesse an Daten zur Beantwortung weiterer relevanter Fragestellungen und es werden zunehmend neue Sensoren installiert.
KI-Modelle analysieren nicht nur historische Daten, sondern erkennen auch Anomalien im laufenden Betrieb und geben Prognosen ab, etwa über den Zustand einer Maschine oder die Wahrscheinlichkeit von Qualitätsabweichungen. Damit das System schnell zum Experten wird, der Fehler zuverlässig erkennt, stehen verschiedene Möglichkeiten zur Verfügung: Supervised- oder Unsupervised-Learning-Algorithmen sowie neue GenAI-Foundation-Modelle für Physical AI. Jede dieser Methoden hat Vor- und Nachteile. So kann das Labeling im Rahmen des Supervised Learning zur Herausforderung werden, wenn 10.000 Samples schnell bewertet werden müssen. GenAI-Foundation-Modelle für Physical AI hingegen stecken noch in den Kinderschuhen, zumindest lässt sich der Trainingsaufwand in der Theorie aber deutlich reduzieren.
Parallel dazu wird Intelligenz zunehmend in die Sensoren integriert. Moderne Geräte verfügen über eigene Rechenkapazitäten und können Machine-Learning-Modelle lokal ausführen. Dadurch sind sie in der Lage, Ereignisse bereits an der Quelle zu interpretieren – etwa Schwingungsmuster sofort als Lagerschaden zu klassifizieren oder Unregelmäßigkeiten in Bilddaten direkt zu kennzeichnen. Diese „Edge Intelligence“ hat mehrere Vorteile: Sie reduziert den Datenverkehr, ermöglicht extrem kurze Reaktionszeiten und erhöht die Robustheit,
Die Daten verschiedener Sensoren müssen im Rahmen einer Sensorfusion verknüpft werden, um ein umfassendes
Bild von Situationen zu erhalten.
Bild: © Standret/shutterstock
verknüpft, um genauere, verlässlichere und kontextbezogenere Informationen zu gewinnen. Ein Beispiel ist die Zustandsüberwachung von Maschinen: Vibrationen allein können auf Unregelmäßigkeiten hinweisen, lassen sich aber oft nicht eindeutig interpretieren. Werden zusätzlich Temperatur- und Strommessungen herangezogen, ergibt sich ein klareres Bild, ob es sich etwa um einen Lagerschaden, eine Unwucht oder einen elektrischen Defekt handelt.
SENSOREN WERDEN IN DEN KOMMENDEN JAHREN WEITER AN BEDEUTUNG GEWINNEN – NICHT NUR ALS MESSINSTRUMENTE, SONDERN AUCH ALS AKTIVE ELEMENTE EINER LERNENDEN INFRASTRUKTUR.

Für Autor Oliver Köth können mit Methoden des maschinellen Lernens und der Mustererkennung komplexe Zusammenhänge in großen Datenmengen identifiziert werden. Bild: NTT Data
da kritische Entscheidungen auch bei eingeschränkter Netzwerkanbindung vor Ort getroffen werden können.
Erst das Zusammenspiel liefert echte Präzision
Ein einzelner Sensor kann immer nur eine begrenzte Perspektive auf einen Prozess liefern. Erst die Kombination mehrerer Sensortypen ermöglicht ein umfassendes und robustes Bild der Realität. Daher werden Daten aus unterschiedlichen Quellen im Rahmen einer Sensorfusion miteinander
Technisch erfordert die Sensorfusion leistungsfähige Algorithmen, die heterogene Datenströme synchronisieren, gewichten und interpretieren. Hier sind KI-Modelle in der Lage, Muster in multimodalen Datensätzen zu erkennen, die für klassische Analyseverfahren verborgen bleiben. Dadurch lassen sich Fehlalarme reduzieren, Anomalien zuverlässiger identifizieren und Entscheidungsgrundlagen verbessern. Gleichzeitig bildet die Sensorfusion die Grundlage für zunehmend autonome Systeme, die komplexe Situationen nicht nur erfassen, sondern auch eigenständig bewerten können. Mit Physical AI ergeben sich dabei ganz neue Möglichkeiten. Diese Art der KI beschränkt sich nicht auf die Analyse von Daten. Sie erfasst ihre Umgebung inklusive aller physikalischen Phänomene und Zusammenhänge räumlich, deutet Signale aus Sensoren und greift unmittelbar in Prozesse ein.
Sensoren als Basis selbstlernender
Sensoren werden in den kommenden Jahren weiter an Bedeutung gewinnen – nicht nur als Messinstrumente, sondern auch als aktive Elemente einer lernenden Infrastruktur. Selbstkalibrierende Sensoren, die ihre Genauigkeit eigenständig optimieren, sowie KI-gestützte Algorithmen, die direkt im Sensor arbeiten, werden Produktionssysteme noch autonomer machen. Gleichzeitig führt die enge Verbindung von IIoT und KI – oft als AIoT bezeichnet – dazu, dass Fabriken Entscheidungen in Millisekunden treffen können. TB
OLIVER KÖTH ist Managing Director Technology & Innovation DACH bei NTT Data.
Der Werkzeugbau steht unter einem zunehmenden Wettbewerbsdruck: Internationale Anbieter holen bei Kosten, Zeit und Qualität auf. Um wettbewerbsfähig zu bleiben, rückt die Verkürzung der Durchlaufzeiten mithilfe von KI-Agenten in den Fokus. Sie schaffen neue Möglichkeiten, Prozesse zu unterstützen und den Fokus auf wertschöpfende Tätigkeiten zu lenken.
Der Wettbewerb im Werkzeugbau hat sich spürbar verschärft, insbesondere durch Anbieter aus Niedriglohnregionen. Der deutschsprachige Werkzeug- und Formenbau steht zwar weiterhin für hohe Qualität und Zuverlässigkeit, doch internationale Wettbewerber haben bei Zeit, Kosten und Qualität deutlich aufgeholt. Damit verliert die Qualität als alleiniges Differenzierungsmerkmal an Wirkung, zumal viele Kunden ihre Vergabeentscheidungen zunehmend an den Kosten und Lieferzeiten ausrichten. Damit wird die konsequente Verkürzung der Durchlaufzeiten zum zentralen Hebel, um langfristig wettbewerbsfähig zu bleiben.
Effizienzsteigerung
im Auftragsabwicklungsprozess
Durchlaufzeiten lassen sich auf der einen Seite durch den Aufbau zusätzlicher Kapazitäten und auf der anderen Seite durch eine konsequente Effizienzsteigerung im Auftragsabwicklungsprozess senken. Gerade weil die Produktivität pro Mitarbeitenden seit Jahren nur noch geringe Fort-
Abb. 1: Vision einer KI-Agenten-gestützten Wertschöpfung im Werkzeugbau.
schritte zeigt, rückt die Effizienzsteigerung in den Mittelpunkt. Zwar wurden in den vergangenen Jahren insbesondere in der Fertigung viele Prozesse digitalisiert und automatisiert, dennoch liegen Informationen weiterhin verteilt in Projektordnern, E-Mails und in den Köpfen der Mitarbeiten-
VON DER ANFRAGE ÜBER DIE KONSTRUKTION BIS ZUM TRY-OUT BIETET JEDER PROZESSSCHRITT POTENZIAL FÜR DIE KI-UNTERSTÜTZUNG.
den. Dies führt dazu, dass ein wesentlicher Teil der Arbeitszeit auf Tätigkeiten ohne direkten Kundennutzen entfällt. Dazu zählen die E-Mail-Kommunikation, die manuelle Datenübertragung sowie Abstimmungen. Genau hier ergeben sich durch die künstliche Intelligenz (KI) neue Potenziale. Sie unterstützt kognitive Routinen und macht
Informationen kontextbezogen nutzbar. KIAgenten gehen noch einen Schritt weiter, indem sie diese KI-Funktionen als selbstständig agierende Assistenzbausteine bündeln, Informationen zusammenführen und die Ergebnisse proaktiv an den relevanten Prozessübergaben bereitstellen. Erste Anwendungen zeigen bereits messbare Verbesserungen, etwa durch verkürzte Zeiten vom Anfrageeingang bis zum ersten Angebot. Jedoch entfaltet KI erst durch eine systematische Einführung und Einbettung in Prozesse, Datenflüsse und Verantwortlichkeiten entsteht ein nachhaltiger Nutzen von KI. Die KI bereitet Entscheidungen vor und übernimmt definierte Aufgaben, sodass Mitarbeitende Zeit für Wertschöpfung und eine robuste Prozesssteuerung gewinnen.
KI-gestützte Auftragsabwicklung entlang der Prozesskette
Von der Anfrage über die Konstruktion bis zum Try-out bietet jeder Prozessschritt Potenzial für die KI-Unterstützung. Beispiele sind die automatische Analyse und Bear-


beitung eingehender Kundenanfragen mit der Extraktion relevanter Anforderungen aus Lastenheften und Zeichnungen. Ebenso kann die Angebotskalkulation durch Ähnlichkeitsanalysen mit Referenzprojekten unterstützt werden. Darüber hinaus sind Prognosen von Durchlaufzeiten sowie eine datenbasierte Priorisierung von Aufträgen unter Berücksichtigung von Terminvorgaben und verfügbarer Kapazität möglich. Abbildung 1 zeigt die Vision einer durch KI-Agenten unterstützten Wertschöpfung im Werkzeugbau. Der entscheidende Mehrwert entsteht durch das abgestimmte Zusammenspiel mehrerer KI-Agenten entlang der Prozesskette. Greifen diese KI-Agenten auf eine gemeinsame Datenbasis zu und nutzen ihre Ergebnisse gegenseitig, entsteht ein durchgängiger Informationsfluss. Die Mitarbeitenden erhalten an den relevanten Übergabepunkten dann keine Einzellisten und Rückfragen mehr, sondern konsistente Vorschläge und belastbare Entscheidungsgrundlagen. So verschiebt sich der Schwerpunkt von koordinativen zu wertschöpfenden Tätigkeiten. Eine klare Rollenverteilung ist die zentrale Voraussetzung. Dabei liefert die KI Vorschläge, während die Entscheidungen und die Verantwortung beim Menschen liegen, insbesondere bei Terminzusagen und Kostenfreigaben.
Strukturierte Auswahl und Umsetzung von KI-Use Cases
Damit KI in der Auftragsabwicklung über punktuelle Effekte hinaus wirksam wird, ist eine belastbare, aus der unternehmensspezifischen KI-Strategie abgeleitete Auswahl geeigneter KI-Use Cases erforderlich. In vielen Betrieben startet die KI-Einführung mit einem Piloten, häufig dort, wo der Handlungsdruck am größten ist oder eine schnelle Lösung verfügbar erscheint. Das baut zwar erstes Erfahrungswissen auf, führt langfristig jedoch oft zu Insellösungen, wenn Daten, Datenschutz und Governance nicht aufeinander abgestimmt
sind. Entscheidend ist daher ein systematisches Vorgehen, das KI als Bestandteil der Gesamtstrategie verankert und die Umsetzung entlang eines klaren Zielbilds Schritt für Schritt steuert. Das Vorgehen ist in Abbildung 2 dargestellt.
Im ersten Schritt wird das Zielbild konkretisiert, indem festgelegt wird, welche Entscheidungen künftig datenbasiert vorbereitet werden und welche Tätigkeiten spürbar entlastet werden sollen. Darauf folgt eine unternehmensweite Use-Case-
Abb. 2: Vorgehensmodell zur Umsetzung von KI-Use Cases.
lastbare Auswahl geeigneter KI-Use Cases. Diese KI-Use Cases werden in einem standardisierten Umsetzungsprozess realisiert. So entsteht eine strukturierte Roadmap, die KI schrittweise in die Praxis überführt und als Verbesserungsprogramm mit messbarer Wirkung verankert.
Strategische Verankerung und sichere Skalierung von KI KI kann Werkzeugbaubetrieben in Hochlohnländern dabei helfen, den notwendi-

Sammlung, die bewusst interdisziplinär erfolgt, damit alle Fachbereiche ihre Perspektiven bezüglich Zeitverlusten, Informationslücken und typischen Fehlerbildern einbringen. Anschließend erfolgt eine strukturierte Vorauswahl, in der ähnliche Ideen gebündelt, Abhängigkeiten identifiziert und Ausschlusskriterien wie etwa die Datenverfügbarkeit geprüft werden. Der zentrale Baustein ist eine mehrdimensionale Bewertung, wie sie in Abbildung 3 skizziert ist.
Bewährt hat sich eine mehrdimensionale Bewertung, die Mehrwert, Kosten und Risiken transparent macht und soweit möglich quantifiziert. So lassen sich der erwartete Nutzen und die direkte Kostenwirkung einer Lösung den erforderlichen Investitionen sowie potenziellen Folgekosten aus Risiken gegenüberstellen. Exemplarische Kriterien sind die Kostenreduktion, die Skalierbarkeit und die Investitionskosten. Wichtig ist eine betriebsindividuelle Gewichtung der Kriterien, damit die Auswahl zur eigenen Ausgangslage und Zielsetzung passt. Aus der Bewertung entsteht eine be -
Abb. 3: Exemplarische Faktoren für die Bewertung von KI-Use Cases. Bilder: WBA Aachener Werkzeugbau Akademie GmbH
gen Produktivitätssprung zu vollziehen. Der Hebel entsteht, wenn KI als integrierte Unterstützung der operativen Steuerung entlang der Prozesskette wirkt und nicht als Insellösung neben bestehenden Systemen eingesetzt wird. Die WBA Aachener Werkzeugbau Akademie unterstützt Unternehmen bei der Entwicklung einer KI-Strategie sowie bei der Priorisierung und Umsetzung geeigneter KI-Use Cases. Gemeinsam mit hiqs arbeitet die WBA an einem datensouveränen und sicheren Einsatz von KI-Agenten. KF
PROF. DR.-ING. WOLFGANG BOOS ist geschäftsführender Gesellschafter der WBA Aachener Werkzeugbau Akademie.
DR.-ING. DAVID WELLING ist Geschäftsführer der WBA Aachener Werkzeugbau Akademie.
THOMAS EBERIUS ist Leiter Industrieberatung bei der WBA Aachener Werkzeugbau Akademie.
LEONHARD KLISCH ist Senior Berater bei der WBA Aachener Werkzeugbau Akademie.
HELEN BAUMERT ist Beraterin bei der WBA Aachener Werkzeugbau Akademie.
Das Observability-Dashboard dient zur Überwachung von Anwendungen und Infrastruktur und bietet Echtzeitdaten zu Systemzustand, Services und Performance.
Bilder: Dynatrace

Moderne Fertigung ist ein cyberphysisches Gesamtsystem mit hoher digitaler Abhängigkeit. SPS, Robotik, MES, ERP, Edge-Gateways und Cloud-Services tauschen in Echtzeit Daten aus. Produktionslinien reagieren dynamisch auf Sensordaten, Qualitätsparameter und Lieferketteninformationen. Die digitale Vernetzung steigert Effizienz, erhöht jedoch die operative Verwundbarkeit. Bereits geringfügige digitale Abweichungen wirken sich unmittelbar physisch aus. VON ROMAN SPITZBART
Verzögerte Sensordaten verändern Taktzeiten, Netzwerklatenzen verfälschen automatisierte Qualitätsprüfungen, ein Update im MES löst unerwartete Abhängigkeiten entlang der Produktionskette aus. Die Folgen sind messbar: sinkende OEE, steigender Ausschuss, ungeplante Stillstände.
Klassisches Monitoring erkennt Grenzwertverletzungen einzelner Komponenten. Es zeigt jedoch nicht, wie sich Wechselwirkungen zwischen IT- und OTSystemen unter realen Belastungen entwickeln. Produktionsresilienz lässt sich nicht mehr über Grenzwerte absichern. Sie muss unter kontrollierten Bedingungen validiert werden. Genau hier setzt Chaos Engineering an.
Steuerungsinstrument
Die Grundidee ist einfach: Chaos Engineering setzt Systeme kontrolliert unter Stress, um ihre Resilienz zu prüfen. In CloudUmgebungen ist dieses Prinzip etabliert, in der industriellen Fertigung galt es lange als zu riskant. Der Grund liegt in der geringen Fehlertoleranz industrieller Prozesse. Während digitale Services tolerierbare Degradation erlauben, führen Störungen in der Produktion unmittelbar zu Ausschuss, Stillstand oder Lieferverzug. Veränderungen im laufenden Betrieb werden daher mit großer Zurückhaltung bewertet.
Zugleich sind hybride IT- und OT-Architekturen historisch gewachsen. Abhängigkeiten sind oft unvollständig dokumentiert,
systemische Wechselwirkungen zwischen Edge, Steuerungsebene und Cloud nur eingeschränkt transparent. Ohne durchgängige Observability bleibt unklar, welche Komponente im Störfall tatsächlich kritisch ist. Belastungstests bedeuteten zudem hohen manuellen Analyseaufwand. Unter diesen Voraussetzungen galt Chaos Engineering als operatives Risiko statt als strategischer Hebel. Erst durch kontrollierbare, kausal auswertbare Experimente wird aus Störung eine belastbare Validierung.
KI als Enabler präziser Resilienztests Künstliche Intelligenz verändert nicht das Prinzip des Chaos Engineering. Sie schafft die Voraussetzungen, es in industriellen Umgebungen kontrollierbar umzusetzen.
Grundlage ist eine durchgängige Observability über IT- und OT-Komponenten hinweg. Produktionsdaten, Infrastrukturmetriken, Log-Informationen und Abhängigkeitsstrukturen werden in Echtzeit erfasst und miteinander verknüpft.
KI ersetzt isolierte Schwellenwertlogik durch kontextuelle Musteranalyse. Anstatt ausschließlich Grenzwerte einzelner Metriken zu überwachen, analysiert sie Muster im Gesamtsystem. Sie lernt typische Betriebszustände, etwa Lastprofile bestimmter Produktionszyklen, Netzwerkverhalten zwischen Edge und Cloud oder systemische Effekte bei Schichtwechseln. Auf dieser Basis erkennt sie Abweichungen frühzeitig, noch bevor sich Störungen physisch manifestieren.
Der entscheidende Mehrwert liegt in kausaler Analyse. Kausale KI identifiziert Ursache-Wirkungs-Zusammenhänge entlang verteilter Service-Abhängigkeiten. Welche Anwendung beeinflusst welche Fertigungszelle? Wo entstehen Kaskadeneffekte? Welche Komponente ist tatsächlich

rameter. Gleiches gilt für Software-Updates in MES- oder Integrationsschichten, die unter produktionsnahen Lastprofilen getestet werden können.
KI deckt verdeckte Single Points of Failure systematisch auf. Abhängigkeitsanalysen machen kritische Knotenpunkte sichtbar, deren Ausfall Kaskadeneffekte auslösen würde. Die Auswertung erfolgt automatisiert: KI filtert irrelevante Signale und korreliert Effekte mit ihren Ursachen. Unternehmen erkennen Stabilitätsgrenzen, bevor reale Stillstände entstehen. Chaos Engineering wird zur systematischen Resilienzvalidierung der Produktionsarchitektur.
Digitale Resilienz als strategischer Bestandteil der Produktionsarchitektur
In hochvernetzten Fertigungsumgebungen entsteht Stabilität nicht durch die Abwesenheit von Störungen, sondern durch die Fähigkeit, sie kontrolliert zu beherrschen. Mit KI-gestütztem Chaos Engineering verschiebt sich der Fokus von reaktiver Be -
Chaos Engineering setzt Systeme kontrolliert unter Stress, um ihre Resilienz zu prüfen. In Cloud-Umgebungen ist dieses Prinzip etabliert, in der industriellen Fertigung galt es lange
als zu riskant.“

VON INSIGHT ZU IMPACT.
kritisch? Damit wird Chaos Engineering präzise steuerbar. Belastungsszenarien werden datenbasiert priorisiert und kontextualisiert modelliert. Statt Störungen pauschal einzuspielen, können gezielt solche Komponenten getestet werden, deren Ausfall oder Degradation nachweislich Auswirkungen auf Produktionsprozesse hätte.
Konkrete industrielle Anwendungsfälle
Der Mehrwert zeigt sich, wenn digitale Abweichungen physische Prozesse tangieren. So lassen sich gezielte Netzwerklatenzen zwischen Edge und Cloud simulieren, um Auswirkungen auf Qualitätsentscheidungen oder Taktzeiten zu analysieren. Auch Failover-Mechanismen zentraler Steuerungs- oder Integrationsdienste können unter realer Last validiert werden. Entscheidend ist nicht nur der Neustart, sondern die Einhaltung definierter Produktionspa-
hebung hin zu präventiver Validierung. Produktionsverfügbarkeit wird nicht nur gemessen, sondern systematisch geprüft. Resilienz wird zur gezielt gestaltbaren Architektureigenschaft.
Digitale Infrastruktur ist integraler Bestandteil der Wertschöpfung. Ihre Belastbarkeit beeinflusst OEE, Lieferfähigkeit und Qualitätskonstanz. Wer Stabilität regelmäßig unter realistischen Bedingungen testet, schafft Planungssicherheit. KI analysiert komplexe Abhängigkeiten und wertet große Datenmengen aus. Die strategische Bewertung bleibt Aufgabe erfahrener Ingenieurinnen und Ingenieure. Chaos Engineering wird zum strategischen Instrument digitaler Stabilität. TB
ROMAN SPITZBART ist VP EMEA Solutions Engineering bei Dynatrace.

Jetzt Magazin abonnieren und Projekte mit relevantem Wissen voranbringen:
www.digital-manufacturingmagazin.de/abonnement
eine Marke vom
Künstliche Intelligenz revolutioniert das Qualitätsmanagement. Besonders in streng regulierten Branchen wie der Medizintechnik hilft KI, komplexe Normen und Vorgaben einzuhalten. Consense aus Aachen integriert KI-Funktionen in ihre Software für QMS und IMS (Integrierte Managementsysteme) und verbindet moderne Technik mit menschlicher Expertise, um Dokumentation, Compliance und Schulungen effizienter und nachvollziehbar zu gestalten. VON DR. IRIS BRUNS

KI erhöht die Effizienz in Dokumentation und Prozessen – hier nutzt eine Labormitarbeiterin die Assistenzfunktion. Erfahrung und menschliche Prüfung bleiben die letzte Instanz. Bild: © Stock Spectrum/stock.adobe.com
Die rasante Entwicklung von Künstlicher Intelligenz (KI) verändert viele Arbeitsbereiche. Auch das Qualitätsmanagement (QM) bildet keine Ausnahme. Für Unternehmen wie den Softwareentwickler Consense, spezialisiert auf Lösungen zum Aufbau von anwendungsfreundlichen und gelebten QMS und IMS, bringt dies neue Möglichkeiten und neue Herausforderungen mit sich. Die Aachener QM-Experten verstehen KI als wertvolles Werkzeug. Sorgfältig eingesetzt, kann sie den Arbeitsalltag sehr erleichtern. Für einige Zwecke hat Consense KI-Anwendungen bereits erfolgreich in seine Softwarelösungen integriert. Mögliche Anwendungsgebiete sind unter anderem die Erstellung von Vorgabedokumentationen, die Prozessmodellierung oder Unterstützung bei der Umsetzung von Compliance-Vorgaben oder Risikobewertungen.
Mit KI für mehr Effizienz in der Dokumentation und Wissensbereitstellung
Im Qualitätsmanagement nehmen Dokumentation und Prozessbeschreibung einen hohen Stellenwert ein – und binden gleichzeitig Kapazitäten. Bei Consense hat man erkannt, dass sich KI als leistungsfähiges Werkzeug einsetzen lässt, um Zeit und Ressourcen zu sparen. Denn in diesen Bereichen müssen große Textmengen erstellt, bearbeitet und strukturiert werden. Der
TROTZ DER FORTSCHRITTE UND ERFOLGE IM EINSATZ VON KI IST MAN BEI CONSENSE DAVON ÜBERZEUGT, DASS DER MENSCH ALS „SCHNITTSTELLE ZUR REALITÄT“ WEITERHIN UNVERZICHTBAR IST.
Einsatz von KI bietet hier entscheidende Vorteile: Mit den Consense Softwarelösungen lassen sich aus wenigen Stichpunkten gut lesbare Texte generieren und Prozesse grafisch darstellen.
Ein Highlight ist die KI-Recherchefunktion, die nicht nur relevante Inhalte aufzeigt, sondern auch Fragen beantwortet, wie Dr. Alexander Künzer aus der Geschäftsführung von Consense erläutert: „User unserer Software können der integrierten KI beispielsweise die Frage stellen, wie in ihrem Unternehmen Angebote korrekt aufgesetzt werden und welche Anforderungen diese erfüllen müssen. Die Software zeigt daraufhin relevante, bereits geprüfte und freigegebene Dokumente an. Dadurch lassen sich im Arbeitsalltag Fehler minimieren.“
KI als Unterstützer in komplexer Normenlandschaft
Die steigende Anzahl an Normen und gesetzlichen Vorgaben – von Datenschutz über Lieferkettenschutz bis hin zu Compliance oder Cybersicherheit – stellen Unternehmen generell vor große Herausforderungen. Viele Betriebe stoßen beim Management dieser Regularien an ihre Kapazitätsgrenzen. „Es wird immer schwieriger, diese Vielzahl an Regularien manuell zu bewältigen. Und oft sind die Fachleute rar, die dabei unterstützen könnten. KI kann auch hier wertvolle Hilfestellung bieten, indem sie Unternehmen hilft, die verschiedenen Anforderungen zu überwachen und umzusetzen“, so der Experte. Die Entwickler von Consense arbeiten aktuell an KI-Lösungen, die Dokumente automatisch den relevanten Normkapiteln zuordnen. Dabei sollen sich dann auch Normlücken oder ungedeckte Anforderungen schnell identifizieren lassen. So haben Unternehmen nicht erst beim

nächsten Audit im Blick, ob sie alle Vorgaben vollständig erfüllen.
Erfahrung schlägt „Halluzination“ –Mensch als letzte Instanz
Trotz dieser Fortschritte und Erfolge im Einsatz von KI ist man bei Consense davon überzeugt, dass der Mensch als „Schnittstelle zur Realität“ weiterhin unverzichtbar ist. Die KI unterstützt durch Zeiteinsparung, indem sie eine gute Grundlage liefert, mit der effizient weitergearbeitet werden kann. Doch die endgültigen Prüfungen und Freigaben, zum Beispiel von Prozessen und Dokumenten, sollen weiterhin in menschlicher Hand liegen, unterstreicht Dr. Alexander Künzer: „Das beugt einem grundsätzlichen Problem vor, der sogenannten Halluzination. Sie betrifft sämtliche KI-Lösungen, die verfügbar sind. Darunter versteht man das Generieren von falschen oder nicht realitätsgetreuen Informationen.“ Daher setzt Consense bei Inhalten, die von der in die Software integrierten KI erstellt wurden, konsequent auf Quellenangaben, sodass User die Herkunft ihrer Daten nachvollziehen und überprüfen können.
Medizintechnik als hochregulierter Bereich mit besonderen Anforderungen
Das QM in streng regulierten Branchen wie der Medizintechnik stellt für den Einsatz von KI eine besondere Herausforderung dar – bietet aber auch ein enormes Potenzial. Für Unternehmen aus diesem Bereich bedeutet jede Änderung einen hohen Aufwand in der Umsetzung. Das kann die Einführung einer neuen Norm sein oder ein Update der ISO 13485, die die Anforderungen an das Qualitätsmanagement (QM) bzw. an die QM-Systeme (QMS) von Medizinprodukteherstellern formuliert. KI kann dabei helfen, die komplexen Vorgaben aus den zahlreichen nationalen und internationalen Normen effizienter zu bewältigen.
Die Consense-Softwarelösungen nutzen KI unter anderem zur Erstellung der vorge -
Zukunft von KI: Die Herausforderung liegt darin, KI gezielt dort einzusetzen, wo sie wirklich sinnvoll ist, etwa in Bereichen wie Compliance oder Risikomanagement.
Bild: © Gorodenkoff/ stock.adobe.com
schriebenen Schulungen. Die KI sammelt aus den vorhandenen Dokumentationen Inhalte und generiert daraus Vorschläge für strukturierte Lerninhalte wie Online-Tests. In Branchen wie der Medizintechnik, wo Schulungen durch zusätzliche Prüfungen begleitet werden, bietet diese Funktion eine erhebliche Zeitersparnis. Dr. Alexander Künzer meint: „In der Medizintechnik wird ohnehin jede Entscheidung und jedes Dokument streng überprüft. Das könnte in Bereichen wie diesem die Akzeptanz für KIUnterstützung sogar fördern, denn letzte Instanz bleibt in jedem Fall der Mensch.“ Weiteres Potenzial sieht der Experte auch im Bereich Risikomanagement in Verbindung mit dem QM. Künstliche Intelligenz kann dazu eingesetzt werden, Gefahren und Risiken in den Prozessen von Unternehmen zu identifizieren. „Aber auch in diesem Fall sollte KI nur als Werkzeug dienen und am Ende eine menschliche Plausibilitätsprüfung stehen. Die KI liefert die Vorschläge und der Mensch bringt seine Erfahrung ein, um am Ende eine abschließende Entscheidung zu treffen.“
Mensch und KI – in Kombination besonders wirkungsvoll
Die Erfahrungen von Consense belegen, dass der Einsatz von KI im Qualitätsmanagement Unternehmen viele Vorteile bieten kann, von der Effizienzsteigerung über die Normkonformität bis zur Risikobewertung. Besonders hochregulierte Bereiche wie die Medizintechnik können davon profitieren – wenn KI mit menschlichem Fachwissen und Erfahrung Hand in Hand geht. Die Forschungsarbeit des Aachener Softwareunternehmens verspricht viele spannende Entwicklungen, die schon bald die Arbeitsweise im QM nachhaltig verändern und die tägliche Routine erleichtern werden.
TB
Herausgeber und Geschäftsführer: Matthias Bauer, Dennis Hirthammer
DIGITAL MANUFACTURING im Internet: http://www.digital-manufacturing-magazin.de
So erreichen Sie die Redaktion:
Chefredaktion: Rainer Trummer (v.i.S.d.P.), (089-3866617-10, rainer.trummer@win-verlag.de)
Redaktion: Karin Faulstroh (karin.faulstroh@win-verlag.de), Tino M. Böhler (tino.boehler@win-verlag.de), Stefan Girschner (stefan.girschner@win-verlag.de), Kirsten Seegmüller (externe Mitarbeiterin, kirsten.seegmueller@extern.win-verlag.de)
Mitarbeiter dieser Ausgabe: Helen Baumert, Prof. Dr.-Ing. Wolfgang Boos, Eric Brabänder, Dr. Iris Bruns, Andreas Dangl, Thomas Eberius, Jessica Fritz, Markus Günther, Dr. Florian Herzenetter, Jörg Hesselink, Leonhard Klisch, Oliver Köth, Chris Kramar, Christiane Manow-Le Ruyet, Roman Spitzbart, Prof. Phillip Stanley-Marbell, Raik Wehser, Dr.-Ing. David Welling
So erreichen Sie die Anzeigenabteilung: Anzeigengesamtleitung: Martina Summer (089-3866617-31, martina.summer@win-verlag.de), Anzeigen verantwortlich Mediaberatung: Michael Nerke (Anzeigenverkaufsleiter, Tel.: 089-3866617-20, michael.nerke@win-verlag.de), Maximilian Schröck (Tel.: 089-3866617-34, maximilian.schroeck@win-verlag.de)
Anzeigendisposition: Auftragsmanagement@win-verlag.de Chris Kerler (089/3866617-32, chris.kerler@win-verlag.de )
Abonnentenservice und Vertrieb: Tel: +49 89 3866617 46 www.digital-manufacturing-magazin.de/hilfe oder eMail an abovertrieb@win-verlag.de mit Betreff „DIGITAL MANUFACTURING“ Gerne mit Angabe Ihrer Kundennummer vom Adressetikett
Artdirection und Titelgestaltung: Saskia Kölliker Grafik, München Bildnachweis/Fotos: falls nicht gekennzeichnet: Werkfotos, AdobeStock, shutterstock.com, fotolia.de
Titelbild: MPDV Mikrolab GmbH
Druck: Vogel Druck und Medienservice GmbH Leibnizstraße 5, 97204 Höchberg
Produktion und Herstellung: Jens Einloft (089/3866617-36, jens.einloft@vogel.de)
Anschrift Anzeigen, Vertrieb und alle Verantwortlichen: WIN-Verlag GmbH & Co. KG Chiemgaustr. 148 81549 München, Tel.: 089-3866617-0
Verlagsleitung:
Martina Summer (089/3866617-31, martina.summer@win-verlag.de)
Objektleitung: Rainer Trummer (089/3866617-10, rainer.trummer@win-verlag.de) Zentrale Anlaufstelle für Fragen zur Produktsicherheit: Martina Summer (martina.summer@win-verlag.de, 089/3866617-31)
Bezugspreise:
Einzelverkaufspreis: 14,40 Euro in D, A, CH und 16,60 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Jahresabonnement (8 Ausgaben): 115,20 Euro in D, A, CH und 132,80 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Vorzugspreis für Studenten, Schüler, Auszubildende und Wehrdienstleistende gegen Vorlage eines Nachweises auf Anfrage. Bezugspreise außerhalb der EU auf Anfrage. 18. Jahrgang
Erscheinungsweise:
Sonderheft „KI in der Fertigungsindustrie“: einmal jährlich Einsendungen: Redaktionelle Beiträge werden gerne von der Redaktion entgegen genommen. Die Zustimmung zum Abdruck und zur Vervielfältigung wird vorausgesetzt. Gleichzeitig versichert der Verfasser, dass die Einsendungen frei von Rechten Dritter sind und nicht bereits an anderer Stelle zur Veröffentlichung oder gewerblicher Nutzung angeboten wurden. Honorare nach Vereinbarung. Mit der Erfüllung der Honorarvereinbarung ist die gesamte, technisch mögliche Verwertung der umfassenden Nutzungsrechte durch den Verlag – auch wiederholt und in Zusammenfassungen – abgegolten. Eine Haftung für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion vom Herausgeber nicht übernommen werden.
Copyright © 2026 für alle Beiträge bei der WIN-Verlag GmbH & Co. KG
Kein Teil dieser Zeitschrift darf ohne schriftliche Genehmigung des Verlages vervielfältigt oder verbreitet werden. Unter dieses Verbot fallen insbesondere der Nachdruck, die gewerbliche Vervielfältigung per Kopie, die Aufnahme in elektronische Datenbanken und die Vervielfältigung auf CD-ROM und allen anderen elektronischen Datenträgern.
ISSN 1867-9781
Unsere Papiere sind PEFC zertifiziert
Wir drucken mit mineralölfreien Druckfarben
DR. IRIS BRUNS ist Geschäftsführerin von Consense in Aachen.
Außerdem erscheinen bei der WIN-Verlag GmbH & Co. KG: AUTOCAD Magazin, BAUEN AKTUELL, DIGITAL ENGINEERING Magazin, DIGITAL BUSINESS, e-commerce Magazin, PlastXnow, Plastverarbeiter, r.energy, KGK Rubberpoint
Anfang Februar hat die Deutsche Telekom ihre Industrial AI Cloud in Betrieb genommen – laut Anbieter die erste ihrer Art in Europa.
Jetzt baut das Unternehmen das angeschlossene KI-Ökosystem für seine Kunden weiter aus. Dafür erweitert die B2B-Tochter T-Systems ihre langjährige Partnerschaft mit ServiceNow und ist ab sofort „Sovereign Partner Cloud Provider“ in Deutschland.

Die Deutsche Telekom baut die seit 2014 bestehende Partnerschaft mit ServiceNow als „Sovereign Partner Cloud Provider“ in Deutschland weiter aus. So können deutsche Kunden insbesondere in hochregulierten Branchen ihre Workflows noch besser automatisieren und unstrukturierte Daten mithilfe von KI strukturieren und die Effizienz steigern unter Einhaltung strenger regulatorischer Anforderungen. Zudem unterstreicht die enge Kooperation das Engagement beider Unternehmen, eine sichere, KI-getriebene digitale Transformation in der Region zu ermöglichen.
„Digitale Souveränität wird für regulierte Branchen in Deutschland zu einer Schlüsselanforderung. Unsere erweiterte Partnerschaft mit der Deutschen Telekom stellt sicher, dass Kunden Zugang zu der innovativen ServiceNow-KI-Plattform in einer sicheren, lokal betriebenen Umgebung haben“, sagt Markus Ehrle, Senior Vice President EMEA Central bei ServiceNow.
„Indem wir unsere Stärken kombinieren, ermöglichen wir unseren Kunden, ihre digitale Transformation souverän und si-
Die Produktionsanforderungen steigen und erfordern neue, KI-basierte Automatisierungslösungen und Industrie-Roboter für mehr Effizienz. Bild: © Fidel/stock.adobe.com (generiert mit KI)
Technologie-Stack „Made in Germany“
cher zu realisieren und Effizienzen schnell zu heben.“
Industrielle KI als Schlüssel zur Wettbewerbsfähigkeit
Künstliche Intelligenz revolutioniert gerade die Wertschöpfung und die Wettbewerbsfähigkeit. Zum ersten Mal erschafft der Mensch Systeme, die nicht nur Daten verarbeiten, sondern die Welt wahrnehmen,
Digitale Souveränität wird für regulierte Branchen in Deutschland zu einer Schlüsselanforderung.“
MARKUS EHRLE, SERVICENOW
verstehen und auf sie einwirken können. Zudem steigen die Produktionsanforderungen und erfordern neue, KI-basierte Automatisierungslösungen und Industrie-Roboter für mehr Effizienz. Wer die industrielle KI beherrscht, entscheidet über die Wettbewerbsfähigkeit ganzer Volkswirtschaften.
Mit der Industrial AI Cloud hat die Telekom – gemeinsam mit Partnern – eine souveräne, leistungsfähige KI-Fabrik in München gebaut. Dabei handelt es sich um das erste Leuchtturm-Projekt der Unternehmensinitiative „Made for Germany“, um den Wirtschaftsstandort Deutschland zu stärken und die Digitalisierung zu beschleunigen. Die KI-Fabrik ist mit 10.000 Nvidia-GPUs der neuesten Generation ausgestattet. Zudem hat die Telekom auf der Industrial AI Cloud gemeinsam mit SAP und Siemens einen deutschen Technologie-Stack geschaffen – von Konnektivität und Betrieb über KI-Infrastruktur bis hin zu Plattform- und Software-as-a-Service. Alle Daten bleiben in Deutschland, betrieben nach deutschen und europäischen Sicherheitsstandards. Diese leistungsfähige, skalierbare und hochsichere KI-Plattform lässt sich präzise auf die Anforderungen der Kunden anpassen. Ein echter Gamechanger für die gesamte europäische Industrie. Großunternehmen, Mittelstand, Forschung, Publik-Sektor, Gesundheit und die Rüstungsindustrie können hier industrielle KI-Anwendungen entwickeln, testen und einsetzen.
Damit kann die Industrie 4.0 ihr Potenzial voll entfalten: Kunden können zum Beispiel digitale Zwillinge ihrer Produktionsstätten simulieren, Crashtests virtuell entwickeln, digitale Windkanal-Tests für Autos und Flugzeuge durchführen, Robotersteuerungen konzipieren, sowie eigene KI-Modelle trainieren und betreiben. RT















