EXPERTENMAGAZIN FÜR DIGITALE TRANSFORMATION


![]()
EXPERTENMAGAZIN FÜR DIGITALE TRANSFORMATION


Die aktuelle Bedrohungslage QC – Jetzt PQC-Readiness Check starten –Ihr Fitness-Programm für sichere Daten in der Zukunft
DATENEXPLOSION
Wer keine Strategie für die steigenden Datenmengen entwickelt, riskiert den Anschluss an die digitale Zukunft.
Die Supply Chain ist stärker gefährdet denn je, denn Software-Komponenten werden immer komplexer.
Rekursive KI-Systeme erkennen Zusammenhänge und unterstützen Ärzte bei ihren Entscheidungen.





Abonnieren Sie den WIN-verlagsübergreifenden
Bleiben Sie auf dem Laufenden mit den neuesten Entwicklungen und Trends aus der Welt der Künstlichen Intelligenz. Unser kostenfreier Newsletter vom WIN-Verlag wird monatlich versendet und bietet Ihnen spannende Einblicke, exklusive Inhalte und Expertenmeinungen der verschiedenen Branchen.
Melden Sie sich jetzt an und verpassen Sie keine Ausgabe!















































heute stehen – und wie sie sich für die Quantenära wappnen können. Denn wer früh beginnt, kann morgen den Unterschied machen.
Liebe Leserin, lieber Leser
• wir stehen an der Schwelle zu einer neuen Ära.
Die Quantentechnologie hat das Potenzial, unsere digitale Welt so tiefgreifend zu verändern, wie es das Internet und die künstliche Intelligenz bereits getan haben. Was heute noch nach Labor klingt, wird schon morgen Geschäftsmodelle, Forschung und ganze Industrien neu definieren.
Mit unserer aktuellen Ausgabe wollen wir Sie auf diese Zukunft vorbereiten. Die rasante Entwicklung des Quanten-Computings stellt bestehende Sicherheitsstrategien auf die Probe. Denn der Quanten-Countdown läuft bereits. Unerbittlich. Es geht um die Post-Quanten-Kryptografie (PQC). Wie dringend der Handlungsbedarf für Unternehmen ist, skizziert im Interview Daniel Stadler, Head of Technology & Innovation bei der NMWP Management GmbH und verantwortlich für den Aufbau des Landeskompetenznetzwerks für Quantentechnologien „EIN Quantum NRW“.
Die aktuelle Bedrohungslage und warum auch Ihr Unternehmen vermutlich schon jetzt gefährdet ist, das erfahren sie, indem sie den PQC-Readiness Check starten, den Digital Business gemeinsam mit der NMWP Management GmbH entwickelt hat. Dieser Meilenstein wird von uns erstmals vorgestellt auf der Messe Quantum Effects, dessen Partner unser Magazin auch ist. Er zeigt Unternehmen, wo sie
Ein faszinierendes Beispiel für das Veränderungspotenzial der Quantentechnologie ist aktuell die Medizintechnik. Hier eröffnet die Quantenforschung Perspektiven, die noch vor wenigen Jahren undenkbar waren: schnellere Entwicklung neuer Wirkstoffe, maßgeschneiderte Therapien, Durchbrüche in der Diagnostik. Es sind Visionen, die nicht nur Branchen verändern, sondern Leben retten können.
Und während wir in die Zukunft blicken, dürfen wir die Gegenwart nicht vergessen. Denn das technologische Wettrennen – ob bei KI oder Quanten – setzt auch die IT-Sicherheit unter Dauerstress. Unser Sonderheft Security beleuchtet, wie Unternehmen sich wappnen können, um im Sturm der Innovationen standzuhalten.
Diese Ausgabe ist Einladung und Impuls zugleich: Lassen Sie uns gemeinsam den Mut fassen, Neues zu denken, Risiken zu meistern – und Chancen zu ergreifen. Die Zukunft beginnt jetzt. •
Herzlichst Ihr
HEINER SIEGER, Chefredakteur DIGITAL BUSINESS
heiner.sieger@win-verlag.de

24 Datenexplosion: Unternehmen am Limit Wer jetzt keine Strategie für die wachsenden Datenmengen entwickelt, riskiert den Anschluss an die digitale Zukunft.

36 Sichere Lieferketten Marco Eggerling von Check Point Software erläutert im Interview, wie sich Lieferketten Software-seitig schützen lassen.
Titelstory / Quantentechnologie
Handlungsbedarf für Unternehmen: Post-Quanten-Kryptografie stellt bestehende Sicherheitsstrategien auf die Probe.


48 Sauberer Wechsel in die Cloud Um den Change erfolgreich zu gestalten, braucht es klare Rollen, transparente Prozesse und eindeutige Ziele.

36 Lieferketten schützen: Software-seitiger Schutz der Supply Chain
38 KI verschärft die Bedrohungslage: IT-Verantwortliche sind jetzt gefordert
40 Moderne Dateninfrastrukturen: Datenauswertung bei der Royal Air Force
42 Privileged Access Management: Ein elementarer Baustein für die IT-Sicherheit
44 Security by Design: Nachträgliche Sicherheit bleibt ein Flickwerk
45 Hybrid- und Multi-Cloud: Schutz personenbezogener Daten



50 Künstliche Intelligenz in der Arbeitswelt
Das 3M-Prinzip hilft bei der effektiven Zusammenarbeit von Mensch und Maschine und bringt bessere Ergebnisse.
QUANTENTECHNOLOGIE
06 Post-Quanten-Kryptografie: So dringend ist der Handlungsbedarf für Unternehmen
Die rasante Entwicklung des Quanten-Computings stellt bestehende Sicherheitsstrategien auf die Probe.
10 Sicherheit im Zeitalter der Quanten Unternehmen stehen vor einer neuen Gefahrenklasse.
12 Quanten-Sensorik
Bosch Quantum Sensing entwickelt skalierbare Produkte in den Bereichen Medizintechnik und Konsumgütern
14 „Aktiv vorbereiten, um den Anschluss nicht zu verpassen“
Quantencomputing als spezieller Problemlöser
16 Wie Quantentechnologie die Medizin verändert
Neue Möglichkeiten in der Diagnostik
KI
18 KI als treibende Kraft in der Logistik
20 KI-FOMO: Einstieg mit KI-Agenten
22 Der EU AI Act in der Praxis: Was KMUs jetzt wissen und umsetzen sollten
DIGITALE TRANSFORMATION
24 Datenexplosion: Unternehmen am Limit
26 Prozessintelligenz trifft KI: Die Zukunft der Unternehmenssteuerung
28 Customer Journey: Strategie statt Hack
30 Interne Abläufe digitalisieren: Gesteigerte Effizienz, schnellere Prozesse
32 Digitales Wachstum meistern
2025
FRISCH AUSGEPACKT
34 News
SECURITY INSIGHT
35 Titel
36 „Unternehmen müssen Sicherheitsanforderungen vertraglich verankern“
38 Cybersicherheit in Zahlen: Bedrohungslage verschärft sich durch KI
40 Digitale Aufklärung für Europas Sicherheit
42 Privileged Access Management: Der Schlüssel zur Stärkung der Cyberabwehr
44 Security by Design: Sichere IT-Systeme realisieren
45 Hybrid- und Multi-Cloud: Flexibilität mit Verantwortung
CLOUD COMPUTING
46 Rechenzentren: Vorausschauende Überwachung als Erfolgsfaktor
48 Cloud Change sauber steuern
HR
50 Dirigent der Innovation: Menschliche Führung in der KI-Ära
52 Die Akademie der neuen Generation
DIGITAL HEALTH
54 Digitalisierung in Krankenhäusern: „Digital heißt führen – nicht nur kaufen“
56 Klinisches Denken in Echtzeit
58 Umstrukturierung stationärer Einrichtungen: Sektorendenken digitalisiert?!
RECHT
60 EU Data Act: Weniger Vendor-Lock-in dank verbindlicher Cloud-Wechselregeln
03 Editorial
61 Marketplace
62 Vorschau
62 Impressum
Die rasante Entwicklung des Quanten-Computings stellt bestehende Sicherheitsstrategien auf die Probe. Daniel Stadler, Head of Technology & Innovation bei der NMWP Management GmbH und verantwortlich für den Aufbau des Landeskompetenznetzwerks für Quantentechnologien „EIN Quantum NRW“, erklärt warum PQC jetzt unverzichtbar ist. /// von Heiner Sieger
Herr Stadler, können Sie kurz erläutern, warum die Post-Quanten-Kryptografie (PQC) gerade jetzt eine so wichtige Rolle in der IT-Sicherheit einnimmt – und welche Risiken ohne PQC für Unternehmen bestehen?
Daniel Stadler | Die Uhr tickt: Die Entwicklungen zum Quanten-Computing (QC) schreiten zügig voran, mit mehr und besser nutzbaren Qubits – auch verwendbar für den Shor-Quantenalgorithmus, der die sogenannte „Public-Key-Verschlüsselung“ brechen kann. Gleichzeitig hat eine kürzlich – zunächst als pre-print – veröffentliche Studie die benötigte Zahl an Qubits, um Verschlüsselung nach heutigem Standard – RSA, mit 2048 bit Schlüssel – zu brechen, auf unter eine Million physische Qubits reduziert.
Ist Kommunikation & IT damit zumindest bis zum Aufkommen eines kryptographisch relevanten Quanten-Computers – dem sogenannnten Q-Day – QC-sicher?

spiel, kompromittiert. Mit zügiger Implementierung lässt sich dies auf die Kommunikation & IT vor Nutzung von PQC begrenzen. Was davor geschehen ist, ist kompromittiert und niemand kann garantieren, dass es nicht zu späteren Entschlüsselung per QC gespeichert worden ist.
Wie beurteilen Sie den aktuellen Stand der Technologie und Marktreife von PQC-Lösungen? Gibt es bereits praxistaugliche Anwendungen, die Unternehmen jetzt nutzen können?
DS | PQC, die Postquantenkryptographie, prinzipiell eine „klassische Form“ von Verschlüsselungsalgorithmen, ist gerade im Vergleich zur auf Quanteneffekten basierenden Quantenkryptographie – Quantum-Key-Distribution (QKD) – eine ausgereifte Technologie, die in den vergangenen Jahren weiterentwickelt worden und gereift ist. Deutlich jünger im Vergleich zu heute etablierten Algorithmen zur Public-Key-Verschlüsselung sind sie allerdings noch
” Ohne PQC-Implementierung in einem Unternehmen zum Q-Day wäre sämtliche public-key-verschlüsselte Kommunikation, und auch damit verbundene Zertifikate kompromittiert.
DS | Leider nein, denn auch heute schon wird solche vertrauliche Kommunikation mitgeschnitten, deren Informationsgehalt erwartbar auch noch in 10 bis 20 Jahren relevant sein wird für einen Angreifer. „Harvest now, decrypt later“ heißt dieses auf performanter werdende Rechner generell ausgerichteter Ansatz, der aber durch Quanten-Computing massiv an Brisanz gewinnt. Ohne PQC-Implementierung in einem Unternehmen zum QDay wäre sämtliche public-key-verschlüsselte Kommunikation, und auch damit verbundene Zertifikate zum Bei-
nicht langzeiterprobt, im weit verbreiteten Einsatz. Software-, Hardware- und Dienstleistungsanbieter in der IT erweitern ihre Produkte & Dienste nun verstärkt um PQC, verwenden insbesondere Hybride mit herkömmlichen Methoden. PQC befindet sich heute schon in verbreiteten Webbrowsern, Virtualisierungs-/Container- und Cloud-Lösungen, aber auch in Kryptographie-Bibliotheken (APIs) im Einsatz. Von Hardware-Kryptographie-Modulen (HKMs) über IoT-Lösungen und FPGAs hinzu quanten-sicheren Security-Controllern und SmartCards sind marktreife
Hardware-Produkte verfügbar. Hier gilt es allerdings zu beachten, dass nicht der Einsatz einzelner PQC-Lösungen eine IT quanten-sicher macht, sondern das Management der kryptographischen Assets: gründliche Analyse, zielgerichtete Organisation des Übergangs und priorisierte Implementierung in die bestehende Infrastruktur. Im Rahmen dessen ist Crypto-Agilität, die Vorbereitung des Kryptosystems auf zügig durchführbare Anpassungen der Verschlüsselungsmethoden für die Implementierung von PQC und für die Zukunft nicht nur ein Paradigma, sondern eine Notwendigkeit um flexibel auf Änderungen der Bedrohungslage, z.B. neue Angriffsvektoren oder auftretende Schwachstellen, reagieren zu können.
Welche Ziele verfolgt die Messe Quantum Effects in Stuttgart in diesem Jahr, und welche Rolle spielen dabei PQC und quantensichere IT-Sicherheit?
DS | Unter dem Slogan „Quantentechnologien treffen Anwenderbranchen“ und dem Anspruch sich als „weltweit
führende Messe und Konferenz für anwendungsorientierte Quantentechnologien“ zu positionieren, ist die Zielrichtung gesetzt. Als technologisch-methodisch ausgereifte Verschlüsselungstechnik ist PQC der Anwendungsfall in Reaktion auf das sich abzeichnende Quanten-Computing.
Die Quantum Effects definiert vier thematische Säulen für die diesjährige Messe & Konferenz
• Quantencomputing und Enabling Technologies
• (Quanten-)Software
• Sensing
• Communication von denen das Quanten-Computing die Herausforderung ist, der sich mit PQC sofort effektiv begegnen lässt. Die Säule Communication umfasst neben der PQC auch die Themen Quantensicherheit und Quantenkryptographie als Unterthemen. Die Quantum Effects legt damit ein dem Thema entsprechendes Gewicht auf PQC und quanten-sichere IT, wie auch der vorläufige Stand des Programms deutlich macht.
Welche weiteren Themen stehen auf der Messe noch im Vordergrund? Was können Unternehmen, die sich mit Quantentechnologie beschäftigen, dort lernen?
DS | Die anwendungsorientierte Ausrichtung der Quantum Effects bietet gerade für Unternehmen, in der Breite der schon genannten vier „tragenden Säulen“ der Quantentechnologien viele Anknüpfungspunkte. Quanten-Computing ist zwar die prominenteste Quantentechnologie, die in den vergangenen Monaten durch Fortschrittsmeldungen wichtiger Akteure viel Aufmerksamkeit erregte, und bildet dementsprechend die erste Säule. Gerade dem Bereich zugehöriger Software und dem Sensing sollten die Interessenten und Besucher, neben der genannten Communication, hinreichend Aufmerksamkeit schenken. Das Quantum-Sensing verheißt Messmethoden unerreichter Präzision und Anwendungen, etwa in der Navigation, die über „klassische“ Ansätze nicht machbar
DER GESPRÄCHSPARTNER
Daniel Stadler
ist Head of Technology & Innovation bei der NMWP Management GmbH in Düsseldorf. Er treibt die Umsetzung von Strategien in den Bereichen Deep-Tech, Start-ups und Standortentwicklung voran und verantwortet den Aufbau des Landeskompetenznetzwerks für Quantentechnologien „EIN Quantum NRW“.


sind. Ohne adäquate Quanten-Software bliebe das Quantum-Computing weit hinter seinen Möglichkeiten zurück.
Sie haben einen „PQC-Readiness-Check“ entwickelt –was verbirgt sich hinter diesem Konzept, und wie hilft der Check Unternehmen konkret bei der Einschätzung ihres „Quantum Readiness“-Status?
DS | Wir haben die Idee hierzu während unserer Tätigkeiten im Projekt Q-PrEP entwickelt. Darin weisen wir öffentliche Institutionen europaweit, als Stakeholder einer Community zu PQC und Kryptoagilität, auf die Herausforderung der Verschlüsselung ihrer vertraulichen Kommunikation und Daten durch Quanten-Computing hin, bereiten sie auf diese vor und bilden sie weiter. Die für den öffentlichen Sektor bestehende „Bedrohungslage QC“ ist auch für den privaten Sektor, gerade für Unternehmen mit Kommunikation langjährig vertraulicher Daten relevant. Mit der Überprüfung des Quantum-Readiness-Status (QRS) schärfen wir zunächst das Bewusstsein für die Problematik, bieten dann eine erste Abfrage wesentlicher Eigenschaften der im Unternehmen eingesetzten Kryptographiemethoden und der Einsatzbereiche, aus denen eine erste, allgemeine Schätzung für das Quantum-Readiness-Level resultiert. Damit können wir den Unternehmen eine Einschätzung liefern, wie akut der Handlungsdruck
Einsatzzwecke dieser und damit verbundener Verschlüsselung , zum Beispiel wo langlebige Zertifikate darüber ausgetauscht worden sind, zu berücksichtigen, um ein klares Bild der Lage eines Unternehmens zu erhalten. So vielfältig wie die Kommunikation und IT heutzutage –von/zu Servern, in die Cloud, mit IoT-Geräten, Zertifikaten, Schlüssel-Devices, etc – in den verschiedenen betroffenen Firmen ist, so lang ist auch die Liste ausnutzbarer Schwachstellen, die wir natürlich mit unserer Analysemethodik erfassen wollen. Wenn eine Schwachstelle, das heißt, ein nicht quanten-sicherer Einsatzbereich, übersehen wird, kann diese einem versierten Angreifer unter Anwendung von QC gegebenfalls die Tür ins Firmennetzwerk öffnen oder vertrauliche Daten offenlegen.
Wie wichtig ist Ihrer Erfahrung nach die frühzeitige Integration von PQC in bestehende IT- und Sicherheitsstrategien, und wie können Unternehmen den Übergang mit minimalen Risiken gestalten?
DS | Die frühzeitige Integration ist immens wichtig, gerade was das schon erwähnte Bedrohungsszenario des „harvest now, decrypt later“ anbelangt. Alles, was bis zur vollständigen Umsetzung wirklicher Quantum Readiness an Informationen aus public-key-verschlüsselter Kommunikation aufgezeichnet worden sein könnte, ist
” Crypto-Agilität, die Vorbereitung des Kryptosystems auf zügig durchführbare Anpassungen der Verschlüsselungsmethoden, ist für die Implementierung von PQC und für die Zukunft nicht nur ein Paradigma, sondern eine Notwendigkeit um flexibel auf Änderungen der Bedrohungslage reagieren zu können.
zur PQC-Migration ist. Auf Basis dieser ersten Einschätzung erfolgt dann, je nach Kundenwunsch, die Entwicklung einer auf die spezifischen Anforderungen des Unternehmens ausgerichtete Migrationsstrategie.
Welche Hauptkriterien oder Fragen sollte ein Unternehmen für eine realistische PQC-Einschätzung berücksichtigen? Gibt es typische Schwachstellen, auf die der Check besonders hinweist?
DS | Da im Wesentlichen die Public-Key-Verschlüsselung anfällig gegen QC – Algorithmus von Shor – ist, sind alle

Daniel Stadler
kompromittiert. Selbst wenn Sie heute damit beginnen müssen, auch noch die zukünftigen vertraulichen Daten als verloren gelten, die Sie herkömmlich verschlüsselt verschicken, bis PQC zu 100 Prozent in Ihrer IT implementiert ist,– insofern sie bei einsetzender Verfügbarkeit von kryptographisch relevantem QC nicht veraltet und damit obsolet wären.
Wie Sie richtig fragen, gibt es das Restrisiko, dass sich einzelne PQC-Algorithmen auf lange Sicht doch als anfällig gegen neu entwickelte, entweder herkömmliche oder Quanten-Algorithmen herausstellen. Zum einen werden
deshalb, zumindest für eine Übergangszeit Hybride aus herkömmlichen und PQC-Verschlüsselungsmethoden Verwendung finden. Gleichzeitig ist deshalb aber auch das Konzept der Kryptoagilität – sprich, der Konzeptionierung und Vorbereitung des Kryptosystems auf einen agilen Austausch kompromittierter Algorithmen & Methoden – so wichtig und unumgehbar. Es wäre naiv, für die Zukunft eine stagnierende Kryptoanalyse, ob herkömmlicher oder QC-gestützter Art, zu unterstellen.
Welche Rolle spielt Baden-Württemberg als Standort für Quantentechnologien und PQC-Entwicklung in Deutschland und Europa? Welche Synergien gibt es zwischen Wissenschaft, Wirtschaft und Veranstaltungen wie der Quantum Effects?
DS | Baden-Württemberg verfügt über eine große industrielle Basis, die sich auch in den Quantentechnologien niederschlägt. Großkonzerne, aber auch die größeren Betriebe des Mittelstands entdecken zunehmend Quantentechnologien für sich – als Hersteller/Anbieter oder Early-Adopter. Für einen tieferen Einblick in das Baden-Württembergische Ökosysteme empfehle ich einen Besuch auf dem Stand von QuantumBW, die auch dieses Jahr wieder Mitveranstalter der Quantum Effects sind.
Blicken wir in die Zukunft: Wie wird sich Ihrer Einschätzung nach das Zusammenspiel von Quantencomputing, KI und PQC weiterentwickeln, und welche Auswirkungen wird das auf die digitale Transformation von Unternehmen haben?
DS | Schon heute gibt es Ansätze unter dem Begriff des Quantum-Machine-Learning (QML) und erste Anwendungen, das „Beste aus beiden Welten“ zusammenzubringen, gleichzeitig von den mächtigen Entwicklungen im Bereich KI der vergangenen Jahre zu profitieren und, gerade im Hinblick auch auf den Energieverbrauch, die notwendigen Berechnungen per QC zu erledigen. Allerdings ist Vorsicht geboten, wenn es um Hype-Themen geht: Quanten-Computing beschreibt zwar einen vielversprechenden Paradigmenwechsel im Computing, ist aber vom Fortschritt in Hard- und Software in den kommenden Jahren stark abhängig. KI ist eine etablierte Softwaretechnologie, die auf bestehender, großskaliger Computerhardware ausgerollt ist. Das heißt, dass KI dem Quantencomputing in seiner Reife weit voraus ist und sich natürlich auch stetig weiterentwickeln wird. Egal, ob mit oder ohne Quantencompu-
MEHR ERFAHREN
Machen Sie jetzt den PQC-Readiness-Check!

ting. Entscheidend ist also die Frage: Wann werden Quantencomputer hinreichender Leistungsfähigkeit zur zur Verfügung stehen und wie weit ist die Entwicklung von Quantensoftware bis dahin vorangeschritten? Das definiert auch den Zeitpunkt, an dem wir Quantencomputer als kryptorelevant verstehen müssen. Sinkt die Zahl der benötigten Qubits oder die Anforderung an ihre Qualität durch Verbesserung der Algorithmen oder ihrer Anwendung in den nächsten Monaten oder Jahren, könnte der Q-Day schneller da sein, als es bislang geschätzt worden ist.
Die Uhr tickt also, wir fragen uns nur: wann schlägt es zwölf? •
FUNDIERTE RISIKOEINSCHÄTZUNG
DAS BRINGT IHNEN DER PQC-READINESS-CHECK
Die von der NMWP Management GmbH und Digital Business entwickelte Online-Umfrage dient Unternehmen als strategisches Instrument zur Einschätzung ihrer individuellen Bedrohungslage durch die fortschreitende Entwicklung von Quantencomputern. Sie basiert auf etablierten Leitfäden und umfasst zehn gezielte Fragen, die sowohl technische als auch organisatorische Aspekte beleuchten. Ziel ist es, Unternehmen in eine von drei Handlungs-Kategorien einzuordnen, die jeweils eine klare Empfehlung für den zeitlichen Rahmen der PQC-Migration geben. Die Umfrage liefert nicht nur eine fundierte Risikoeinschätzung, sondern auch konkrete Empfehlungen für die nächsten Schritte – von der Bestandsaufnahme über die RoadmapEntwicklung bis hin zur Umsetzung. Sie eignet sich ideal als Grundlage für weitere Schritte, hin zu einer quantensicheren Infrastruktur
Die Kategorie A steht für sofortigen Handlungsbedarf. Unternehmen in dieser Gruppe verarbeiten besonders schützenswerte Daten, betreiben kritische Infrastruktur oder nutzen langlebige Systeme, die nicht kurzfristig aktualisiert werden können. Sie sind potenziell Ziel sogenannter „Store-now-decrypt-later“Angriffe, bei denen Daten heute abgefangen und in Zukunft mit Quantencomputern entschlüsselt werden. Für diese Organisationen ist eine umgehende Migration zu quantensicheren Verfahren dringend geboten.
Die Kategorie B beschreibt Unternehmen mit Handlungsbedarf in den nächsten fünf Jahren Ihre Systeme und Daten sind mittelfristig gefährdet, etwa durch längere Lebenszyklen oder eingeschränkte kryptographische Agilität. Zwar besteht keine akute Bedrohung, doch eine strategische Vorbereitung auf PQC ist essenziell, um regulatorischen Anforderungen und technologischen Entwicklungen rechtzeitig begegnen zu können.
Die Kategorie C umfasst Unternehmen mit langfristigem Handlungsbedarf innerhalb der nächsten zehn Jahre. Ihre aktuelle Infrastruktur ist entweder agil, wenig kritisch oder die Daten haben eine kurze Lebensdauer. Dennoch sollten auch diese Organisationen frühzeitig PQC in ihre IT-Strategie integrieren, um zukünftige Risiken zu minimieren und technologische Anschlussfähigkeit zu sichern.“

Unternehmen stehen vor einer neuen Gefahrenklasse: Quantencomputer werden in der Lage sein, heutige Verschlüsselungsverfahren zu brechen – insbesondere asymmetrische Algorithmen wie RSA oder ECC. Angreifer speichern sensible Daten mit dem Ziel, sie in einigen Jahren mithilfe von Quantencomputern zu entschlüsseln. /// von Dr. Jan Wehinger und Julian Seyfarth
Gefahr auf Lager: Store Now, Decrypt Later
Die Bedrohung ist nicht theoretisch, sondern bereits praktisch relevant. Verschlüsselte Daten, die heute gespeichert oder abgefangen werden, könnten in fünf oder zehn Jahren entschlüsselt werden, sobald Quantencomputer die notwendigen Rechenkapazitäten erreichen. Dieses Szenario wird als „Store Now, Decrypt Later“ bezeichnet. Angreifer sammeln schon jetzt Daten, um sie zu einem späteren Zeitpunkt zu entschlüsseln. Demnach sollten alle Daten, die auch in fünf Jahren noch schützenswert sind, gegen


werden diese mithilfe des Shor-Algorithmus aushebeln und so die Verfahren vollständig brechen. Auch symmetrische Verschlüsselung wie AES ist betroffen – wenn auch in geringerem Maße: Der Grover-Algorithmus halbiert die effektive Schlüssellänge, weshalb längere Schlüssel empfohlen werden.
Sicher in die Post-Quanten-Ära
Die Lösung liegt in der rechtzeitigen Migration auf Post-Quantum-Kryptographie (PQC) – also Verschlüsse-
DIE AUTOREN
Dr. Jan Wehinger, Partner bei MHP und Julian Seyfarth, Associate bei MHP.
” Der Weg ist klar: Es beginnt mit gezielter Awareness im Unternehmen, gefolgt von einer strukturierten Readiness-Analyse und dem Aufbau von Krypto-Agilität. Darauf aufbauend lassen sich gezielte Pilotprojekte umsetzen und eine belastbare MigrationsRoadmap entwickeln. Dr. Jan Wehinger, Julian Seyfarth
diese Gefahr abgesichert werden. Das gilt besonders für Forschungsunterlagen, staatliche Geheimnisse oder langfristige Vertragswerke.
Klassische Verfahren reichen hierfür nicht mehr aus. Die klassischen Public-Key-Verfahren wie RSA oder elliptische Kurven basieren auf mathematischen Problemen, die für heutige Computer als praktisch unlösbar gelten (etwa die Faktorisierung großer Primzahlen (RSA) oder die Berechnung diskreter Logarithmen (ECC)). Quantencomputer
lungsverfahren, die auch Quantencomputern standhalten. Diese Algorithmen basieren auf mathematischen Problemen, die auch mit Quantenrechnern nicht effizient lösbar sind, darunter gitterbasierte (z. B. CRYSTALS-Kyber, Dilithium, Falcon), hashbasierte (SPHINCS+) und codebasierte Verfahren (Classic McEliece). Seit 2024 hat das US-amerikanische NIST erste PQC-Standards veröffentlicht, die klassische Verfahren wie RSA und ECC ablösen sollen – und die auf heutiger Hardware sofort einsetzbar sind.

Bevor technische Maßnahmen greifen können, braucht es jedoch ein grundlegendes Awareness-Programm. Entscheidungsträger und Fachbereiche müssen verstehen, warum die Bedrohung schon heute real ist, was „Store now, decrypt later“ konkret bedeutet und welche Folgen Untätigkeit für Vertraulichkeit, Compliance und Reputation haben kann. Ohne dieses Bewusstsein erhält PQC in Organisationen nicht die notwendige Priorität.
Darauf aufbauend empfiehlt sich ein strukturiertes Vorgehen in vier Schritten:
1. Bestandsaufnahme (Kryptoinventur)
Der erste Schritt ist ein vollständiges Krypto-Inventar. Ziel ist es, systematisch zu erfassen, welche kryptografischen Verfahren, Protokolle und Anwendungen aktuell im Einsatz sind – und wo Handlungsbedarf besteht. Dazu gehören:
• Systeme & Umgebungen: On-Premise-Systeme, Cloud-Dienste, Client-Server-Anwendungen, eingebettete Systeme (z. B. Steuergeräte, Maschinen, Medizingeräte), mobile und IoT-Komponenten.
• Kommunikationskanäle: Web- und API-Traffic (TLS/HTTPS, gRPC-TLS), VPN-Tunnel (IPsec, WireGuard, OpenVPN), Remote-Zugriffe (SSH, RDP), E-Mail (SMTPS, STARTTLS, S/MIME, PGP), Maschinen-zu-Maschinen-Kommunikation (MQTT, AMQP), Datenreplikation und Storage (TLS-DB-Replika, S3-HTTPS).
• Veraltete oder proprietäre Protokolle: z. B. Zigbee, BLE, Z-Wave, CAN-Bus, Modbus. Diese sind oft schwer zu aktualisieren und benötigen Migrations- oder Kompensationsstrategien.
• Schlüsselmaterial & Abhängigkeiten: Zertifikate, HSM-/ KMS-Instanzen, Secrets-Manager, TPMs, Authentifizierungsmechanismen (JWT, SAML, OAuth, Code-Signing) sowie eingesetzte Kryptobibliotheken (OpenSSL, Bouncy Castle, mbedTLS).
Das Ergebnis ist ein klar dokumentiertes Krypto-Inventar mit Algorithmen, Schlüsselgrößen, Zertifikatslaufzeiten und Fallback-Mechanismen. Es bildet die belastbare Grundlage für Risikoanalysen und die Planung der PQC-Migration.
2. Risikobewertung
Priorisieren Sie Systeme und Daten nach Schutzbedarf und ihrem Lebenszyklus (lange Nutzungsdauer und Schutzbedarf über Jahre oder Jahrzehnte). Besonders betroffen sind Daten mit langfristigem Schutzbedarf (z. B. Geschäftsgeheimnisse, personenbezogene Daten,
sicherheitskritische Software), da sie durch „Store now, decrypt later“-Angriffe bereits heute gefährdet sind.
3. Erste Maßnahmen & Krypto-Agilität
Beginnen Sie mit hybriden Verfahren, die klassische und quantensichere Algorithmen parallel kombinieren, etwa ECDHE zusammen mit ML-KEM. Solche Lösungen verringern das Risiko, sichern Interoperabilität und ermöglichen eine schrittweise Umstellung. Gleichzeitig sollten Systeme so gestaltet werden, dass kryptografische Verfahren ohne großen Aufwand austauschbar sind – Krypto-Agilität ist der Schlüssel.
4. Roadmap für die Migration
Starten Sie mit Pilotprojekten in klar abgegrenzten Bereichen, z. B. innerhalb der PKI oder bei VPN-Gateways, und evaluieren Sie Performance und Kompatibilität. Nutzen Sie die Erkenntnisse, um eine skalierbare Roadmap zu entwickeln, die den kontrollierten Rollout von PQC in der gesamten Organisation sicherstellt.
Heute handeln, um morgen sicher zu sein
Die Zeit zum Handeln ist jetzt. Unternehmen dürfen nicht darauf warten, dass skalierte Quantencomputer marktreif sind – denn wer erst dann reagiert, hat bereits verloren. Die Einführung quantensicherer Kryptografie ist kein einmaliges IT-Projekt, sondern ein strategischer Transformationsprozess, der heute angestoßen werden muss.
Der Weg ist klar: Es beginnt mit gezielter Awareness im Unternehmen, gefolgt von einer strukturierten ReadinessAnalyse und dem Aufbau von Krypto-Agilität. Darauf aufbauend lassen sich gezielte Pilotprojekte umsetzen und eine belastbare Migrations-Roadmap entwickeln. Parallel dazu braucht es ein kontinuierliches Monitoring regulatorischer Anforderungen und technologischer Entwicklungen. Wer diesen Weg jetzt konsequent beschreitet, sichert nicht nur seine Daten – sondern auch Vertrauen, Wettbewerbsfähigkeit und Zukunftsfähigkeit. •
KLARER ANPASSUNGSBEDARF
Weltweit treiben Regierungen die Vorbereitung auf Post-Quantum-Kryptografie voran. Länder wie Kanada, Japan, die USA und Großbritannien entwickeln nationale PQC-Strategien, setzen Fristen zur Migration und starten großangelegte Awareness-Programme. Auch auf EU-Ebene entsteht Handlungsdruck: Zwar nennen die NIS2-Richtlinie und Cyber Resilience Act PQC nicht explizit, doch die geforderte Langzeitsicherheit impliziert klaren Anpassungsbedarf. In Deutschland hat die Bundesregierung PQC als sicherheitskritisches Thema identifiziert (insbesondere für KRITIS-Organisationen) und empfiehlt die Migration ab 2026 einzuleiten.
Dr. Katrin Kobe, CEO von Bosch Quantum Sensing, spricht über Markt, Technik und Tempo.
Und wie sie mit dem Corporate Start-Up Quantensensorik vom Labor in skalierbare Produkte in den Bereichen Medizintechnik und Konsumgütern wächst. /// von Heiner Sieger

Frau Dr. Kobe, Bosch Quantum Sensing ist noch jung. Wie kam es zur Gründung – und warum als Corporate Start-Up?
Dr. Katrin Kobe | Bosch forscht seit mehr als zehn Jahren an Quantentechnologien, insbesondere an der Quantensensorik. Irgendwann war klar: Die Erkenntnisse müssen aus dem Labor in den Markt. Ein Corporate Start-Up ist dafür ideal, weil es die Agilität eines Start-Ups mit den Ressourcen, Kontakten und Qualitätsmaßstäben eines Konzerns verbindet. So treffen wir schnelle Entscheidun-
Welche Ziele verfolgen Sie – und wie übersetzen Sie Forschung in Produkte?
Dr. Katrin Kobe | Unser Ziel ist eine führende Position in der Quantensensorik, konkret mit NV-Technologie. Wir haben den Anspruch, Game Changer zu entwickeln: Lösungen, die die Lebensqualität der Menschen spürbar verbessern – im Sinne des Bosch-Mottos „Technik fürs Leben“. Der Weg dorthin hat zwei Ebenen. Erstens der Markt: Wir priorisieren nur Anwendungen mit klarem Kundennutzen und unterscheidbarem Mehrwert. Zweitens die Technik:

DIE GESPRÄCHSPARTNERIN
Dr. Katrin Kobe
Dr. Katrin Kobe ist promovierte Physikerin und CEO der Bosch Quantum Sensing GmbH. Sie startete ihre Karriere bei McKinsey und leitete anschließend Technologieunternehmen in verschiedenen Branchen (u. a. Optik, Sensorik, Anlagenbau, Energiewirtschaft).
Seit der Gründung führt sie Bosch Quantum Sensing und treibt die Kommerzialisierung von NV-basierter Quantensensorik voran.
gen, validieren Anwendungsfälle mit Kunden und bauen parallel robuste Lieferketten auf. Aus dieser Logik heraus haben wir gestartet und sind inzwischen als GmbH ausgegründet. Heute agieren wir eigenständig – mit dem starken Rücken eines globalen Technologieunternehmens.
Wo steht Bosch Quantum Sensing heute – noch Start-Up oder schon Grown-Up?
Dr. Katrin Kobe | Wir sind vor rund vier Jahren angetreten. Als „klassisches“ Start-Up sehen wir uns nicht mehr. Vieles ist professionalisiert: Strukturen, Qualität, Skalierbarkeit. Gleichzeitig bewahren wir die Geschwindigkeit und den Mut, Dinge iterativ zu testen. Diese Mischung aus Konzern-DNA und Start-Up-Spirit ist in der Quantensensorik ein echter Vorteil.
Aus metergroßen Laboraufbauten machen wir portable, robuste, kosteneffiziente Geräte. Es reicht nicht, der Beste im Labor zu sein. Produkte müssen zuverlässig funktionieren, bezahlbar sein und sich in großen Stückzahlen fertigen lassen und letztlich Kunden begeistern.
Was sind die größten Hürden beim Transfer vom Labor in die Industrie?
Dr. Katrin Kobe | Die härteste Nuss ist die Gleichzeitigkeit widersprüchlicher Anforderungen: maximale Messperformance, Miniaturisierung, Robustheit gegenüber Umwelteinflüssen, Energieeffizienz, Produktionsreife und ein marktgerechter Preis. Unser Team hat den Sensor auf Handygröße miniaturisiert, ohne die Messqualität zu opfern. Parallel haben wir an Stabilität, Kalibrierung, Tempe-
raturmanagement und optischer Anregung gearbeitet. Ein ebenso wichtiger Punkt ist die Lieferkette: Wir brauchen Bauteile, die es so nicht „von der Stange“ gibt. Das lösen wir über gezielte Partnerschaften.
Welche Meilensteine haben Sie in den vergangenen Jahren bereits erreicht?
Dr. Katrin Kobe | Die Miniaturisierung unseres NV-basierten Magnetometers ist ein zentraler Meilenstein – heute als funktionsfähiger Demonstrator erlebbar. Inhaltlich haben wir die relevantesten Anwendungsfelder identifiziert, Use Cases mit Kunden geschärft und Pilotierungen gestartet. Drei Fokusse bestimmen unsere Roadmap: Mobility, Medizintechnik und Exploration. In jedem dieser Bereiche testen oder planen wir Tests unter realen Bedingungen, ob der Sensor die geforderte Sensitivität, Auflösung und Robustheit liefert – und ob der Business Case trägt.
Können Sie konkrete Beispiele nennen, etwa im Bereich Mobility?
Dr. Katrin Kobe | Gemeinsam mit Airbus arbeiten wir am Thema Erdmagnetfeldnavigation. Hintergrund ist die Anfälligkeit von GNSS-Systemen durch Spoofing und Jamming. Magnetfeldbasierte Navigation ist unabhängig von Satellitensignalen und kann als robuste Backup-Lösung die Resilienz erhöhen – etwa in sicherheitskritischen Anwendungen. Für uns ist das ein Paradebeispiel: anspruchsvolle Technologie, hoher Sicherheitsnutzen, klarer Marktbedarf.
Wo sehen Sie die größten Märkte – heute und in Zukunft?
Dr. Katrin Kobe | Die größten Absatzmärkte erwarten wir in der Medizintechnik und bei Konsumgütern. In der Medizintechnik geht es um die berührungslose, hochsensitive Messung schwacher magnetischer Signale – perspektivisch bis hin zur Auswertung neuronaler Aktivitäten. Unsere Vision ist ein Brain-Computer-Interface: Nervensignale erfassen und in Bewegung oder Steuerbefehle übersetzen. Das ist ambitioniert und braucht Zeit, aber die technologischen Grundlagen sind vorhanden. Parallel prüfen wir Konsumgüteranwendungen, bei denen geringe Baugröße und niedrige Kosten zählen.
Welche Rolle spielen Partnerschaften – und wer ist besonders wichtig?
Dr. Katrin Kobe | Partnerschaften sind zentral. Quantensensorik ist Deep Tech an der Grenze des Machbaren. Viele Komponenten existieren nicht in Serienqualität oder -verfügbarkeit. Wir entwickeln das Ökosystem gemeinsam mit Partnern. Kooperationen beschleunigen Performance, Industrialisierung und Qualitätssicherung. Ein Schlüssel ist der Diamant mit NV-Zentren. Hier arbeiten wir mit Element Six zusammen, um Materialeigenschaften für optimale Sensoreigenschaften zu definieren und reproduzierbar zu fertigen. Um diese Zusammenarbeit noch mehr zu stärken, hat Bosch vor kurzem angekündigt, die Bosch Quantum Sensing GmbH als Joint Venture mit Element Six zu fortzuführen (vorbehaltlich behördlicher Genehmigun-
gen). Mit dieser intensivierten Partnerschaft baut Bosch seinen Technologievorsprung für die Kommerzialisierung der Quantensensorik.
Wann rechnen Sie mit marktreifen Produkten – und wie „startbereit“ sind Sie?
Dr. Katrin Kobe | Konkrete Daten nennen wir bewusst nicht. Rechnen Sie in den nächsten Jahren mit Produkten, die sich in großen Stückzahlen fertigen lassen. Der Reifegrad variiert je nach Anwendung: In manchen Piloten sind wir weit, in anderen am Anfang. Aus Start-Up-Perspektive wirken wir bereits „auf der Aschenbahn“, aus Konzernsicht „putzen wir noch die Startlöcher“. Beide Sichtweisen sind berechtigt – entscheidend ist, dass wir kontinuierlich technologische und kommerzielle Risiken abbauen.
Was fasziniert Sie persönlich an der Quantentechnologie?
Dr. Katrin Kobe | Mich begeistert Licht und Optik seit der Schulzeit. Ich habe in der Quantenoptik promoviert und konnte mich in verschiedenen Führungsrollen immer wieder dem Thema befassen. Jetzt habe ich die Möglichkeit, Grundlagenwissen, Unternehmertum und Kundennutzen zu verbinden – in einem Feld, das reale Probleme löst und neue Märkte schafft. Das ist ungemein motivierend.
Welche Fähigkeiten braucht es, um in diesem Umfeld erfolgreich zu sein – bei Ihnen und im Team?
Dr. Katrin Kobe | Visionäres Denken, Trendgespür und Kundennähe sind unverzichtbar – gepaart mit solidem technischem Verständnis. Genauso wichtig sind Ausdauer und Frustrationstoleranz. Nicht jeder Prototyp funktioniert auf Anhieb. Wer hier arbeitet, muss interdisziplinär denken, Hypothesen testen, aus Daten lernen und den Fokus auf den Kundennutzen bewahren. Diese Haltung gilt für Führungskräfte genauso wie für Entwicklerinnen, Entwickler und Business-Teams.
Wie gehen Sie mit Rückschlägen um – und was hält die Motivation hoch?
Dr. Katrin Kobe | Rückschläge gehören in Deep Tech dazu. Unsere Haltung: schnell erkennen, sauber analysieren, strukturiert lösen – und daraus einen Vorsprung machen. Jede Hürde, die wir nehmen, steht auch vor dem Wettbewerb. Was uns antreibt, ist die tägliche Herausforderung und der sichtbare Fortschritt. Wir schaffen keine Routineprodukte, sondern arbeiten an Neuem. Die Summe der kleinen Erfolge hält das Feuer am Brennen.
Was bedeutet all das für Sicherheit und Resilienz?
Dr. Katrin Kobe | Quantensensorik kann Sicherheitsarchitekturen robuster machen: etwa durch magnetfeldbasierte Navigation als Backup bei GPS-Störungen, durch kontaktlose, präzise Diagnostik in der Medizintechnik oder durch sensitive Anomalieerkennung in industriellen Umgebungen. Entscheidend ist, dass wir Technologien bauen, die nicht nur präzise sind, sondern auch zuverlässig, skalierbar und sicher in der Anwendung. •
Dennis Hoppe, Abteilungsleiter für Converged Computing am Höchstleistungsrechenzentrum Stuttgart, erklärt, wie nah Quantencomputing heute schon an industriellen Anwendungen ist, welche Branchen als erste profitieren und warum die Technologie kein Ersatz für klassische Rechnerarchitekturen ist, sondern ein strategischer Zusatznutzen für Unternehmen, um gezielt spezielle Problemstellungen zu lösen. /// von Heiner Sieger
DAS HÖCHSTLEISTUNGSRECHENZENTRUM STUTTGART (HLRS) unterstützt seit Jahrzehnten Industrieunternehmen dabei, komplexe Probleme mithilfe von Supercomputern zu lösen. Dies reicht von der Simulation neuer Materialien und Materialeigenschaften, über die Optimierung von Fertigungsprozessen bis hin zu Nachhaltigkeitsaspekten (Stichwort: Energieeffizienz). Mit industrienahen Forschungsprojekten wie SEQUOIA hat das HLRS frühzeitig seine Expertise im Bereich Quantencomputing erweitert. Zielstellung des HLRS ist es dabei klassische Höchstleistungsrechner und neuartige Quantenprozessoren so zu kombinieren, dass Unternehmen in Zukunft dank hybrider Workflows von völlig neuen Rechenkapazitäten profitieren können.

DER GESPRÄCHSPARTNER
Dennis Hoppe
Abteilungsleiter für Converged Computing am Höchstleistungsrechenzentrum Stuttgart

Herr Hoppe, wie integriert das HLRS Quantencomputing in sein bestehendes Portfolio an Höchstleistungsrechenressourcen? Sehen Sie Quantencomputer als Ergänzung oder als künftigen Ersatz?
Dennis Hoppe | Quantencomputer sind aus unserer Sicht keine Ablösung, sondern eine vielversprechende Ergänzung zu klassischen Höchstleistungsrechnern; insbesondere in sehr spezifischen Anwendungsfeldern, die von einer sehr schnellen Lösung von Optimierungsproblem profitieren können. Hierbei werden sicherlich klassische HPC-Systeme im kommenden Jahrzehnt weiterhin die Basis für die überwiegende Mehrheit wissenschaftlicher und industrieller Anwendungen stellen. Gleichzeitig beobachten wir, dass sich für bestimmte Problemklassen,
beispielsweise bei komplexen Optimierungsaufgaben oder in der Materialforschung neue Potenziale durch Quantenalgorithmen eröffnen.
Am HLRS interessieren wir uns daher besonders für hybride Ansätze, bei denen sich Quantencomputer als spezialisierte Co-Prozessoren innerhalb komplexer HPC-Workflows einsetzen ließen. So, wie sich vor einigen Jahren GPUs als Beschleuniger für KI-Anwendungen etabliert haben, könnten in Zukunft auch Quantenprozessoren als weitere Beschleunigerklassen in heterogenen Rechnerarchitekturen eine Rolle spielen. Für uns ist es wichtig zu verstehen, wie diese Integration gelingen kann. Nicht nur technologisch, sondern auch organisatorisch.
Das SEQUOIA-Projekt verfolgte das Ziel hybrider Rechenansätze aus HPC und Quantencomputing. Welche Herausforderungen und Chancen sehen Sie dabei? DH | Die größte Herausforderung, insbesondere hybrider Ansätze, liegt meiner Meinung nach aktuell auf der Software- und Schnittstellenebene. Es fehlt an durchgängigen Programmiermodellen und Middleware-Lösungen, die klassische HPC-Systeme und Quantenprozessoren nahtlos miteinander verbinden. Das betrifft nicht nur die Entwicklung geeigneter Algorithmen, sondern auch die Frage, wie Workflows orchestriert werden können, die über sehr unterschiedliche Hardwareplattformen hinweg effizient und robust laufen. Gleichzeitig liegt genau darin eine enorme Chance: Wenn es gelingt, Quantenrechner gezielt dort einzusetzen, wo sie einen echten Vorteil bieten. Etwa bei kombinatorischer Optimierung oder in der Simulation quantenmechanischer Systeme können wir neue Rechenpfade erschließen, die heute noch verschlossen sind. Hierbei ist es zentral, dass man sich nicht nur theoretisch mit dem Thema Quantencomputing beschäftigt, sondern an konkreten industriellen Problemstellungen arbeitet, um Mehrwerte aufzuzeigen. Und genau hier haben die SEQUOIA Projekte angesetzt: Sie boten uns und den Projektpartnern ein Experimentierfeld, um den industrieorientierten Nutzen beim Einsatz von QC-Lösungen zu evaluieren.
Wie nah ist das HLRS daran, industrielle Anwendungen mit Quantencomputern zu unterstützen – und in welchen Branchen erwarten Sie die frühesten Vorteile?
DH | Für das Ingenieurwesen ist Quantencomputing besonders spannend. Insbesondere dort, wo klassische Methoden heutzutage an ihre Grenzen stoßen, etwa beim Lösen komplexer, nichtlinearer Differentialgleichungen. In Bereichen wie der Strömungssimulation oder Materialmodellierung könnten Quantenalgorithmen langfristig völlig neue Effizienzgewinne ermöglichen. Zwar sind diese Ansätze heute noch überwiegend experimentell und auf sehr kleine Systeme beschränkt, aber sie zeigen ein enormes Zukunftspotenzial. Unser Ziel am HLRS ist es daher, diesen Entwicklungen frühzeitig zu folgen und sie gezielt in hybride Workflows einzubetten. Die nächsten Jahre werden entscheidend sein: Gelingt es, konkrete Anwendungsfälle im Ingenieurkontext zu identifizieren und belastbare Pilotprojekte aufzubauen, könnte Quantencomputing zu einem echten Innovationsmotor werden.
Welche Rolle spielen Kooperationen mit Forschungseinrichtungen, Industriepartnern und anderen HPC-Zentren? DH | Kooperationen sind für uns ein zentrales Mittel, um neue Technologien wie KI und Quantencomputing in Forschung und Industrie voranzubringen. Kein Spieler kann diese technisch komplexen Felder allein erschließen, es braucht immer ein starkes Team. Deshalb arbeiten wir am HLRS mit einer Vielzahl von Akteuren zusammen, zu dem in erster Linie auch Hardware-Hersteller gehören, um Zugang zu neuen Architekturen zu erhalten, mit






Software-Start-ups, die innovative Frameworks liefern, und mit Industrieunternehmen, die reale Use Cases definieren. Gleichzeitig ist die Vernetzung mit europäischen HPC-Zentren entscheidend, um Synergien zu nutzen. Projekte wie EuroCC oder CASTIEL, aber auch die AI Factory HammerHAI, die allesamt die europäische Expertise bündeln und einen europaweiten Wissenstransfer ermöglichen, sind hier von großer Bedeutung.
Wenn Sie auf die Entwicklung der Quantenhardware in den nächsten fünf Jahren blicken: Welche Voraussetzungen müssen erfüllt sein, damit Quantencomputing breit genutzt werden kann?
DH | In den nächsten fünf Jahren erwarten wir Fortschritte hin zu Quantencomputern mit Hunderten bis möglicherweise Tausenden Qubits. Doch die entscheidenden Herausforderungen liegen weniger in der reinen Qubit-Zahl, sondern in der Qualität der Systeme. Die wesentlichen Hürden bleiben die Verschränkung der Qubits und die Fehlerkorrektur: Nur mit zuverlässigen, reproduzierbaren Ergebnissen wird Quantencomputing breit anwendbar sein. Neben der Hardware müssen auch die Integration in bestehende Rechenumgebungen und die Entwicklung einheitlicher, standardisierter Schnittstellen vorangetrieben werden. Sowohl für Forschungseinrichtungen als auch Unternehmen ist zudem ein gezielter Aufbau von Kompetenzen entscheidend. Deshalb ist es nicht nur für Forschende, sondern auch für Unternehmen wichtig, sich jetzt aktiv vorzubereiten, um den Anschluss nicht zu verpassen und die Chancen dieser Technologie frühzeitig nutzen zu können. •















Fraunhofer IPA forscht an Quantentechnologien für Prothesensteuerung und neue Point-of-Care-Diagnostik. Fraunhofer-Experte Dr. Urs Schneider erklärt, wie Quantensensorik neue Möglichkeiten in Diagnostik, Therapie und Rehabilitation eröffnet. /// von Heiner Sieger
Herr Dr. Schneider, Quantentechnologien gelten als großes Innovationsfeld. Wo sehen Sie die stärksten Anknüpfungspunkte und Potenziale speziell für die Medizintechnik?
Dr. Urs Schneider | Biologische Prozesse laufen physikalisch-chemisch ab. Elektrisch geladene Moleküle ändern ihre Zustände, Informationen werden elektrisch weitergegeben. Damit arbeitet die Biomedizin seit Langem und versteht die Zusammenhänge immer besser. Wenn wir durch hoch empfindliche Magnetfeldsensoren Zustände


wa die Gruppe von Prof. Fedor Jelezko, wie sich laufende Stoffwechselprozesse von lebenden Zellen und Geweben analysieren lassen. Und bei NVision entstehen bereits kommerzielle Messmethoden, die Tumorgewebe in der Bildgebung trennscharf von gesundem Gewebe unterscheiden können – mithilfe sogenannter Hyperpolarisatoren. Mit Hyperpolarisations-MR-Tomographie lassen sich experimentell bereits pH-Wert-Verschiebungen in der Niere sichtbar machen – ein großer Schritt in der funktionellen Nierendiagnostik.
DER GESPRÄCHSPARTNER
Dr. Urs Schneider ist Abteilungsleiter für Biomechatronische Systeme am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart. Er forscht an innovativen Technologien für Medizintechnik und Rehabilitation. Heute gilt er als einer der führenden Experten in der Anwendung von Quantensensorik für die Medizin.
” Wenn wir durch hoch empfindliche Magnetfeldsensoren Zustände und Signale in der Natur immer sensibler messen können, entsteht neues Wissen über biologische Zusammenhänge, dass wir zur Gesunderhaltung, Diagnostik und Therapie einsetzen können. Dr. Urs Schneider
und Signale in der Natur immer sensibler messen können, entsteht neues Wissen über biologische Zusammenhänge, dass wir zur Gesunderhaltung, Diagnostik und Therapie einsetzen können.
Stuttgart ist dabei ein besonderer Ort:
Durch die Erkenntnisse von Prof. Jörg Wachtrup, Stickstofffehlstellen in Kohlenstoff-Atomen als „Quanten-Magnetometer“ zu nutzen, hat sich hier eine führende Rolle entwickelt. Stuttgart und Ulm sind durch intensive Forschung und das Kompetenzzentrum für Quantensensorik QSENS zu Hotspots geworden. In Ulm erforscht et-
Welche weiteren Möglichkeiten eröffnet die Quantensensorik?
Dr. Urs Schneider | Neben solchen Erkenntnissen auf biologischer Strukturebene können sehr sensible Magnetometer seit Längerem elektrische Phänomene des Gehirns, des Herzens, der Nerven und Muskeln detektieren. SQUIDs (Superconducting Quantum Interference Devices) kommen etwa in der Forschungsgruppe von Prof. Markus Siegel am Magnetoenzephalographie-Zentrum in Tübingen zum Einsatz.
Mit optisch gepumpten Magnetometern (OPMs) haben Prof. Siegel und sein Kollege Justus Marquetant den

Stromverlauf in Nerven in Echtzeit am Arm zeigen können.
Wie bringt sich das Fraunhofer IPA in diese Forschung ein?
Dr. Urs Schneider | Wir am Fraunhofer IPA forschen seit mehr als 20 Jahren an verbesserten Rehabilitationstechniken für Menschen mit Behinderungen. Unser Neuromechanik-Experte Dr. Leonardo Gizzi arbeitet gemeinsam mit der Bewegungswissenschaftlerin Verena Kopp und dem Medizintechnikexperten Duc Nguyen in zwei faszinierenden Bereichen: zum einen an der Nutzung von in Echtzeit gemessenen Magnetfeldern elektrisch aktivierter Muskeln zur Ansteuerung von Prothesen, zum anderen an der Diagnostik von Herzrhythmusstörungen durch magnetische Zusatzinformationen zum herkömmlichen EKG.
Was ist der Vorteil dieser Ansätze?
Dr. Urs Schneider | Beide Themen vereint zweierlei: Erstens sind magnetische Informationen potentiell präziser anatomisch zuordenbar, da sie örtlich besser auflösen als elektrische Informationen. Das sehen wir bereits beim Gehirn: Ein SQUID-MEG liefert präzisere lokale Funktionsinformationen als ein EEG an derselben Person. Zweitens braucht die Messung von Magnetfeldern keinen „galvanischen“ Gewebekontakt wie EMG, EKG oder EEG. Diese Verfahren sind etabliert, haben aber Nachteile: Rasur für bessere Signale, abfallende Elektroden bei Schweißbildung, Fehlmessungen.
Warum rückt das Thema gerade jetzt in den Fokus?
Dr. Urs Schneider | Magnetische Signale im Körper sind extrem schwach. Mit OPMs und NV-Sensoren sind jedoch portable Geräte immer besser denkbar. Denn ein SQUIDMEG benötigt eine spezielle, mit µ-Metall abgeschottete Umgebung, um Störungen etwa durch das Erdmagnetfeld auszuschließen – das ist stärker als das Muskelsignal! Immer wenn portable Lösungen in der Medizin denkbar wurden, sind neue Märkte für Point-of-Care-Geräte entstanden.
An welchen Projekten arbeiten Sie aktuell?
Dr. Urs Schneider | Im QSENS-Cluster forschen wir an der Nutzung quantensensorisch gemessener Muskelsignale, um eines Tages hochsensibel und kontaktlos Armprothesen anzusteuern. Mit OPM-Sensoren konnten Dr. Gizzi und Dr. Marquetant bereits einen Nachweis im Projekt erbringen. Auch Prof. Soekadar, Lehrstuhlinhaber für Neurotechnologien an der Charité, forscht seit Langem mit seinem Team an der Messung von Gehirnsignalen mit unterschiedlichen Magnetfeldsensoren.
Im Projekt „Vital@ Quantensensorisch Arrhythmiediagnostik“ arbeiten wir an der kontaktfreien Detektion von Herzrhythmusstörungen, gefördert vom Land BadenWürttemberg. Einen Demonstrator zeigen wir erstmals auf der Messe Quantum Effects.
Wie wichtig ist Vernetzung in diesem Feld?
Dr. Urs Schneider | Die Forschung ist hochgradig interdisziplinär und lebt von einer engen internationalen Zusammenarbeit. Nur so lassen sich Erfolge erzielen. QSENS ist eine große, einzigartige Forschungsfamilie unter der koordinierenden Leitung von Prof. Jens Anders.
Für Baden-Württemberg sind Quantencomputing und Quantensensorik erklärte Standortstrategie. Mit der Messe Quantum Effects gibt es dafür den zentralen Marktplatz. Dass die Medizintechnik dabei ein fester Bestandteil ist, freut uns sehr – auch im dritten Jahr. Austausch und Vernetzung sind für uns entscheidend. •
Das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA zählt mit über 1.000 Mitarbeitenden zu den größten Instituten der FraunhoferGesellschaft. Neben Produktionstechnik und Automatisierung ist die Biomedizintechnik ein wichtiger Forschungsschwerpunkt. Im Bereich Quantentechnologie konzentriert sich das IPA insbesondere auf Quantensensorik – also die hochsensible Messung magnetischer Signale im Körper. Projekte wie QSENS oder Vital@ Quantensensorisch Arrhythmiediagnostik verknüpfen Grundlagenforschung mit klinischen Anwendungen. Ziel ist es, neue Verfahren für Diagnostik, Therapie und Rehabilitation zu entwickeln und in die Praxis zu übertragen
Die Logistikbranche steht vor einem tiefgreifenden Wandel. Mit den rasant fortschreitenden technologischen Entwicklungen rückt künstliche Intelligenz in den Fokus als ein entscheidender Faktor für Effizienz und Innovation. Gerade in der Digitalisierung der Wertschöpfungsketten eröffnet die KI neue Möglichkeiten, Prozesse zu optimieren und die Kundenzufriedenheit zu steigern. /// von Konstantin Pfliegl
DIE LOGISTIKBRANCHE IST SEIT JEHER EIN WESENTLICHER
BESTANDTEIL DER GLOBALEN WIRTSCHAFT. Mit der zunehmenden Globalisierung und den Anforderungen der digitalen Ära steht sie jedoch vor neuen Herausforderungen und Chancen. Eine der vielversprechendsten Entwicklungen in diesem Bereich ist der Einsatz von künstlicher Intelligenz (KI). Die Technologie hat das Potenzial, nicht nur die Effizienz, sondern auch die Nachhaltigkeit und Kundenzufriedenheit in der Logistik auf ein neues Level zu heben.
Logistikplanung und -optimierung
Eine der spannendsten Einsatzgebiete von KI in der Logistik ist die Optimierung von Routen und Lieferketten. Durch den Einsatz von Algorithmen können Unternehmen den idealen Weg zur Auslieferung von Waren bestimmen, basierend auf einer Vielzahl von Variablen wie Verkehrslage, Wetterbedingungen und historischen Lieferdaten. Dies führt nicht nur zu Kosteneinsparungen, sondern reduziert auch die Kohlenstoffemissionen, was in Anbetracht der
globalen Bemühungen zur Reduzierung des ökologischen Fußabdrucks von unschätzbarem Wert ist.
Automatisierung und Effizienzsteigerung und Lagern In Lagerhäusern findet man zunehmend autonome Roboter und automatisierte Systeme, die KI nutzen, um Bestandsverwaltung und Kommissionierung effizienter zu gestalten. Diese Systeme können nicht nur die Platzierung und Entnahme von Waren automatisieren, sondern auch den Bestand in Echtzeit überwachen und so Engpässe oder Überbestände vermeiden.
Prognose und Nachfrageplanung
KI-gestützte Analyse-Tools erleichtern es Logistikunternehmen, Nachfrageprognosen präziser zu gestalten. Durch die Analyse von Verkaufsdaten, saisonalen Trends und externen Marktfaktoren, können Unternehmen ihre Lagerhaltung und Produktion anpassen, um Überproduktion oder -bestände zu vermeiden. Diese präzisen Prognosen helfen

” Künstliche Intelligenz hat das Potenzial, nicht nur die Effizienz, sondern auch die Nachhaltigkeit und Kundenzufriedenheit in der Logistik auf ein neues Level zu heben. Konstantin Pfliegl
PRAXISBEISPIEL I:
ROBOTER BEI AMAZON
In vielen Amazon-Logistikzentren arbeiten Roboter und Menschen Hand in Hand, um Produkte zu finden, zu sortieren, zu transportieren und einzulagern.
Amazon begann bereits im Jahr 2012 mit dem Einsatz von Robotertechnik. Heute setzt der Onlineriese auf verschiedene Arten von Robotern. Palettierroboter sind Roboterarme mit Greifern, die Produkte auf Fließbändern erkennen und sie herunterheben, um sie zum Versand oder zur Lagerung auf Paletten zu stapeln. Eine andere Art von Roboter, der Robo-Stow, hebt Warenpaletten auf verschiedene Ebenen des Logistikzentrums oder platziert sie auf Transporteinheiten, damit diese sie an ihr nächstes Ziel befördern.
Im Mai dieses Jahres stellte Amazon mit Vulcan den ersten RoboterHelfer mit Tastsinn vor. Im Lager Winsen bei Hamburg ist Vulcan bereits im Einsatz. Der Roboter kommissioniert und verstaut Waren in den obersten Reihen der Lagerregale. Da diese Reihen rund 2,5 Meter hoch sind, benutzen Mitarbeiter bislang eine Trittleiter, um sie zu erreichen. Das ist zeitaufwändig, anstrengend und weniger ergonomisch als das Einlagern und Kommissionieren in Hüfthöhe. Vulcan verarbeitet auch Artikel, die direkt über dem Boden gelagert sind, sodass die Mitarbeiter dort arbeiten können, wo es für sie am bequemsten ist.
Amazon Vulcan:
Der Roboter-Helfer verfüggt sogar über einen Tastsinn. (Bild: Amazon)

Unternehmen nicht nur, Kosten zu sparen, sondern auch, besser auf plötzliche Marktnachfragen reagieren zu können.
Verbesserung des Kundenservices
In der digitalen Welt von heute erwarten Kunden Transparenz und Echtzeit-Informationen über ihre Bestellungen. KI-gestützte Chatbots und virtuelle Assistenten haben den Kundenservice revolutioniert, indem sie schnelle Antworten auf Anfragen geben und detaillierte Trackings zur Verfügung stellen. So wird das Kundenerlebnis verbessert sowie die Kundenzufriedenheit erhöht. Darüber hinaus ermöglichen KI-Systeme eine Personalisierung der Dienstleistungen und liefern personalisierte Empfehlungen basierend auf dem individuellen Kundenverhalten.
Sicherheits- und Risikomanagement
Ein oft übersehener, jedoch kritischer Aspekt ist der Einsatz von KI zur Verbesserung der Sicherheit und des Risikomanagements in der Logistik. Dies reicht von der Überwachung
der Sicherheit in Lagern bis hin zur Implementierung von Alarmsystemen, die potenzielle Bedrohungen durch Datenanalysen frühzeitig erkennen können.
Künstliche Intelligenz steht zweifelsohne im Zentrum der Transformation der Logistikbranche. Ihre Fähigkeit, komplexe Prozesse zu analysieren und Muster zu erkennen, ermöglicht eine bislang unerreichte Effizienz und Flexibilität in allen Prozessschritten der Lieferkette. Unternehmen, die sich dieser Technologie widmen und den kulturellen Wandel annehmen, können nicht nur ihre Wettbewerbsfähigkeit steigern, sondern auch den Weg für eine nachhaltigere und innovativere Logistikindustrie ebnen. Die Zukunft der Logistik ist digital und intelligent – und künstliche Intelligenz wird dabei die Schlüsselrolle spielen.
Trotz der Vorteile von künstlicher Intelligenz gibt es aber auch Herausforderungen und ethische Überlegungen: Datenschutz, Arbeitsplatzverluste durch Automatisierung und die Notwendigkeit zur Weiterbildung der Belegschaft sind bedeutende Themen, die angegangen werden müssen, um einen verantwortungsvollen und nachhaltigen Einsatz von KI in der Logistik zu gewährleisten. •
PRAXISBEISPIEL II:
KI AUF DER LETZTEN MEILE BEI DHL
Ob Routenoptimierung oder Kraftstoffeffizienz – der Logistiker DHL setzt bereits umfassend auf künstliche Intelligenz.
KI-Prognosemodelle liefern bei DHL Daten zu einzelnen Sendungen, die mithilfe einer KI-gestützten Software für die Routenoptimierung weiterverarbeitet werden. Das System berücksichtigt alle wichtigen Variablen für die bestmögliche Routensequenz und der Kunde erhält Informationen über die voraussichtliche Lieferzeit, die immer präziser wird, je näher das Lieferfahrzeug kommt. Bis zur Lieferung kann der Kunde noch Änderungswünsche vornehmen, etwa zur Lieferzeit oder zum Lieferort.
Eine optimierte Route vermeidet zudem zusätzliche Fahrten und unnötige Stopps und trägt so zum effizienten Kraftstoffverbrauch bei. Zusätzlich tragen eine KI-gestützte Fahrtenanalyse und Fahrverhaltenanalyse, zum Beispiel zu Leerlaufzeiten, zur Effizienzsteigerung bei.
DHL:
Künstliche Intelligenz optimiert die Letzte-Meile-Lieferung.
(Bild: DHL Group)

Zwischen KI-Hype und Stillstand haben viele mittelständische Unternehmen Angst, etwas zu verpassen. Dagegen hilft ein einfacher Einstieg in die Welt der künstlichen Intelligenz. KI-Agenten sind dafür die praktische Lösung: Sie nehmen Routinen ab, bringen Ordnung in Abläufe und zeigen sofort Wirkung. /// von Gherdi Glaser
KI KANN EIN WICHTIGER BESTANDTEIL UNSERES ALLTAGS WERDEN: Ob in Meetings, in Mails, im Kopf: der ständige Helfer steht eigentlich mit der KI bereit. Trotzdem bekomme ich immer wieder mit, wie gerade Unternehmen Probleme haben, KI in ihren Unternehmen sinnvoll einzusetzen. Aktuelle Studien belegen dieses Gefühl: 57 Prozent der Firmen beschäftigen sich mit KI, 20 Prozent nutzen sie, 37 Prozent planen und doch bleibt vieles nur Theorie. 2025 meldet die Deutsche Industrie- und Handelskammer (DIHK), dass nur mehr als jeder Dritte KI nutzt. Der Rest schaut zu und riskiert abgehängt zu werden. Das kann man als „FOMO” in Zahlen bezeichnen – „Fear of Missing Out“, also die Angst, etwas zu verpassen.
Doch wie ist die Angst zu lösen? Es klingt profan: klein anfangen statt groß zu denken. Kleine und wiederkehrende Tätigkeiten statt Großprojekte. Wer so denkt, stößt schnell darauf, dass es für kleinere Aufgaben eine spezielle Hilfe gibt. Und das sind KI-Agenten, die lästige Aufgaben in Unternehmen ganz einfach abnehmen können. Ein KI-Agent ist ein Softwaresystem, das auf Large Language Models basiert. Am besten kann man sich KI-Agenten wie einen digitalen Kollegen vorstellen: Er verfolgt ein Ziel, arbeitet Aufgaben Schritt für Schritt ab, fragt bei Unsicherheiten nach und hält alles sauber fest. Er wird nie müde, vergisst nichts und schafft damit eine Verlässlichkeit, die in vielen Firmen fehlt. Dieses Prinzip ist Teil des sogenannten „Agentic Approach“. Statt dass ein
einzelnes KI-Tool nur Antworten liefert, arbeiten mehrere spezialisierte Agenten zusammen wie ein eingespieltes Team. Genau dieses Zusammenspiel eröffnet dem Mittelstand völlig neue Möglichkeiten.
Warum KI-Agenten für den Mittelstand gut sind Im Mittelstand fehlen oft die großen IT-Teams und Budgets, um komplette Systeme neu aufzubauen. Prozesse hängen stark von einzelnen Personen ab, und wenn jemand krank wird oder das Unternehmen verlässt, gerät der Ablauf ins Stocken. Gleichzeitig steigt der Druck, weil Kunden schnelle Reaktionen erwarten, Fachkräfte schwer zu finden sind und je-
DER AUTOR
fehlen, bleibt die Arbeit nicht liegen. Denn Routineaufgaben erledigen die Agenten, während sich die Kollegen auf Sonderfälle und wichtige Entscheidungen konzentrieren können.
Der Effekt im täglichen Arbeiten Am deutlichsten zeigt sich der Nutzen von KI-Agenten in typischen Alltagssituationen. Wie das konkret aussieht, zeigen folgende drei Situationen:
1. Onboarding ohne Ping-Pong: Wer neue Mitarbeitende einarbeitet, kennt das - Formulare fehlen, Unterschriften kommen zu spät, Zugänge lassen auf sich warten. Ein KI-Agent übernimmt diese Schritte. Er sammelt die nötigen Angaben ein, legt
Gherdì Glaser ist Innovation Manager bei NTT DATA Business Solutions und Corporate Influencer für künstliche Intelligenz. Er verbindet Data-Science-Expertise mit den Möglichkeiten generativer KI, um praxisnahe Lösungen für den Mittelstand zu entwickeln. Sein Ziel: Geschäftsprozesse neu denken, Mehrwert aus Daten schaffen und eine verantwortungsvolle KI-Kultur etablieren.
der Fehler Zeit und Vertrauen kostet. Genau hier helfen KI-Agenten. Für den Mittelstand bedeutet das weniger wiederkehrende Arbeiten, mehr Zeit für Kunden, Produkte und Entscheidungen. KI-Agenten springen nicht ständig zwischen verschiedenen Programmen, sondern arbeiten Aufgaben Schritt für Schritt ab. Jede Aktion wird automatisch dokumentiert, die Übergaben laufen geordnet ab. So entsteht weniger Doppelarbeit, weniger Nacharbeit und mehr Klarheit, wer wofür zuständig ist. Selbst wenn Mitarbeitende einmal

das Nutzerkonto an, beantragt Berechtigungen, trägt die ersten Zeiten ein und erstellt ein Protokoll. Wichtige Schritte bleiben natürlich freigabepflichtig. Das Ergebnis sind weniger Nachfragen, klare Übersicht und ein schneller Start.
2. Einkauf ohne Dauerabgleich: Im Einkauf stapeln sich oft Bestätigungen und Angebote, die mühsam abgeglichen werden müssen. Preise, Mengen, Liefertermine und jede Abweichung kostet Zeit. Genau hier springen KI-Agenten ein. Sie glei -

chen Positionen automatisch ab, fordern fehlende Informationen ein und melden sich nur dann, wenn wirklich etwas nicht passt. Menschen müssen erst dann entscheiden, wenn ihre Erfahrung gebraucht wird.
3. Produktion ohne Zettelchaos: Auch in der Produktion steckt viel Routine. Prüfschritte werden notiert, Abweichungen weitergegeben, manchmal gehen sogar Informationen dabei verloren. Ein KI-Agent liest die Stückliste, prüft Abweichungen, stellt gezielte Rückfragen und erstellt das Prüfprotokoll automatisch. So läuft der Prozess gleichmäßig, und die Daten sind jederzeit vollständig abrufbar.
„Klingt nett – und sicher?“
KI-Agenten funktionieren jedoch nur mit klaren Spielregeln. Drei einfache Prinzipien reichen bereits aus, um sicher zu starten. Und die sollte auch jeder beachten, damit kein Schaden entsteht.
Erstens: Zugriffsrechte begrenzen. Ein Agent soll nur auf die Daten und Systeme zugreifen, die er für seine Aufgabe wirklich braucht. Dieses Prinzip nennt sich „Least Privilege“. Es schützt sensible Informationen und macht die Abläufe leichter kontrollierbar.
Zweitens: Jeden Schritt dokumentieren. Damit immer nachvollziehbar bleibt, was der KI-Agent getan hat, läuft ein Protokoll mit. In der Fachsprache heißt das „Audit-Trail“. Es ist nichts anderes als ein lückenloses Logbuch: Wer hat wann welche Aktion ausgelöst und mit welchem Ergebnis.
Drittens: Freigaben festlegen. Manche Aufgaben dürfen nicht komplett automatisch laufen. Gerade dort, wo rechtliche oder finanzielle Konsequenzen entstehen, braucht es ein „Okay“ vom Menschen. Diese Freigabe ist schnell gegeben, sorgt aber für Sicherheit und Vertrauen.
Mehr braucht es nicht. Mit diesen drei Regeln arbeiten KI-Agenten verlässlich, nachvollziehbar und im Einklang mit den EU-Vorgaben. In Gesprächen höre ich häufig die Sorge, dass ohne eine große Governance-Struktur gar nichts geht. Meine Erfahrung zeigt, dass sobald diese drei Prinzipien klar sind, sich Fachbereiche viel schneller trauen, die ersten Prozesse wirklich abzugeben. Die anfängliche FOMO ist unbegründet ist – KI-Agenten einzusetzen ist oft deutlich unkomplizierter, als man zunächst denkt.
Legt jetzt los!
Wir halten fest: Der KI-Hype sorgt für Unsicherheit – doch die lähmt uns nur. Diese Unsicherheit ist Teil der KI-FOMO im Mittelstand: Man spürt den Druck, etwas zu verpassen, hat gleichzeitig aber Angst vor den Risiken und der Komplexität von KI. Wer wartet, verliert wertvolle Zeit. KI-Agenten sind kein Zukunftsprojekt, sondern ein sofort nutzbarer Helfer für den Mittelstand. Sie starten klein, wirken schnell und schaffen Strukturen, auf denen sich aufbauen lässt.
Wer heute die ersten Routinen abgibt, lernt morgen, ganze Prozesse zu gestalten. Also: Nicht länger zögern –legt jetzt los. •
” Wer wartet, verliert wertvolle Zeit. KI-Agenten sind kein Zukunftsprojekt, sondern ein sofort nutzbarer Helfer für den Mittelstand. Sie starten klein, wirken schnell und schaffen Strukturen, auf denen sich aufbauen lässt. Gherdi Glaser
Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz. Ziel ist es, Risiken zu minimieren und gleichzeitig Innovationen zu ermöglichen. Für viele mittelständische Unternehmen gilt: Die eingesetzten KI-Anwendungen fallen oft in die Kategorien mit geringem oder begrenztem Risiko. /// von Janek Kuberzig und Fritz-Ulli Pieper
Überblick:
Geringes und begrenztes Risiko
Der AI Act stuft KI-Systeme in vier Risikoklassen ein:
• Unannehmbares Risiko – verboten (z. B. soziale Bewertung durch den Staat)
• Hohes Risiko – strenge Anforderungen (z. B. KI in Medizin oder kritischer Infrastruktur)
• Begrenztes Risiko – Transparenzpflichten (z. B. Chatbots, die klar erkennbar als KI kommunizieren)
• Geringes Risiko – nahezu keine Vorgaben
KMUs sind häufig Anwender von KI-Systemen oder KI-Modellen und unterliegen damit regelmäßig geringeren Verpflichtungen. Dies gilt etwa beim internen Einsatz von KI-Chatbots wie Claude und Midjourney oder eines KI-Systems zur Optimierung von Produktionsprozessen wie der Steuerung von Maschinen oder der Verbesserung von Wartungsplänen. Anwender müssen hier keine umfassenden Pflichten aus dem AI Act erfüllen. Unternehmen müssen lediglich dokumentieren, welche Systeme sie einsetzen, deren Ergebnisse regelmäßig prüfen und sicherstellen, dass sie nicht unbemerkt im Anwendungsbereich in regulierte Bereiche übergehen.
1. Transparenz und Dokumentation verbinden: Machen Sie für Kunden und Mitarbeitende sichtbar, wenn KI im Einsatz ist. Halten Sie intern fest, welche Tools genutzt werden, zu welchem Zweck und mit welchen Eingaben. Eine einfache Tabelle oder ein gemeinsames Dokument genügt oft, um Transparenz- und mögliche Nachweispflichten zu erfüllen.


2. Mitarbeitende gezielt schulen: Passen Sie Schulungen an die jeweilige Rolle im Unternehmen an: Büro- und Servicekräfte sollten wissen, wie sie KI-Chatbots korrekt ansprechen, Ergebnisse prüfen und Eingabe von sensiblen Daten vermeiden. Die IT-Abteilung hingegen braucht tiefere Kenntnisse zur Integration der KI-Systeme in bestehende Prozesse sowie zu Schnittstellen und Sicherheitsaspekten. So lernt jede Zielgruppe genau das, was für ihre Arbeit mit KI relevant ist.
3. Verantwortlichkeiten klar festlegen: Ernennen Sie KI-Beauftragte, die neue gesetzliche Entwicklungen beobachten, den Überblick über alle eingesetzten Systeme behalten und Ansprechpersonen für interne Rückfragen sind. In kleinen Betrieben kann dies auch Teil der Aufgaben einer IT- oder datenschutzverantwortlichen Person sein.
Zukunftsausblick:
Wichtige Fristen kennen
Die Vorschriften treten gestaffelt in Kraft. Seit dem 2. Februar dieses Jahres gilt das Verbot für KI-Systeme mit unannehmbarem Risiko. Die Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck gelten seit dem 2. August 2025. Die Anforderungen an Hochrisiko-Systeme werden zum 2. August 2026 wirksam. Der AI-Act ist damit weniger ein Innovationshemmnis, sondern vielmehr ein Rahmen für den verantwortungsvollen Einsatz von KI. Gerade KMUs können daraus als Anwender einen Wettbewerbsvorteil ziehen, weil Anbieter von KI-Systemen Vertrauen schaffen und rechtliche Sicherheit bieten müssen. Für KMUs bedeutet das: Wer jetzt Transparenz, Dokumentation und klare Verantwortlichkeiten verankert, stellt sich als Unternehmen zukunftsfähig auf. •
DIE AUTOREN
Janek Kuberzig (l.) ist Public Affairs Manager Data & (Future) Tech beim Bundesverband Digitale Wirtschaft (BVDW) e. V. (Bild: Janek Kuberzig)
Fritz-Ulli Pieper, LL.M. ist Rechtsanwalt bei Taylor Wessing sowie Lableiter im Lab „Künstliche Intelligenz: Responsibility“ beim BVDW. (Bild: Taylor Wessing)
Rund 70 % aller Beschäftigten in Deutschland nutzen laut KPMG frei zugängliche KI-Anwendungen. Oft unbewusst und ohne Rücksprache mit der IT. Ein Risiko für sensible Daten. Mit BusinessGPT bringt der SofwareDistributor MRM eine Private AI und KI-Firewall in den Markt, die Produktivität und Sicherheit vereint und Datensouveränität gewährleistet. von Angelika Mühleck
Ungeregelte KI-Nutzung im Arbeitsalltag
Ob für die interne Präsentation der Jahreszahlen, schnelle Analysen, Content Creation oder die Angebots-Email an den Großkunden: KI ist Teil des Arbeitsalltags. Doch wenn Mitarbeitende frei verfügbare Systeme wie ChatGPT, Claude, deepseek und Übersetzungsdienste nutzen, geraten sensible Daten in öffentliche KI-Systeme. Vertrauliche Informationen können in externe Trainingsmodelle einfließen und tauchen im schlimmsten Fall in fremden Kontexten wieder auf – ohne dass es in der Geschäftsleitung jemand ahnt. Ein Compliance-Problem – und ein reales Risiko für Geschäftsgeheimnisse.
Die Lösung gegen Schatten-KI: Private AI und AI Firewall
Melanie Achten, Geschäftsführerin beim Spezialdistributor MRM, hat darauf reagiert. „Wir sehen die wachsende Unsicherheit im Umgang mit Künstlicher Intelligenz. Niemand will auf die Produktivitätsgewinne verzichten. Andererseits verschwinden Daten in der Blackbox…“ Aus dieser Beobachtung heraus entstand die Partnerschaft zwischen MRM und dem auf hochsichere IT-Lösungen spezialisierten Unternehmen AGAT.
Zero Data Exposure
Herzstück der AGAT-Software BusinessGPT ist die Private AI, eine Plattform, die generative KI ausschließlich auf den eigenen Datenquellen eines Unternehmens betreibt – von E-Mails über Dokumente bis zum CRM-System. Durch den Einsatz von Retrieval-Augmented Generation (RAG) greift die KI auf vorhandenes Wissen zurück, anstatt sensible Daten an externe Trainingsmodelle weiterzugeben. Zero Data Exposure ist das Grundprinzip. Neben einem Knowledge-Chatbot für Fragen in natürlicher Sprache stehen Funktionen für semantische Suche, Business-Analysen und auch Code-Assistenz bereit.
Governance im Arbeitsalltag
Ergänzend sorgt die AI Firewall von BusinessGPT für Governance. Sie überwacht und steuert in Echtzeit, klassifiziert Daten nach Sensitivität und setzt rollenbasierte Richtlinien durch. So können IT-Verantwortliche definieren, wer welche Inhalte mit KI verarbeiten darf und wo Grenzen gezogen werden. Volle Transparenz und Sicherheit, statt unkontrolliertem Abfluss sensibler Informationen!
Die digitale Zukunft selbstbestimmt gestalten „Für uns war entscheidend, dass unsere Kunden die Datenhoheit behalten“, betont Melanie Achten ihre Wahl. „BusinessGPT dient operativ dem Wissenstransfer und der Automatisierung, strategisch liefert es das Fundament für digitale Selbstbestimmung, Compliance und Unabhängigkeit.“ Für die Microsoft-Expertin und On-Premises-Verfechterin passt auch die Bereitstellung: lokale Installationen, end-to-end-Verschlüsselung, private Clouds oder SaaS (auf europäischen Servern!). Zudem eine datenschutzkonforme und On-Premises-fähige Verbindung mit Kollaborationstools wie Microsoft Teams.
MRM – Spezialdistributor für Software & IT-Sicherheit
MRM Distribution ist vor allem bei IT-Häusern für Software-Lösungen bekannt, die den Mittelstand befähigen, Digitalisierung sicher und bezahlbar umzusetzen. Mit BusinessGPT bringt der Distributor einen Partner in den deutschsprachigen Markt, der KI-basierte Innovationen liefert – und volle IT-Sicherheit garantiert.
Melanie Achten ist Geschäftsführerin der MRM Distribution GmbH.

Die Sicherheitsfunktionen von BusinessGPT Private AI und AI Firewall schützen Unternehmen vor unkontrollierter Schatten-KI.

Die Datenmengen in deutschen Unternehmen wachsen rasant und stellen Geschäftsmodelle, Infrastruktur und Prozesse vor nie dagewesene Herausforderungen. Wer jetzt keine Strategie für die Datenexplosion entwickelt, riskiert den Anschluss an die digitale Zukunft. /// von Julia Neumann
NOCH NIE ZUVOR WURDEN IN UNTERNEHMEN so viele
Daten erzeugt, gesammelt und verarbeitet wie heute –und der Trend zeigt steil nach oben. Ob durch Maschinen, Sensoren, digitale Dienste oder Kundeninteraktionen: Daten entstehen im Sekundentakt und überfordern zunehmend die bestehenden Systeme. Was früher als wertvolle Ressource galt, wird nun zum Risiko, wenn es an Strategie, Struktur und Know-how fehlt.
Die Folgen betreffen Unternehmen jeder Größe und Branche. Besonders kritisch ist die Lage in datenintensiven Bereichen wie Industrie, Finanzwesen, Gesundheitssektor
Datenstrategie:
Vom Datensammeln zum Wertschöpfen Auch wenn digitale Technologien längst in der Breite angekommen sind, verfügen viele Unternehmen bislang nur über rudimentäre Datenstrategien. Studien, unter anderem von Bitkom, zeigen, dass riesige Datenmengen gesammelt, aber kaum systematisch erschlossen werden. Häufig mangelt es an Transparenz, Analysefähigkeiten und einer klaren Strategie. Effektives Datenmanagement bedeutet mehr als Technologie. Es setzt auf durchdachte Strukturen: die gezielte Auswahl relevanter Daten, perfor-
” Effektives Datenmanagement bedeutet mehr als Technologie. Es setzt auf durchdachte Strukturen: die gezielte Auswahl relevanter Daten, performante Speicherlösungen sowie fortschrittliche Analysetools. Julia Neumann
oder Handel. Dort sind Echtzeitprozesse längst Alltag und mit ihnen eine Flut an Informationen, die gespeichert, ausgewertet und abgesichert werden müssen. Doch vielerorts fehlt es an einem klaren Plan, wie mit dieser Herausforderung umzugehen ist. Dabei geht es nicht nur um Technik, sondern um einen Paradigmenwechsel: Daten sind nicht mehr nur Mittel zum Zweck, sie werden zum strategischen Rohstoff, der über Zukunftsfähigkeit entscheidet.
KI als Schlüsseltechnologie für exponentiellesDatenwachstum Nach Prognosen von IDC wurden im Jahr 2024 rund 150 Zettabyte Daten weltweit erzeugt. Bis 2035 soll diese Menge auf über 600 Zettabyte ansteigen. Zum Vergleich: Ein modernes Smartphone hat etwa 128 GB Speicherplatz. 1 Zettabyte entspricht dem Speicherplatz von rund 8 Milliarden solcher Smartphones – also eine unfassbar große Datenmenge. Quellen dafür sind vielfältig – Maschinenkommunikation, IoT-Sensorik, Kundeninteraktionen oder digitale Services. Künstliche Intelligenz spielt dabei eine zentrale Rolle: Einerseits sorgt sie durch neue Anwendungen und Modelle selbst für steigende Datenvolumina. Andererseits wird sie unverzichtbar, um Informationen effizient zu verarbeiten, Muster zu erkennen und Entscheidungen in Echtzeit zu treffen. Ohne KI wird es kaum möglich sein, diese Datenberge gewinnbringend zu bewältigen.

DIE AUTORIN
Julia Neumann ist Head of Communication bei GlobalConnect Germany und zertifizierte KI-Managerin.
mante Speicherlösungen sowie fortschrittliche Analysetools. Hybride Architekturen – bestehend aus lokalen Rechenzentren, Cloud-Diensten und Data Lakes – gewinnen dabei zunehmend an Bedeutung. Entscheidend bleibt die Qualität der Datenbasis: Nur valide und aktuelle Informationen ermöglichen fundierte Erkenntnisse.
Quantencomputing als nächste Evolutionsstufe
Mit der Verfügbarkeit von Quantentechnologien bahnt sich bereits die nächste Welle an. Erste Pilotanwendungen in Deutschland – etwa bei Fraunhofer, DLR oder in Partnerschaften mit IBM – verdeutlichen, welche Leistungsfähigkeit Quantencomputer entfalten können, sei es bei komplexen Simulationen, in der Logistik oder in der Finanzmodellierung.

Diese Entwicklung wird den Datenzuwachs nochmals beschleunigen und die Komplexität weiter erhöhen. Unternehmen sind gut beraten, frühzeitig in skalierbare Infrastrukturen und Sicherheitskonzepte zu investieren, um auf die Anforderungen vorbereitet zu sein.
Infrastruktur als Rückgrat der Datenwirtschaft
Jede Datenstrategie steht und fällt mit einer stabilen technischen Basis. Glasfaserinfrastrukturen bilden das Fundament, um große Datenmengen in Echtzeit zu übertragen und KI-gestützte Prozesse reibungslos umzusetzen. Niedrige Latenz und hohe Bandbreiten sind unerlässlich – gerade, wenn Quantencomputing in den operativen Einsatz kommt.
gilt es, klare Ziele für den Einsatz von Daten zu definieren und skalierbare, sichere Speicher- und Analysearchitekturen zu etablieren. Ein weiterer entscheidender Schritt ist die Integration von Künstlicher Intelligenz, um Prozesse zu automatisieren und Erkenntnisse in Echtzeit zu gewinnen. Gleichzeitig sollten die Potenziale von Quantentechnologien frühzeitig geprüft und in Pilotprojekten erprobt werden.
Nicht zuletzt ist es wichtig, die technische Infrastruktur durch leistungsfähige Glasfaseranbindungen und durchdachte Redundanzkonzepte abzusichern. Der Weg zur Datenreife ist ein umfassender Transformationsprozess –technologisch, organisatorisch und kulturell. Wer ihn heute anstößt, legt den Grundstein für nachhaltigen Erfolg in einer datengetriebenen Wirtschaft. •

Darüber hinaus wird Resilienz zum strategischen Faktor. Unternehmen sollten sicherstellen, dass ihre Systeme auch bei Störungen oder Angriffen funktionsfähig bleiben. Redundante Netze, verteilte Rechenzentren und Notfallpläne gewährleisten Ausfallsicherheit und schützen kritische Geschäftsprozesse.
Fazit:
Datenreife als entscheidender Wettbewerbsvorteil
Das rasant steigende Datenaufkommen ist nicht nur eine Frage moderner Technologie. Es markiert einen Wendepunkt für Geschäftsmodelle und Strukturen. Wer Daten strategisch nutzt und in Wertschöpfung übersetzt, wird langfristig profitieren. Jetzt ist der richtige Zeitpunkt, um die Grundlagen zu schaffen: Unternehmen sollten zunächst ihre bestehenden Datenstrukturen sorgfältig analysieren und bewerten. Darauf aufbauend



Prozessintelligenz trifft KI:
Manuel Haug, Field CTO bei Celonis, gibt Einblicke in die Rolle von Business Intelligence, Process Mining und KI im digitalen Wandel. Er erklärt, wie diese Technologien zusammenwirken, um Unternehmen tiefere Transparenz zu verschaffen und die operative Effizienz durch KI-gestützte Automatisierung zu steigern. /// von Heiner Sieger
Wie definieren Sie die Rolle von Business Intelligence und künstlicher Intelligenz in der digitalen Transformation moderner Unternehmen? Welche Veränderungen beobachten Sie aktuell im Zusammenspiel dieser beiden Bereiche?
Manuel Haug | Business Intelligence (BI) wird primär für Management-Reporting eingesetzt, um Unternehmensziele messbar zu machen, etwa durch KPIs. BI zeigt, was diese Ziele beeinflusst. Der entscheidende Baustein dazu sind die Geschäftsprozesse im Hintergrund. Process Mining dient dazu, diese Prozesse über verschiedene IT-Systeme transparent und analysierbar zu machen, etwa wie die Produktion die Liefertreue beeinflusst oder wie der Einkauf Qualität und Zuverlässigkeit steuert.
Künstliche Intelligenz (KI), insbesondere KI-Agenten, ergänzen das auf operativer Ebene. Sie automatisieren einzelne Aufgaben innerhalb von Geschäftsprozessen, etwa die schnelle Bearbeitung von IT-Tickets durch automatisierte erste Antworten auf Basis von Dokumen-
tationen. KI unterstützt also eher die Ausführung von operativen Prozessschritten und weniger die strategische Steuerung.
Welche Veränderungen beobachten Sie aktuell im Zusammenspiel von Business Intelligence und KI-Agenten? MH | Eine wesentliche Veränderung ist, dass KI-Agenten nun zunehmend live in den Betrieb gehen und Teilaufgaben in Prozessen übernehmen. BI und Process Mining werden genutzt, um diese KI-Agenten zu überwachen und ihren Einfluss zu messen. Bis vor Kurzem gab es in erster LInie Pilotprojekte, mittlerweile werden KI-Agenten vielfach produktiv eingesetzt, womit sich das Zusammenspiel von BI und KI in der Unternehmensrealität konkretisiert.
Woher kommen diese KI-Agenten? Werden sie von Celonis entwickelt oder von Unternehmen selbst? Wie unterstützt Celonis in diesem Prozess?


DER GESPRÄCHSPARTNER
Manuel Haug
Manuel Haug ist Field CTO bei Celonis, einem führenden Anbieter im Bereich Process Mining und Prozessintelligenz. Mit einem Hintergrund in Elektrotechnik der Technischen Universität München ist er seit 2016 bei Celonis und gestaltet maßgeblich die technische Strategie sowie Produktentwicklung, insbesondere rund um die Integration von KI in Geschäftsprozesse.
” KI-Agenten benötigen mehr Management als klassische Automatisierung, da sie nicht deterministisch sind, aber weniger als menschliche Teams Ihre Steuerung umfasst das Tracking von getroffenen Entscheidungen, Fehlerkorrekturen und stetige Optimierungen.
Manuel Haug
MH | Celonis bietet eine Plattform, die in drei Schritten hilft:
1. Transparenz schaffen, wo in den operativen Prozessen Probleme bestehen und wo KI sinnvoll eingesetzt werden kann, zum Beispiel bei verzögerten IT-Tickets oder Kreditblockaden
2. Entwicklung maßgeschneiderter KI-Agenten, basierend auf Prozess-Blueprints, die gute von schlechten Prozessausführungen unterscheiden. Daraus lassen sich Anweisungen für die Agenten ableiten, ebenso wie Leitplanken, die festlegen, welche Entscheidungen der Agent treffen darf und ab wann die Kontrolle an Menschen zurückgegeben wird.
3. Operative Implementierung und Monitoring: Celonis orchestriert den Prozessfluss, indem es entscheidet, wann Aufgaben an Menschen oder an KI-Agenten übergeben werden, und überwacht die Ergebnisqualität der KI-Entscheidungen fortlaufend.
So entsteht eine lebendige Schnittstelle von Process Mining, KI-Entwicklung und Prozessmanagement.
Welche Herausforderungen begegnen Unternehmen typischerweise bei der Einführung von KI-Agenten? Wie lassen sich Barrieren überwinden?
MH | Die technische Hauptbarriere ist die oft fehlende Verfügbarkeit strukturierter Daten. KI-Modelle haben meist nur generisches Wissen, ihnen fehlt der unternehmensspezifische Kontext, zum Beispiel zu Produktionsabläufen oder Lieferkettenkoordination. Celonis unterstützt, indem es Prozessdaten strukturiert und der KI zugänglich macht. Auf menschlicher Ebene ist der Aufbau von Vertrauen die größte Herausforderung: KI muss als ein Partner akzeptiert werden, der einen Teil der Aufgaben übernimmt. Um diese Akzeptanz zu fördern, helfen Workshops und Hackathons, bei denen Technikund Business-Teams gemeinsam KI-Anwendungen entwerfen, ausprobieren und schrittweise einführen. Die Lösungen werden zunächst als Empfehlungen integriert, um Nutzer schrittweise zu überzeugen. Transparenz über Entscheidungen ist dabei zentral, um Vertrauen zu schaffen und Fehlentscheidungen rasch zu erkennen und zu korrigieren.
Gibt es „Low Hanging Fruits“ – bestimmte Bereiche, in denen KI-gestützte Automatisierung besonders schnell Wirkung zeigt?
MH | KI zeigt in nahezu allen Prozessen schnellen Nutzen, da überall unstrukturierte Daten und Bewertungsaufgaben anfallen, bei denen KI Empfehlungslogiken unterstützen kann. Beispiel IT-Support: KI kann eingehende Tickets analysieren, priorisieren und kategorisieren, indem sie Freitextinformationen interpretiert. So wird vermieden, dass Menschen alle Texte lesen müssen.
Das beschleunigt Abläufe und verbessert die Effizienz stark. Im Grunde kann KI in vielen Feldern sehr schnell durchstarten, gerade dort, wo komplexe, datenbasierte Entscheidungen und Informationskonsolidierung gefordert sind.
In Anbetracht der zunehmenden Verbreitung von KI gewinnt die Erklärbarkeit und Transparenz an Bedeutung. Wie geht Celonis mit diesen Aspekten um?
MH | Für Celonis sind Vertrauen, Transparenz und Zuverlässigkeit zentral. Wir definieren klare Leitplanken, die den KI-Agenten Grenzen setzen, welche Aufgaben sie übernehmen dürfen und welche nicht. Moderne Large Language Models (LLMs) erlauben es, das Reasoning hinter den Entscheidungen dazu sichtbar zu machen, was Celonis dokumentiert und den Endnutzern mitliefert. So wird erklärt, warum eine bestimmte Handlungsempfehlung entstanden ist. Zudem überwacht Celonis konsequent die Resultate der KI-Entscheidungen im Unternehmenskontext – nicht nur technisch, sondern auch hinsichtlich positiver oder negativer Einflüsse auf Prozesse. Dies sichert die Governance, etwa auch in Bezug auf ESG-Kriterien. Das Monitoring und Management der KI-Agenten verstehen wir als integraler Bestandteil des Prozessmanagements.
Wie sieht die zukünftige Entwicklung in den nächsten ein bis zwei Jahren hinsichtlich Business Intelligence, Process Mining, Big Data und KI aus? MH | Prozessorchestrierung wird essenziell. Vielfältige Systeme, KI-Agenten und menschliche Teams werden koordiniert. Der hybride Modus bleibt dominant, in dem Menschen und KI zusammenspielen. Zudem werden KI-Modelle günstiger im Betrieb, vor allem da die Trainingskosten den Großteil der Ausgaben verursachen. Durch KI-generierten Code werden Implementierungsprojekte schneller und kostengünstiger, was Unternehmen insgesamt agiler und reaktionsfähiger macht. Celonis will diese Agilität durch den Einsatz von KI und Prozessintelligenz unterstützen und die Zukunft der Firmenprozesse mitgestalten.
Und noch ein Blick in die Zukunft: Was kommt nach hybriden Modellen, und wie sehen Sie die Kostenentwicklung bei KI auch in Bezug auf die Nachhaltigkeit?
MH | Langfristig könnten ganze Geschäftsbereiche autonom von KI-Agenten betrieben werden – etwa in Form einer teilweise automatisierten IT-Ticket-Bearbeitung durch mehrere koordinierte Agents. Ein vollständig autonomes Unternehmen ist in naher Zukunft jedoch unrealistisch. Aktuell sind die größten Kosten die Modelltrainings. Der Betrieb selbst wird günstiger, aber die Umweltauswirkungen sind ein ungelöstes Thema, da das Betreiben von Rechenzentren viel Energie verbraucht. Ob die Kosten zukünftig steigen oder fallen, hängt auch von technologischen und ökologischen Entwicklungen ab. Celonis sieht eine Konsolidierung bei KI-Modellen, die ähnlich leistungsfähig sind, was den Kostendruck wahrscheinlich reduziert. •
MEHR ERFAHREN
Das gesamte Interview mit Manuel Haug lesen Sie auf Digital Business-Online.
Trotz fortschrittlicher Marketing-Technologien und umfangreicher Daten gehen in Unternehmen täglich wertvolle Leads verloren. Der Grund: Viele B2B-Unternehmen verfügen über eine
Vielzahl verschiedener Marketing- und Vertriebstools. Doch häufig fehlt die zentrale Strategie zur systematischen Qualifizierung von Leads entlang der Customer Journey. /// von Sascha Albrink
Modernes Marketing beginnt mit einem Perspektivwechsel
Die Customer Journey beginnt heute oft mit anonymen Website-Besuchern. Damit weitere Informationen über potenzielle Kunden erfasst werden können, sind digitale Kundensignale notwendig. Welche Seiten besucht jemand? Wie lange verweilt er? Lädt er Whitepapers herunter? Jetzt könnte man meinen, dass mit ausreichend Daten und Informationen die Qualifizierung von Kontakten entlang der Customer Journey ein Selbstläufer sei - kurz gesagt: Dem ist nicht so. Häufig wird die Customer Journey der eigenen Zielkundschaft nicht wirklich verstanden – und daran ändert auch die Tatsache nichts, dass es inzwischen für nahezu jede Marketingaufgabe ein passendes Tool gibt.
Der Grund: Jedes Tool löst ein spezifisches Problem, keines orchestriert das Gesamterlebnis von Marketing und Vertrieb. Die zentrale Frage ist also: Wie schaffen es Marketing und Vertrieb an einem Strang zu ziehen und gemeinsam Umsatz zu generieren?

DER AUTOR
Sascha Albrink ist Experte für Revenue Marketing und CEO der Agentur sixclicks GmbH.
Von anonymen Klicks zu relevanter Pipeline Die größten Umsatzverluste entstehen an den Übergängen zwischen Marketing und Vertrieb. Marketing meldet stolz hohe Lead-Zahlen, während der Vertrieb die übergebenen Kontakte oft als „kalt“ empfindet. Ein Anruf ohne vorherige Interaktion führt dann meist ins Leere – der Kontakt ist verwundert und das Gespräch unproduktiv. Die Ursache dafür liegt in unterschiedlichen Bewertungsmaßstäben.
Viele Marketer verstehen Lead Scoring als reine Aktivitätsmessung. Aber ohne eine saubere Datenbasis und systematische Herangehensweise skaliert man mit dem Scoring nur die eigenen Schwächen. Erfolgreiche Lead Scoring-Systeme folgen einem klaren Prinzip: Konzipiere vorwärts – wie bewegt sich der Kunde im besten Fall durch die Journey – und baue rückwärts.
Diese Doppelperspektive berücksichtigt sowohl die Kundensicht als auch die Anforderungen des Vertriebs. Ein praktisches Beispiel verdeutlicht dieses Vorgehen: Nehmen Sie einen einfachen Lead-Gen-Flow, bei dem Nutzer von Schritt 1 bis 8 vorwärts wandern. Wenn Sie diesen Flow jedoch von 8 bis 1 rückwärts bauen – also vom gewünschten Endergebnis zur ersten Berührung – können Sie sichergehen, dass der Flow niemals defekt ist. Sie wissen genau, welche Schritte nötig sind und können entsprechend die Scoring-Punkte vergeben.
Das bedeutet konkret: Zuerst wird die ideale Customer Journey definiert, dann wird das Scoring-System in Zusammenarbeit mit dem Vertrieb auf Leadebene aufgebaut. So entstehen qualifizierte Leads, die sowohl für Mar-
” Moderne KI-gestützte Sales Agents erstellen kontextuelle, automatisierte Icebreaker basierend auf den Aktivitäten eines Leads. Statt generischer Ansprache erhalten Vertriebsmitarbeiter personalisierte Gesprächseinstiege
Die im CRM gespeicherten Daten bilden dabei die Grundlage für die nächsten, erfolgversprechenden Schritte.
Sascha Albrink
keting als auch Sales wertvoll sind. Die Erfolgsmessung funktioniert dabei anhand klarer KPIs: Die MQL-to-DealRate zeigt beispielsweise, ob Marketing die richtigen Leads liefert. Es geht also immer um die Frage, wie viel Pipeline durch die Marketing- und Vertriebsaktivitäten entstanden ist und nicht darum, wie viele Kontakte im CRM liegen. Fehlen definierte Übergabepunkte und Schwellenwerte, werden Leads typischerweise entweder zu früh (unreif) oder zu spät (verpasste Chance) weitergereicht. Erst wenn Marketing und Vertrieb identische Ziele verfolgen und ein gemeinsames Verständnis im Qualifizierungsprozess entwickeln, entstehen aus Leads auch mehr Deals.
KI als Datenverstärker statt Marketing-Hack Statt KI für schnelle, oberflächliche Marketing-Hacks einzusetzen, sollten Unternehmen sie strategisch nutzen, um langfristig die Customer Journey und Lead-Qualifizierung zu optimieren. Während traditionelle Ansätze auf statischen Segmenten basieren, ermöglicht KI eine dynamische Optimierung der Qualifizierung. Intelligente Formularfelder reichern fehlende Unternehmensinformationen mit Hilfe von KI automatisch an – etwa die Mitarbeiterzahl – und schließen so Datenlücken, die für Lead-Scoring und -Routing entscheidend sind.
Moderne KI-gestützte Sales Agents gehen noch weiter: Sie erstellen kontextuelle, automatisierte Icebreaker basierend auf den Aktivitäten eines Leads. Statt generischer Ansprache erhalten Vertriebsmitarbeiter personalisierte Gesprächseinstiege. Die im CRM gespeicherten Daten bilden dabei die Grundlage für die nächsten, erfolgversprechenden Schritte. Entscheidend hierbei: Technologie dient als Enabler systematischer Prozesse, nicht als Selbstzweck.
Das Credo: Strategie statt Hack
Der wichtigste Schritt beginnt mit einem ehrlichen Blick auf die eigene Lead-Qualifizierung: Wo genau verlieren Sie heute Kontakte? An welchen Übergängen hakt es? Erst wenn Marketing und Sales dieselbe Sprache sprechen und gemeinsame Ziele verfolgen, entfaltet jede Technologie ihr volles Potenzial. Lead Scoring – also die systematische Bewertung von Kontakten nach Firmenprofil und Engagement – ist ein wichtiger Teil der eigenen Marketingprozesse. Es schafft Transparenz, verhindert zu frühe oder zu späte Übergaben und steigert nachweislich die Konversionsraten.
Der Weg dorthin erfordert Mut zur Veränderung. Mut, bestehende Silos aufzubrechen. Mut, in Datenqualität statt in das nächste glänzende Tool zu investieren. Mut, Prozesse kontinuierlich zu hinterfragen und anzupassen. Unternehmen, die diesen Weg gehen, steigern ihre Umsätze. •








Sichern Sie sich jetzt Ihren wöchentlichen kostenfreien Redaktionsnewsletter!

Die Österreichische Hagelversicherung führte ein integriertes Managementsystem ein, um ihre internen Abläufe zu optimieren. Es sorgt für mehr Effizienz, Transparenz und Nachvollziehbarkeit – von der Risikobewertung bis zur Schulungsorganisation. Entscheidende Elemente sind das Maßnahmenmanagement und das elektronische Formular- und Workflowmanagement, die Abläufe automatisieren und Fehler minimieren. /// von Dr. Iris Bruns
DIE ÖSTERREICHISCHE HAGELVERSICHERUNG IST EIN SPEZIALANBIETER FÜR DIE AGRARWIRTSCHAFT in Österreich und sechs osteuropäischen Ländern. Sie versichert mehr als 4,5 Millionen Hektar Agrarfläche und bearbeitet jährlich bis zu 130.000 Schadensmeldungen. Um den Versicherten nach Wetterextremen eine noch schnellere Hilfe leisten zu können, ersetzte das Unternehmen seine papierbasierten internen Prozesse durch ein softwaregestütztes Managementsystem und machte sie damit schneller, effizienter und transparenter.

Softwarebasiertes IMS für Prozessabbildung und Dokumentenlenkung Dazu führte das Unternehmen das Integrierte Managementsystem Consense IMS Enterprise als webbasierte Lösung ein. Ursprünglich war nur ein System zur Dokumentation gesucht. „Doch uns ist schnell klargeworden, dass eine ganzheitliche Lösung unseren Arbeitsalltag deutlich effizienter gestalten kann“, sagt Margot Gessl, Leiterin Qualitätsmanagement. Vor der Einführung des digitalen Systems waren im Unternehmen Unterschriftenmappen unterwegs, Excel-Listen wurden zur Maßnahmenüberwachung eingesetzt, Abfragen per E-Mail führten zu Zeitverzögerungen und Informationsverlusten. Die neue Lösung übernimmt nun die Prozessabbildung und Dokumentenlenkung.
Modulare Software, flexible Erweiterung des Systems
Das neue digitale IMS lässt sich nach Bedarf ausbauen. Das Modul Maßnahmenmanagement erfasst bei dem Spezialversicherer nun zentral alle anstehenden Aufgaben aus unterschiedlichen Quellen. Aufgaben werden zugewiesen und dokumentiert. So können neue Projekte, zum Beispiel die Weiterentwicklung des Produktangebots, komplett digital
DIE AUTORIN
entwickelt und bewertet werden. Eine weitere Ergänzung ist eine elektronische Formular- und Workflowmanagement, mit dem sich intelligente dynamische Formulare erstellen lassen. Sie werden auf vorgegebenem Weg durch das Unternehmen geleitet und automatisieren wiederkehrende Prozesse. Die Formulare werden intern programmiert, erklärt Margot Gessl: „Wir waren überrascht, wie einfach das ist. Das spart viel Zeit und macht uns unabhängig.“
Im Arbeitsalltag unterstützen die elektronischen Workflows nun an vielen Stellen, zum Beispiel. bei der Risikobewertung. Vorjahresdaten werden automatisch an die Fachabteilungen geleitet, die eine Neueinstufung vornehmen, die dann zur Kontrolle an die verantwortlichen Stellen geht. Die Daten werden vom System archiviert und für weitere versicherungstechnische Berechnungen exportiert.
Auch die interne Planung, Organisation und Auswertung von Schulungen wird über die softwarebasierte Lösung geregelt. Rückblickend betont Margot Gessl: „Das neue IMS unterstützt uns mit effizienteren internen Prozesse dabei, unseren Kunden die überlebensnotwendige schnelle Hilfe nach Wetterextremen zu bieten.“ •
Dr. Iris Bruns ist Geschäftsführerin der ConSense GmbH. Bild: Consense
Enterprise-Content-Experte Dr. John Bates erklärt, wie wir mit der prognostizierten Datenexplosion umgehen sollten
WÖCHENTLICH ERREICHEN UNS NEUE NACHRICHTEN VON BEEINDRUCKENDEN DURCHBRÜCHEN bei KI-Anwendungen. Während wir digital immer abhängiger werden, soll die Menge der global erstellten Daten bis 2028 auf 394 Zettabyte anwachsen. Deshalb fürchten viele die Datenflut wie einen Tsunami.
Ich bin überzeugt, dass wir diese Datenmenge viel schneller erreichen. Wir werden ständig besser darin, Platz für große Datenmengen zu schaffen. Doch werden wir auch besser, was die Auswertung und Nutzung angeht? Viele Stimmen sagen, die KI würde uns diese Arbeit abnehmen. Da bin ich mir nicht so sicher. Hauptfunktion der KI ist das Generieren neuer Inhalte, nicht die bessere Nutzung der Daten. Schließlich sind ca. 80 bis 90 % der Unternehmensdaten unstrukturiert in Dokumenten gespeichert –viele davon gut geschützt in PDFs. Was die Zusammenarbeit erleichtern sollte, erzeugt stattdessen „dunkle Daten“: wertvolle Informationen, die ungenutzt bleiben.
Was bildet das Herzstück jedes Geschäftsprozesses?
Das Geschäftsdokument
Unternehmen müssen smarte Geschäftsentscheidungen treffen und gleichzeitig die Produktivität exponentiell steigern. Das gelingt nur durch präzise Analyse von Dokumenten und strategische Nutzung der enthaltenen Informationen im Unternehmen. Auch wenn sich KI-Agenten etablieren, brauchen wir den „Human in the Loop“: Auf welcher Grundlage wurde entschieden, wer war beteiligt? Um diese Fragen zu beantworten, braucht es strukturierte, zugängliche Dokumente. Die KI wird im Management unserer Daten eine große Rolle spielen, doch sollte sie nicht allein die Fäden ziehen. Die wachsende Datenflut, unzugängliche Informationen und die Wahrung menschlicher Entscheidungshoheit bewältigen wir nur über ein intelligentes Dokumentenmanagement.
Smarte Systeme lösen eine Kettenreaktion aus Konkret sehen wir jetzt End-to-End-Lösungen, in die KI und Automatisierung vollständig integriert sind. Smarte Systeme erfassen neue Inhalte nicht nur als Vertrag oder Rechnung, sondern erkennen und extrahieren sofort alle relevanten Informationen. So entstehen keine Datensilos,
sondern ein reibungsloser Fluss durch das Geflecht der Metadaten. Das System stößt Workflows an, liefert passende Informationen und bindet die richtigen Prozesse an – alles automatisch.
Wenn alles an Ihrem System smart ist, wird auch alles smart, was damit in Kontakt kommt. Mit der Datenmenge wächst unsere Fähigkeit, diese produktiv zu nutzen. Smart Content steht für Dokumente, die Orientierung bieten nach dem Motto: „Ich bin ein HR-Dokument – du musst Folgendes mit mir machen.“ Unternehmen profitieren von dynamischen Wissensdatenbanken und einem intelligenten Software-Stack, der weit über statische PDFs hinausgeht. Wir müssen dafür sorgen, dass unsere Unternehmen die Daten kontrollieren und nicht umgekehrt – dann wedelt der Schwanz nicht mehr mit dem Hund. So reiten wir die Welle der Datenflut, statt von ihr überrollt zu werden. Dank Smart Content verwandeln sich Datenmengen in Zettabyte-Höhe in wertvollen Treibstoff für Unternehmen.

Kontakt
Linh Hoang SER Group linh.hoang@sergroup.com

Dr. John Bates Enterprise-Content-Experte


Christian Mehrtens*, Managing Director von Sage Central Europe, erklärt die zentralen Hürden beim Kapitalzugang für europäische Scale-ups – von Marktfragmentierung bis Regulierungsdschungel – und zeigt, wie Technologieanbieter Unternehmen konkret unterstützen können. /// von Heiner Sieger
Herr Mehrtens, 68 Prozent der europäischen Scale-ups sehen laut einer aktuellen Studie Ihres Unternehmens Schwierigkeiten beim Zugang zu Kapital. Woran liegt das konkret, und wie unterscheidet sich die Kapitalbeschaffung in Europa von der in den USA?
Christian Mehrtens | Aus unserer Sicht als Softwareanbieter beobachte ich, dass Europa ein sehr fragmentierter Markt ist. Es gibt viele unterschiedliche Regeln, die Unternehmen daran hindern, international und dynamisch zu wachsen. Viele Gründer wollen zwar in ihrem Heimatland verwurzelt sein, aber auch in internationalen Märkten aktiv werden. Diese Diskrepanz erschwert den Zugang zu Kapital und Märkten. Große Venture-Capital-Geber konzentrieren sich vor allem auf die USA und China. Für Start-ups und Scale-ups in Deutschland ist es oft zu komplex, Zugang zu diesen Finanzierungen zu bekommen. Die USA punkten mit einem agileren, weniger reglementierten Markt, wo Gründer schneller gründen, skalieren und auch wieder veräußern können. Europa ist da noch weniger agil, was die Kapitalflüsse unter anderem behindert.
Warum hat Sage diese Studie zum Kapitalzugang europäischer Scale-ups initiiert, und welche Bedeutung hat das für Sie?
CM | Unser Fokus liegt auf dem Mittelstand, besonders auf kleinen und mittelgroßen Unternehmen. Unsere Produkte –von ERP und HR bis zu Finanz- und Lohnlösungen – begleiten viele Start-ups und Scale-ups in ihrem Wachstum. Die Studie zeigt vier Kernpunkte: Erstens die Bedeutung digitaler Technologien für alle Unternehmen – egal ob technisch oder klassisch. Zweitens den starken Wunsch, grenzüberschreitend, vor allem in der EU, zu wachsen. Drittens den Zugang zu Finanzmitteln, der vielfältig, aber oft schwer erreichbar ist. Und viertens die Herausforderung, passende Talente mit Affinität zu neuen Technologien wie KI zu finden. Diese Erkenntnisse helfen uns, unsere Lösungen besser auf die Bedürfnisse dieser wachsenden Firmen auszurichten.
Warum ist es für Sage wichtig, dass sich Start-ups und Scale-ups besser finanzieren und entwickeln können?
CM | Diese Unternehmen sind unsere Partner und Kunden. Wenn diese wirtschaftlich erfolgreich sind, wächst auch unser Geschäft mit. Wir wollen sie deshalb fördern,
wo wir können, und ihnen moderne Software bieten, die ihr Wachstum erleichtert. Die Förderung von Scale-ups ist für uns also strategisch wichtig – sowohl als Wachstumstreiber als auch als Partner- und Kundenbasis.
Der Report besagt, dass nur fünf Prozent des globalen Venture Capitals nach Europa fließen. Was sind die Gründe für dieses Ungleichgewicht?
CM | Andere Studien sprechen sogar von bis zu zehn Prozent. Hauptgründe sind die starke Fragmentierung des europäischen Marktes und umfangreiche Regulierungen. Anders als in den USA, wo der Markt sehr dereguliert und risikofreudig ist, sorgen in Europa komplexe Vorschriften und uneinheitliche Regeln für Hemmnisse, die Investoren abschrecken und Risikokapital begrenzen.
Wie lässt sich diese Kapital-Lücke aus Investorensicht oder politisch beheben?
CM | Es gibt verschiedene Initiativen, etwa bei der OECD, die darauf abzielen, eine europäische Finanzierungszentrale zu schaffen, um den Zugang zu Kapital zu vereinfachen und transparent zu machen. Zudem braucht es weniger bürokratische Hürden sowie gleichzeitig Regulierungsvereinfachungen. Unternehmer investieren derzeit zu viel Zeit in Zulassungs- und Exportprozesse, was das Wachstum hemmt. Eine zentrale Informationsstelle und klarere, niedrigere regulatorische Anforderungen sind daher entscheidende Schritte.
Die Studie spricht von einem „Funding Gap“: Scale-ups sind zu groß für Seed-Finanzierungen, aber zu jung für institutionelles Kapital. Wie kann dieses Problem gelöst werden?
CM | Das ist komplex. Wichtige Ansatzpunkte sind kontinuierliche Unterstützungsprogramme und mehr Möglichkeiten für Eigenkapital, auch auf regionaler Ebene. Unsere Studie zeigt viele Aspekte der Problematik auf, kann aber natürlich keine Patentlösung für alles bieten. Ein wichtiger erster Schritt ist es, bestehende Förderangebote transparenter und stärker bekannt zu machen.
Gibt es erfolgreiche europäische Modelle zur Förderung, und wie sieht es mit der Nutzung öffentlichen Kapitals als Hebel aus?
DER GESPRÄCHSPARTNER
Christian Mehrtens ist seit April 2024 Managing Director der Sage Landesgesellschaften Central Europe (Deutschland und Österreich). Mit mehr als 20 Jahren Führungserfahrung bei Technologie-Unternehnmen wie Oracle, Microsoft, HP und SAP verantwortet er insbesondere die Mittelstandsstrategie bei Sage und treibt die digitale Unterstützung von Scale-ups voran.

” Es braucht weniger bürokratische Hürden sowie gleichzeitig Regulierungsvereinfachungen. Unternehmer investieren derzeit zu viel Zeit in Zulassungs- und Exportprozesse, was das Wachstum hemmt. Eine zentrale Informationsstelle und klarere, niedrigere regulatorische Anforderungen sind daher entscheidende Schritte.
CM | In Europa gibt es bereits Scale-ups mit beeindruckendem Wachstum und gute Modelle. Viele Scale-ups wollen außerhalb ihres Heimatmarktes wachsen, schaffen es aber oft nicht wegen ungleicher Marktregeln. Die Studie zeigt, dass Scale-ups durchschnittlich nur 52 Prozent ihres Umsatzes außerhalb ihres Heimatmarktes erzielen. Verbesserte Wettbewerbsregeln und gezielte Förderungen könnten hier den Unterschied machen.
Welche konkreten Maßnahmen können Scale-ups noch mehr Kapitalzugang verschaffen?
CM | Mit unserer Software können wir dieses Thema für Start-ups und Scale-ups positiv beeinflussen: Die Option einer E-Rechnung in unseren Produkten etwa beschleunigt Zahlungen erheblich. Unsere Kunden können Rechnungen elektronisch senden und empfangen, was Liquidität sichert. Die KI-Funktionen von Sage erkennen zudem ungewöhnliche Zahlungen frühzeitig und helfen Unternehmen, finanzielle Risiken zu minimieren.
Wie unterstützt Sage deutsche Start-ups und Scale-ups konkret beim Zugang zu Kapital und internationalen Chancen?
CM | Wir arbeiten mit Programmen wie dem „Sage Impact Entrepreneurship Program“, das weltweit 165 Gründer finanziell fördert und berät. Unsere Mitarbeiter engagieren sich zudem in Initiativen wie „JOBLINGE“, die Jugendliche beim Berufseinstieg unterstützen. Technologisch bieten wir umfangreiche Cloudlösungen für die Personal- und Finanzverwaltung. In Deutschland arbeiten wir mit mehr als 550 Partnern zusammen, die Start-ups und Scale-ups regional begleiten.
Wie gestaltet sich die Zusammenarbeit zwischen Sage und Start-ups sowie Scale-ups?
Die Sage-Studie „Scaling for Growth – Unlocking the Potential of Europe’s Startups and Scaleups“ basiert auf einer groß angelegten Befragung von über 7.500 Führungskräften aus 15 EU-Ländern sowie vergleichenden Daten aus Großbritannien, den USA und Kanada. Sie beleuchtet Chancen und Hürden wachstumsstarker Unternehmen, die Innovationen vorantreiben, international expandieren und Arbeitsplätze schaffen. Zentrale Erkenntnisse zeigen, dass Scale-ups essenziell für die europäische Wirtschaft sind, jedoch durch fragmentierte Regulierung, begrenzten Zugang zu Kapital, schwierige grenzüberschreitende Handelsbedingungen und Fachkräftemangel ausgebremst werden.
CM | Wir arbeiten branchenoffen und prüfen, wo unsere Softwarelösungen Sinn stiften. Ein Beispiel ist das Düsseldorfer Scale-up agriBIOME, das wir technologisch unterstützen. Zudem fördern wir Co-Development, Hackathons und Design-Thinking-Workshops für Innovation und Markteintritt.
Wie engagiert sich Sage politisch und im Netzwerk für besseren Kapitalzugang?
CM | In unserem Heimatmarkt Großbritannien engagierten wir uns stark in Public Affairs und vertreten die Interessen kleiner und mittelständischer Unternehmen um Austausch mit politischen Entscheidungsträgern. In Brüssel engagieren wir uns aktiv in EU-Förderthemen. In Deutschland vertreten wir unsere Themen bei Bitkom und arbeiten in Arbeitskreisen, um das Umfeld für Scale-ups zu verbessern.
Welchen Wunsch haben Sie für die Zusammenarbeit von Sage mit Scale-ups?
CM | Ich möchte die gemeinsame Forschung und Entwicklung mit Scale-ups weiter intensivieren und ausbauen. Dazu braucht es dedizierte Teams nahe der Produktentwicklung, die Co-Development gezielt fördern. Wir machen das bereits, sehen aber weiteres Potenzial. •
Yexio-Rechenzentrum von Hochtief: Startschuss für bundesweites Edge-Netzwerk
IN DEN KOMMENDEN JAHREN wird ein Konsortium aus dem Bauunternehmen Hochtief und der Investmentgesellschaft Palladio Partners in ein Netzwerk sogenannter Yexio-Rechenzentren in Deutschland investieren. Geplant sind bundesweites 15 dezentralen Edge-Data-Center. Ein erster Standort im nordrhein-westfälischen Heiligenhaus ist im September in Betrieb gegangen. Hauptnutzer des neuen Rechenzentrums vom Typ Yexio wird das Unternehmen Yorizon. Das Joint Venture von Hochtief PPP Solutions und der Thomas-Krenn.AG wird nachhaltige Cloud-Computing- und Green-IT-Services anbieten. Die Zielgruppen sollen von Software- und Plattformanbietern über mittelständische und große Unternehmen bis hin zur öffentlichen Hand reichen. •
Wachsendes Misstrauen:
Unternehmen wechseln zu IT-Sicherheit „Made in EU“
IN DEUTSCHEN UNTERNEHMEN schwindet das Vertrauen in außereuropäische Anbieter von Lösungen für die ITSicherheit. Das geht aus der Studie „Digitale Souveränität auf dem Prüfstand : Was deutsche Unternehmen wirklich von IT-Security ‚Made in EU‘ halten“ von Eset hervor. Vor dem Hintergrund geopolitischer Spannungen, wachsender Cyberbedrohungen und schärferer gesetzlicher Anforderungen gewinnt die Herkunft von IT-Sicherheitslösungen demnach massiv an Bedeutung.
Laut der Studie ziehen 44 Prozent der befragten Unternehmen in Deutschland einen Wechsel ihres IT-Sicherheitsanbieters in Betracht. Drei von vier wechselwilligen Unternehmen (75 Prozent) bevorzugen dabei Anbieter aus der Europäischen Union – während US-Anbieter mit lediglich 10 Prozent deutlich an Vertrauen verloren haben.

Zwei Drittel aller befragten Unternehmen halten die Herkunft ihres IT-Sicherheitsanbieters für „wichtig“ oder „sehr wichtig“. Besonders Unternehmen und Branchen mit hohem Schutzbedarf setzen verstärkt auf regionale Anbieter. •
Cybersicherheit: Großunternehmen besser aufgestellt als KMU
MEHR BUDGET, HÖHERE ATTRAKTIVITÄT, BESSERE RESSOURCEN: Große Unternehmen in der DACH-Region sind hinsichtlich der Cybersicherheit deutlich besser aufgestellt. Das zumindest ist die vorherrschende Wahrnehmung in Chefetagen und eines der zentralen Ergebnisse einer Management-Studie von Sophos. Die Mehrheit der befragten C-Level-Führungskräfte geht davon aus, dass große Unternehmen mehr Budget, besseres Personal und höhere Attraktivität für IT-Fachkräfte mitbringen.
EU AI Act: Deutschland steht noch in der Startbox
MIT DER OFFIZIELLEN VERÖFFENTLICHUNG DES REFERENTENENTWURFS zur nationalen Umsetzung des EU AI Act startet die entscheidende Phase für die Regulierung künstlicher Intelligenz in Deutschland. Im Rahmen der Verbändebeteiligung warnt der eco – Verband der Internetwirtschaft e. V. vor mangelnder Abstimmung zwischen den Behörden und fordert eine praxisnahe Umsetzung. Während andere Länder Tempo machen und Lösungen umsetzen, verliere Deutschland Zeit und verharre in der Beobachterrolle. „KI ist das Betriebssystem der Zukunft – und Deutschland darf es sich nicht leisten, hier nur Nutzer zu sein. Wir müssen Gestalter werden. Dafür brauchen Unternehmen jetzt Rechtssicherheit, Investitionsanreize und eine leistungsfähige digitale Infrastruktur“, erklärt Oliver Süme, Vorstandsvorsitzender des eco. Der Verband sieht deshalb fünf zentrale Hebel für den KI-Durchbruch in Deutschland: klare Regeln bei Umsetzung des EU AI Act, starke Netze, gezielte Förderung, eine handlungsfähige Aufsicht und eine Verwaltung, die selbst zum Innovationstreiber wird. •
Kleinere Unternehmen werden dagegen oft als weniger gut vorbereitet wahrgenommen. Auch wenn die meisten Befragten große Unternehmen als sicherer einstufen, zeigen sich interessante Unterschiede zwischen den Ländern. In Deutschland gaben 69 Prozent der Führungskräfte an, dass große Unternehmen personell besser aufgestellt seien – in der Schweiz lag dieser Wert sogar bei 78,9 Prozent. Österreich liegt mit 58 Prozent deutlich darunter. Auch bei der Einschätzung, dass große Unternehmen für Fachkräfte attraktiver seien, liegt die Schweiz mit 68 Prozent vorn, gefolgt von Deutschland mit 66,5 Prozent und Österreich mit 64 Prozent. •
Sichere Lieferketten
So lässt sich die Supply Chain in Zeiten der Digitalisierung Software-seitig schützen
Verschärfte Bedrohungslage durch KI
In den Unternehmen sind jetzt vor allem die IT-Verantwortlichen gefragt
Moderne Dateninfrastrukturen
So wertet die britische Royal Air Force verteidigungsrelevante Informationen aus
36


40
Priviliged Access Management S. 42
PAM als elementarer Baustein für IT-Sicherheit und Schlüssel zur Stärkung der Cyberabwehr
Security by Design
Der Versuch, Sicherheitsfunktionen nachzurüsten, bleibt ein Flickwerk
44
„Unternehmen
Während Digitalisierung und globale Vernetzung zahlreiche Vorteile bieten, entstehen gleichzeitig neue Herausforderungen im Bereich der Sicherheit.
Marco Eggerling von Check Point Software erläutert im Interview, wie sich Lieferketten
Software-seitig schützen lassen. /// von Konstantin Pfliegl
IN DER HEUTIGEN GLOBALISIERTEN UND DIGITALISIERTEN WIRTSCHAFTSWELT SIND LIEFERKETTEN komplex und vielfach voneinander abhängig. Unternehmensstrategien, die sich auf Just-in-Time-Lieferungen stützen, haben zu effizienteren Geschäftsprozessen geführt, doch sie machen die Beteiligten auch zunehmend anfällig für Unterbrechungen und Cyberangriffe. Die Sicherung von Lieferketten ist somit nicht nur eine logistische, sondern auch eine digitale Herausforderung geworden. Software-seitiger Schutz spielt hierbei eine essentielle Rolle, um die Integrität und Stabilität der Lieferketten sicherzustellen.
Doch wie sehen die konkreten Gefahren für Lieferketten aus? Welche Methoden und Technologien helfen bei deren Absicherung? Und wie bereitet man sich auf Sicherheitsvorfälle vor? DIGITAL BUSINESS spricht darüber mit Marco Eggerling, CISO Global bei Check Point Software.
Herr Eggerling, wenn wir uns Lieferketten aktuell ansehen – wie gefährdet sind sie Software-seitig im Jahr 2025?
Marco Eggerling | Lieferketten sind heute stärker gefährdet denn je, denn Software-Komponenten werden immer komplexer und voneinander abhängig. Schwachstellen bei Dritten – und Vierten – wirken sich oft unmittelbar auf die gesamte Kette aus und bleiben lange unentdeckt.
Welchen Einfluss hat die zunehmende Digitalisierung auf die Angriffsflächen von Lieferketten?
ME | Jede neue digitale Schnittstelle erweitert die Angriffsfläche und erhöht die Komplexität der Sicherheitsarchitektur. Dadurch entstehen blinde Flecken, die Angreifer gezielt ausnutzen und die für Verteidiger immer häufiger zur Bürde werden.


Marco Eggerling
ist CISO Global bei Check Point Software. Bild: Check Point Software

” Künstliche Intelligenz wird zunehmend zum Frühwarnsystem für Angriffe in tief verschachtelten Lieferstrukturen. KI ist jedoch ohne einen klar definierten Zustand davor nicht immer die Antwort.
Und diese blinden Flecken muss man schützen. Wie haben sich die Methoden zur Sicherung von Lieferketten in den letzten Jahren entwickelt?
ME | Früher lag der Fokus auf punktueller Prüfung und Zertifizierung, heute geht der Trend zu kontinuierlichem Risikomanagement. Automatisierungs-Tools, Bedrohungsanalysen und Echtzeitdaten, beispielsweise Threat intelligence, sind dabei zentrale Elemente.
Welche konkreten Maßnahmen sollten Unternehmen im Jahr 2025 also ergreifen, um ihre Lieferketten gegen Cyberangriffe zu schützen?
ME | Unternehmen müssen Sicherheitsanforderungen vertraglich verankern und regelmäßig überprüfen lassen. Das ist auch die Grundlage des Cyber Resilience Act in der EU. Zusätzlich braucht es Echtzeitüberwachung, klare Exit-Strategien und Notfallpläne für kritische Anbieter. Darüber hinaus müssen Krisenpläne gelebt und verprobt werden.
Und welche Technologien oder Tools sind hierfür unverzichtbar?
ME | Third-Party Risk Management Plattformen, ein sehr gut gepflegtes ISMS und automatisierte Scanning-Tools zur Schwachstellenanalyse sollten den aktuellen Standard darstellen – oft ist das jedoch noch nicht der Fall. Ergänzt wird dies durch KI-gestützte Bedrohungserkennung und Supply-Chain-Mapping.
Sie sprechen künstliche Intelligenz an. Welche Rolle spielt sie bei der IT-Sicherheit von Lieferketten?
ME | Künstliche Intelligenz hilft Muster in großen Datenmengen frühzeitig zu erkennen und verdächtige Aktivitäten automatisiert zu melden. Sie wird zunehmend zum Frühwarnsystem für Angriffe in tief verschachtelten Lieferstrukturen.
Künstliche Intelligenz ist jedoch ohne einen klar definierten Zustand davor nicht immer die Antwort.
Sie haben eingangs auch Schwachstellen bei Dritten angesprochen. Wie wichtig ist die Zusammenarbeit zwischen verschiedenen Akteuren in der Lieferkette für die IT-Sicherheit – und wie kann diese verbessert werden?
ME | Ohne Zusammenarbeit ist effektive Sicherheit nicht möglich, da Angriffe häufig über schwächere Glieder der Kette erfolgen. Gemeinsame Standards, Transparenzvereinbarungen und abgestimmte Incident Response-Prozesse sind der Schlüssel. Die Unternehmenskultur muss dies außerdem aktiv unterstützen.
Wie können Unternehmen eigentlich die Sicherheit ihrer Lieferketten validieren und überwachen?
ME | Durch kontinuierliches Monitoring, regelmäßige Audits und automatisierte Prüfprozesse lassen sich Risiken frühzeitig erkennen. Wichtig ist, dass diese Maßnahmen nicht einmalig, sondern dauerhaft etabliert sind und, dass das Thema nicht als Kostenposten wahrgenommen wird.
Eine hundertprozentige Sicherheit gibt es ja nicht. Wie bereitet man sich auf Sicherheitsvorfälle vor und wie reagiert man effektiv?
ME | Ein durchgetesteter Notfallplan, klare Kommunikationswege, Vertrauen in die Fähigkeiten der Teams und regelmäßig Schulungen sind essenziell. Effektive Reaktion beginnt lange vor dem Vorfall durch Planung, Simulation und klare Verantwortlichkeiten. Wichtig dabei ist, auf gar keinen Fall Schuldzuweisungen zuzulassen, da diese niemandem helfen zu wachsen.
Können Sie ein Beispiel für erfolgreiche Sicherheitsstrategien in der Lieferkettensicherheit geben?
ME | Führende Unternehmen setzen auf eine Kombination aus Lieferantenklassifizierung nach Risiko, verpflichtenden Software bill of materials (SBOMs) und kontinuierlicher Überprüfung. Besonders erfolgreich sind Modelle, bei denen Sicherheit als gemeinsame Verantwortung mit Partnern gelebt wird. •
Künstliche Intelligenz verändert nicht nur Geschäftsprozesse, sondern auch die Bedrohungslage in der IT-Sicherheit. Die repräsentative Studie „Cybersicherheit in Zahlen zeigt, wie Unternehmen auf die neuen Risiken reagieren und warum Führungskräfte und IT-Verantwortliche jetzt gefordert sind. /// von Stefan Karpenstein
DER EINSATZ VON KÜNSTLICHER INTELLIGENZ BRINGT
ENORME FORTSCHRITTE in Effizienz und Qualität – doch diese Entwicklungen machen sich auch Cyberkriminelle zunutze. So werden Phishing-Mails heute nicht nur schneller, sondern auch fehlerfrei und täuschend echt erstellt, sodass sie für Mitarbeitende kaum noch als Fälschung zu erkennen sind. Wie ernst die Lage ist, zeigt die aktuelle fünfte Ausgabe der Studie „Cybersicherheit in Zahlen“, die das IT-Sicherheitsunternehmen G DATA CyberDefense gemeinsam mit Statista und brand eins

DER AUTOR
Stefan Karpenstein G DATA CyberDefense
durchgeführt hat. Zwei von drei Befragten erwarten, dass sich die Bedrohungslage durch KI verschärfen wird. Insbesondere durch besser getarnte Phishing-Mails und automatisierte Schwachstellensuche in Systemen und Anwendungen.
Sicherheitsbewusstsein? Ausbaufähig
Die Auswirkungen des verstärkten KI-Einsatzes durch Cyberkriminelle belegt folgendes Umfrageergebnis: Nur 16,5 Prozent der Befragten glauben, betrügerische E-Mails sicher erkennen zu können. Mehr als 83 Prozent hingegen sind sich unsicher, ob sie die Echtheit von Nachrichten einschätzen können.
Dieses Ergebnis zeigt, wie wichtig das Sicherheitsbewusstsein in der Belegschaft ist, um digitale Bedrohungen zu erkennen – und zwar auf allen Hierarchieebenen. Schließlich zielen Phishing-Angriffe längst nicht mehr nur auf Führungskräfte ab. Auch Mitarbeitende in Buchhaltung, Logistik oder HR sind im Visier. Zwar werden die
Angriffe raffinierter, doch gewisse Warnsignale lassen sich weiterhin erkennen, sofern das Bewusstsein dafür geschärft ist.
Schwachstelle Unternehmenskultur:
Reifegrad oft zu niedrig Neben individuellem Verhalten spielt auch der Reifegrad der IT-Sicherheit eine zentrale Rolle. Doch hier herrscht Nachholbedarf: Nur ein Viertel der Befragten stuft diesen im eigenen Unternehmen als „sehr hoch“ ein. Der Grund: umfangreiche Schutzmaßnahmen, ein starkes Sicherheitsbewusstsein und regelmäßige Audits. Rund 46 Fast die Hälfte sehen zwar eine solide Basis, aber auch Optimierungspotenzial. Und fast ein Drittel berichtet von gravierenden Lücken, fehlenden Prozessen oder Ressourcen. Besonders problematisch: Unternehmen mit niedrigem Reifegrad gefährden nicht nur sich selbst, sondern als Teil von Lieferketten auch Partnerunternehmen. Cyberkriminelle suchen gezielt den Weg des geringsten Widerstands – und der führt über das schwächste Glied in der (Liefer-)Kette.



Verantwortung beginnt an der Spitze Ein entscheidender Faktor für fehlende IT-Sicherheit liegt im mangelnden persönlichen Bewusstsein für die Verantwortung. Ein Drittel der Befragten fühlt sich hier wenig oder gar nicht angesprochen. Es gibt jedoch deutliche Unterschiede zwischen den Hierarchieebenen: Während 77 Prozent der Geschäftsleitungen eine hohe Verantwortung empfinden, sind es bei Mitarbeitenden ohne Führungsposition nur 23 Prozent. Dabei ist die gesamte Belegschaft anfällig für Angriffe. Besonders dann, wenn grundlegende Schutzmaßnahmen wie sichere Passwörter nicht umgesetzt werden. Führungskräfte müssen hier als Vorbilder agieren und das Thema regelmäßig kommunizieren, um einen Kulturwandel anzustoßen.
Cybervorfälle – verzögerte Reaktion lässt Schäden steigen Cyberattacken gehören zum Alltag eines jeden Unternehmens und so sprechen die Zahlen eine klare Sprache: Über 30 Prozent der Befragten haben im vergangenen Jahr mindestens einen Cyberangriff auf ihre Firma erlebt, jeder Zehnte sogar mehrere. Die Auswirkungen reichen von Betriebsausfällen (32 %) über Datenverlust (30 %) bis hin zu finanziellem Schaden (20 %) oder sogar DSGVO-Strafen (10 %). Das zentrale Problem dabei: Viele Unternehmen reagieren zu langsam. Nur 28 Prozent leiten innerhalb von Minuten Gegenmaßnahmen ein. Ein Viertel braucht dafür einen ganzen Tag oder länger – was die Schadenshöhe massiv beeinflusst.
Dabei gibt es effektive Möglichkeiten zur Früherkennung, etwa durch die kontinuierliche 24/7-Überwachung der IT-Systeme. Doch laut Studie kontrollieren 17 Prozent der Unternehmen ihre Systeme nur zeitweise. Positiv ist: 39 Prozent verfügen über ausreichende interne Kapazitäten, andere setzen erfolgreich auf externe Dienstleister, um deren Expertise zu nutzen und dem Fachkräftemangel zu begegnen.
IN ZAHLEN ZUM DOWNLOAD
„Cybersicherheit in Zahlen“ erscheint bereits zum fünften Mal und zeichnet sich durch eine hohe Informationsdichte und besondere methodische Tiefe aus: Mehr als 5.000 Arbeitnehmerinnen und Arbeitnehmer in Deutschland wurden im Rahmen einer repräsentativen Online-Studie zur Cybersicherheit im beruflichen und privaten Kontext befragt. Die Fachleute von Statista haben die Befragung eng begleitet und können dank einer Stichprobengröße, die weit über dem branchenüblichen Standard liegt, belastbare und valide Marktforschungsergebnisse im Magazin „Cybersicherheit in Zahlen“ präsentieren. Darüber hinaus haben die Marktforscher Zahlen, Daten und Fakten aus mehr als 300 Statistiken zu einem umfassenden Nachschlagewerk der IT-Sicherheit zusammengeführt. Interessierte können „Cybersicherheit in Zahlen“ herunterladen.
Zusammenarbeit mit IT-Dienstleistern wird zum Erfolgsfaktor Angesichts der Bedrohungslage führt für viele Firmen kein Weg an einer strategischen Partnerschaft mit IT-Sicherheitsanbietern vorbei. Entscheidendes Auswahlkriterium: der Standort des Dienstleisters. Drei Viertel der Befragten bevorzugen einen Anbieter mit Sitz in Deutschland – ein deutlicher Anstieg gegenüber dem Vorjahr (52 %). 23 Prozent favorisieren einen europäischen Anbieter. Dahinter steht auch der Wunsch nach mehr digitaler Souveränität – ein Thema, das insbesondere in Deutschland und der EU an Bedeutung gewinnt. Bei der Anbieterwahl stehen vor allem Datenschutz, Zertifizierungen und Compliance im Fokus, gefolgt von persönlichem Ansprechpartner und Erreichbarkeit. Der Einsatz von KI im IT-Security-Umfeld spielt bislang noch eine untergeordnete Rolle.
Jetzt handeln – nicht warten
Die Herausforderungen im Bereich IT-Sicherheit werden nicht kleiner: Neue regulatorische Anforderungen wie NIS2 oder der Cyber Resilience Act, der Einsatz von KI sowie der Fachkräftemangel erhöhen den Druck auf Entscheider. Wer sich professionelle Unterstützung holt, profitiert von Know-how, schnelleren Reaktionszeiten und einem höheren Schutzlevel. Die Zeit zu handeln ist jetzt. •
Weltweite Spannungen lenken den Blick auf die nationale Sicherheit. Eine wichtige Rolle spielen dabei moderne Dateninfrastrukturen, die es ermöglichen, verteidigungsrelevante Informationen schnell auszuwerten. So konnte die britische Royal Air Force dank einer Kooperation mit NetApp ihre Entscheidungsprozesse beschleunigen und ihre Einsatzfähigkeit verbessern. /// von Sebastian Mayr
DERT JAHREN DEN BRITISCHEN LUFTRAUM und arbeitet mit strategischen Partnern im Verteidigungsverbund zusammen. Einer ihrer größten Luftwaffenstützpunkte ist Lossiemouth im Nordosten Schottlands. Hier ist auch die maritime Aufklärungs-Flotte stationiert, die die britischen Gewässer überwacht. Mit ihren Boeing P-8-Flugzeugen kann sie potenzielle Bedrohungen sowohl über als auch unter der Meeresoberfläche erkennen und diese gemeinsam mit den NATO-Partnern über große Distanzen verfolgen. Dafür muss die Flotte relevante, präzise und sichere Daten bereitstellen.
Die Herausforderungen an das Datenmanagement sind enorm: Täglich starten mehrere Aufklärungsflüge, die bis zu zehn Stunden dauern. Mit ihren zahlreichen Sensoren sammeln die P-8-Maschinen massenhaft unstrukturierte Informationen. Diese riesigen Datenmengen müssen gespeichert, übertragen, aufbereitet und analysiert werden – unter Einhaltung höchster Sicherheits- und Compliance-Anforderungen.
Schneller von der Daten-Erfassung zur Analyse
In der Vergangenheit war insbesondere die Vorbereitung der Datenanalyse eine langwierige Angelegenheit. Die Informationen wurden größtenteils von Hand mit Metadaten kategorisiert, was Tage bis Wochen dauern konnte. Heute setzt die RAF dagegen eine intelligente Dateninfrastruktur ein, die das Tagging automatisiert durchführt. Innerhalb von wenigen Stunden oder gar Minuten stehen die Daten jetzt für die tiefere Analyse bereit. So konnte die RAF ihre Reaktionszeit erheblich beschleunigen und profitiert von


DER AUTOR
Sebastian Mayr ist Senior
einer verlässlichen Datenqualität. Aufgebaut ist die neue Lösung auf NetApp StorageGRID, einem softwarebasierten Objektspeicher mit S3-Proktokoll. Die RAF nutzt lokalen Speicher an Bord der P-8, sekundären Speicher zur Ausfallsicherung und lokalen Speicher für Endnutzer am Boden. Auch die Marine speist Daten in das System ein. Diese können dann korreliert werden, sodass ein umfassenderes Lagebild entsteht.
StorageGRID dient dabei als zentraler Datenhub, der Informationen sicher mit allen relevanten Stakeholdern über MOD-Netzwerke (Ministry of Defence) teilt. Zugriffsrechte werden granular vergeben. Für maximalen Schutz sorgen außerdem Hardware- und Software-Verschlüsselung sowohl bei der Datenspeicherung als auch der -übertragung.
Mehr Effizienz und Effektivität für militärische Einsätze
Mit StorageGRID verfügt die RAF heute über eine hocheffiziente, sichere Dateninfrastruktur, die dank ihrer Flexibilität und Skalierbarkeit auch zunehmenden Anforderungen gewachsen ist. Künftig will die britische Luftwaffe zum Beispiel mobile Szenarien umsetzen. Indem das intelligente Datenmanagement wichtige Erkenntnisse schnell als Entscheidungsgrundlage bereitstellt, verbessert es die Effizienz und Effektivität der militärischen Einsätze – und erhöht die Sicherheit in Europa. •
” Die Herausforderungen an das Datenmanagement sind enorm.
Sebastian Mayr

Account Manager Bundeswehr/BWI
bei NetApp.
KÜNSTLICHE INTELLIGENZ, MASCHINELLES LERNEN, BIG DATA UND HIGH PERFORMANCE COMPUTING (HPC) VERÄNDERN DIE IT-LANDSCHAFT GRUNDLEGEND. Rechenprozesse, die einst zentralisiert und linear abliefen, sind heute dynamisch, datenintensiv und verteilter denn je. Sie verbrauchen exponentiell mehr Rechenleistung. Die Folge: Klassische Rechenzentren stoßen zunehmend an physikalische, technische und energetische Grenzen – insbesondere wenn es um Echtzeitverarbeitung, hohe Leistungsdichte oder kurzfristige Skalierung geht. Gefragt sind Lösungen, die leistungsfähig, flexibel, ortsunabhängig und schnell realisierbar sind. Containerbasierte Rechenzentren bieten genau das: kompakte, hochverfügbare Einheiten, die in kurzer Zeit installiert werden können – mit modernster Technik und voller Skalierbarkeit.
Reaktionsschnell und zukunftssicher
Anforderungen an Rechenzentren verändern sich nicht nur technologisch, sondern auch konzeptionell. Während früher Standorte, Kapazitäten und Energiebedarf langfristig planbar waren, geht es heute um agile Lösungen, die dynamisch anpassbar sind. Insbesondere KI-gestützte Prozesse benötigen hochspezialisierte Infrastrukturen mit hoher Rechenleistung bei gleichzeitig begrenztem Raumangebot – Stichwort: Leistungsdichte. Entsprechend wächst die Nachfrage nach modularen, mobilen und skalierbaren Rechenzentren, die kurzfristig bereitgestellt werden können und gleichzeitig modernste Technik unterstützen.
Thermische Herausforderungen meistern
Mit steigender Leistungsdichte wachsen die Anforderungen an Kühlung und Infrastruktur. Klassische Luftkühlung reicht bei GPU-basierten KI-Systemen oft nicht mehr aus. Einzelne HPC-Knoten erzeugen mehrere Kilowatt Abwärme. Flüssigkeitskühlung – direkt am Chip – wird daher zur Schlüsseltechnologie: Bei optimaler Flächennutzung ermöglicht sie höhere Packungsdichte, einen stabilen Betrieb unter Hochlast und bessere Energieeffizienz. Die Nachwärme lässt sich zudem sinnvoll nutzen.
Nachhaltigkeit im Fokus
Neben der Kühlung sind auch Energieversorgung, Brandschutz, Zutrittssicherheit und Überwachung entscheidend. Gefordert sind redundante Stromsysteme, physische Sicherheit und Zertifizierungen wie ISO/IEC 27001 oder EN 50600. Gleichzeitig rückt Nachhaltigkeit stärker in den Fokus: Energieeffizienz, CO2-Reduktion und Abwärmenutzung sind zentrale Bestandteile moderner IT-Strategien – und in modularen Neubauten deutlich einfacher umsetzbar als im Bestand.
Flexible Rechenleistung aus der Box
Containerbasierte Rechenzentren bieten eine flexible Antwort auf steigende Anforderungen: Sie sind schnell einsetzbar, skalierbar und überall nutzbar – ob als temporäre Lösung, Erweiterung oder autarker Standort. Modernste Technik wie High-Density-IT, Flüssigkeitskühlung und Sicherheitsfeatures lassen sich individuell integrieren. „Unsere Container-Rechenzentren bieten höchste Leistungsdichte auf kleinstem Raum – bis zu 1 Megawatt IT-Leistung pro Einheit. Somit stellt dieses Komplettpaket die passende Antwort auf vielfältige Anforderungen in der heutigen digitalisierten Welt dar“, erklärt
Michél Düring, Sales Director der Data Center Group.
Über die Data Center Group
Die Data Center Group ist ein führender Anbieter für die Entwicklung, Beratung, Planung, Bau und Betrieb von Rechenzentren sowie für Hochsicherheits-Produkte rund um sichere und hochverfügbare IT-Infrastrukturen. Seit der Gründung 2005 hat das Unternehmen sein Portfolio stetig erweitert und beschäftigt heute rund 250 Mitarbeiter an mehreren Standorten in ganz Deutschland. Der Hauptsitz im Westerwald liegt strategisch günstig nahe den wichtigen Internetknoten DE-CIX Frankfurt und DE-CIX Düsseldorf. Weitere Büros befinden sich in Berlin, Frankfurt, München und Köln.
Kontakt:
Michél Düring
DC-Datacenter-Group GmbH
Tel.: +49 2741 9321 130, Mobil: +49 178 2898130
Mail: michel.duering@datacenter-group.com www.datacenter-group.com



PRIVILEGED ACCESS MANAGEMENT
Welches Konto würden Sie stärker schützen: das Praktikanten-Konto mit minimalen Rechten oder das Admin-Konto mit Zugriff auf sensible Systeme? Wer Admin sagt, kennt die Bedeutung von Privileged Access Management (PAM). Hier erfahren Sie die wichtigsten Vorteile dieses elementaren Bausteins für IT-Sicherheit. /// von Andreas Fuchs
PRIVILEGED ACCESS MANAGEMENT IST EIN ZENTRALER
BESTANDTEIL des Zugriffsmanagements und dient der Sicherung, Verwaltung und Überwachung privilegierter Konten wie Administratoren-, Service- oder Notfallkonten – also solchen mit erweiterten Rechten auf kritische Systeme, Anwendungen und Daten, weshalb sie bei Cyberkriminellen hoch im Kurs sind. Diese privilegierten Zugänge ermöglichen weitreichende Systemeingriffe, etwa die Installation von Software, das Ändern von Konfigurationen oder den Zugriff auf vertrauliche Datenbanken. PAM stellt sicher, dass solche Rechte nur autorisierten Identitäten zeitlich begrenzt und streng protokolliert gewährt werden, um Risiken durch Missbrauch oder Cyberangriffe zu minimieren.
Zugriffskontrolle: Weniger Risiko, mehr Kontrolle
Eine durchdachte Zugriffskontrolle reduziert die Angriffsfläche erheblich, indem sie den Zugang zu sensiblen Daten und Systemen auf autorisierte Personen im Unternehmen beschränkt. So werden Datenlecks, Manipulationen und unbefugte Zugriffe wirksam verhindert – egal ob durch externe Angreifer oder internes Fehlverhalten. Sie erfüllt gleichzeitig zentrale Anforderungen aus regulatorischen Vorgaben wie DSGVO, HIPAA oder ISO 27001. Durch Zugriffsrichtlinien und die Protokollierung aller Aktivitäten


DER AUTOR
Andreas Fuchs verantwortet als Director das Product Management bei Drivelock.
lassen sich die Einhaltung dieser Standards zuverlässig erfüllen. Auch operativ bringt diese Zugriffskontrolle Vorteile: Automatisierte Prozesse wie rollenbasierte Rechtevergabe oder regelmäßige Überprüfungen steigern die Effizienz und entlasten die IT-Teams, die sich auf wichtigere Aufgaben fokussieren können. Nicht zuletzt schafft Transparenz im Umgang mit Daten Vertrauen.
Warum PAM entscheidend für die Cybersicherheit ist In Zeiten zunehmender Cyberbedrohungen ist Privileged Access Management längst ein zentraler Baustein jeder wirksamen Sicherheitsstrategie. Denn wer privilegierte Zugriffe nicht im Griff hat, öffnet Angreifern Tür und Tor mit potenziell verheerenden Folgen. Besonders deutlich wird das in Branchen mit sensiblen oder sicherheitskritischen Systemen: In der Fertigungsindustrie sichert es vernetzte Produktionsanlagen ab und verhindert, dass Angreifer Prozesse manipulieren oder Betriebsgeheimnisse entwenden. Und in kritischen Infrastrukturen wie Energie- oder Wasserversorgung kann PAM die entscheidende Rolle dabei spielen, ob ein Cyberangriff erfolgreich abgewehrt wird oder zu einem Versorgungsausfall führt.
Kern des Sicherheitskonzeptes ist das Prinzip „Least Privilege“, also minimale Berechtigungen. Nur wer Zugriff braucht, bekommt ihn, und auch nur so lange wie nötig. Privileged Access Management ist aber nur dann erfolgreich, wenn Nutzer früh eingebunden und kontinuierlich geschult werden. Die Verwaltung privilegierter Konten kann komplex sein, und Widerstand entsteht oft, wenn neue Tools als umständlich empfunden werden. Eine klare Kommunikation und sorgfältige Integration in bestehende Systeme sind daher unerlässlich. Angesichts des Risikos, dass ein einziger kompromittierter Admin-Zugang das Unternehmen lahmlegen kann, sollte Privileged Access Management Bestandteil jeder Cybersecurity-Strategie sein. •
” Eine durchdachte Zugriffskontrolle reduziert die Angriffsfläche erheblich, indem sie den Zugang zu sensiblen Daten und Systemen auf autorisierte Personen im Unternehmen beschränkt.
Andreas Fuchs
Die Cloud hat den Zugang zu leistungsstarker Unternehmenssoftware grundlegend verändert – und damit auch den Weg für KI-Anwendungen geebnet. Technologien, die früher nur Großkonzernen vorbehalten waren, stehen heute auch Mittelständlern und Start-ups offen. COSMO CONSULT zählt zu den führenden Partnern, die diesen Wandel prägen.
Cloud als Motor der Digitalisierung
Einfachheit ist der Leitgedanke moderner Cloud-Lösungen. Gerade ERP-Systeme können schnell kompliziert werden – insbesondere, wenn durchgängige digitale Prozesse entstehen sollen. Die COSMO CONSULT Cloud-Lösungen basieren auf der Erfahrung aus über 1.500 ERP-Implementierungen in Unternehmen aller Größen und Branchen. Diese Expertise macht es möglich, moderne ERP-Funktionalitäten zu nutzen, ohne sich mit Infrastruktur, Betrieb, Wartung oder Updates befassen zu müssen.
Die Microsoft-Dynamics-basierten ERP-Lösungen von COSMO CONSULT sind eng mit dem gesamten Microsoft-Cloud-Ökosystem verzahnt. Ob Dynamics 365, Microsoft 365, SharePoint oder Power BI – Unternehmen steuern damit alle Bereiche integriert und digital.
Beratung, die wirkt – Branchenkenntnis, die überzeugt COSMO CONSULT begleitet Unternehmen mit einem ganzheitlichen Ansatz in die digitale Zukunft. Am Anfang steht die Analyse der Ausgangssituation, darauf folgen die Entwicklung einer Digitalstrategie und die Auswahl der passenden Technologien. Schritt für Schritt entsteht ein tragfähiger Plan für die Umsetzung. Ein interdisziplinäres Team unterstützt in allen Phasen der Transformation – von der Idee bis zum Go-live. Dabei geht es nicht nur um Systeme, sondern auch um Menschen: Die Experten sorgen dafür, dass Veränderungen verstanden, mitgetragen und aktiv gestaltet werden. So wird der digitale Wandel Teil der Unternehmenskultur.
Gleichzeitig setzt COSMO CONSULT auf tiefes Branchenverständnis. Ob Maschinen- und Anlagenbau, Chemie, Kunststoff, Bauwirtschaft, Handel oder Dienstleistungen –jede Branche hat ihre eigenen Regeln und Prozesse. Die Lösungen wurden speziell für diese Branchen entwickelt und bilden typische Anforderungen praxisnah ab.
Durchgängig digital mit Microsoft-Technologie
Das Ziel sind durchgängig digitale End-to-End-Prozesse, deren Bausteine wie bei einem Puzzle ineinandergreifen. Grundlage dafür sind die bewährten Business-Plattformen

von Microsoft. Sie schaffen Transparenz und Entscheidungsgrundlagen und sorgen für hohe Reaktionsfähigkeit. Künstliche Intelligenz spielt dabei eine wachsende Rolle: Microsoft 365 Copilot oder KI-gestützte Assistenten analysieren Produktions- und Finanzprozesse und liefern Handlungsvorschläge. So werden Abläufe effizienter und passen sich flexibel an neue Anforderungen an.
Global präsent, lokal verwurzelt
Mit mehr als 1.600 Mitarbeitenden an 52 Standorten in 20 Ländern ist COSMO CONSULT der größte inhabergeführte Microsoft-Partner weltweit – besonders stark im deutschsprachigen Mittelstand. Die Lösungen und Konzepte des Digitalisierungsspezialisten werden von Start-ups ebenso eingesetzt wie von internationalen Konzernen.
Das Portfolio umfasst ERP, CRM, Data & Analytics, Modern Workplace, Human Resources, Cloud Computing und Digital Services. •
Kontakt COSMO CONSULT Gruppe
Schöneberger Str. 15 • 10963 Berlin Tel: +49 30 343815-0 info@cosmoconsult.com www.cosmoconsult.com
Jetzt durchstarten in die COSMO-Cloud:
Sichere IT-Systeme benötigen, dass IT-Security von Beginn an in den Entwicklungsprozess einbezogen wird. Der Versuch, Sicherheitsfunktionen nachzurüsten, bleibt ein Flickwerk –und lässt kritische Systeme womöglich mit gefährlichen Sicherheitslücken zurück.
/// von Steffen Ullrich
TROTZ STEIGENDER BUDGETS FÜR IT-SECURITY in Unternehmen und Behörden nehmen Schäden durch Cyberangriffe zu – allein in Deutschland betrugen sie 2023 laut Bitkom über 200 Milliarden Euro. Bisherige Schutzstrategien greifen offensichtlich nicht ausreichend. Ein Kernproblem ist die Komplexität moderner IT-Systeme. Es gibt beliebig viele Bedrohungsszenarien, und Angreifer entwickeln ihre Methoden ständig weiter. Sicherheitsmaßnahmen nachzurüsten, ist meist unzureichend. Dabei kann ein Flickwerk entstehen, das Angriffsflächen offenlässt. Hinzu kommt: Das Einspielen von Patches verursacht Unterbrechungen und mitunter sogar Ausfälle – und somit Kosten. Zudem bleiben Sicherheitslücken bestehen, bis Updates eingespielt sind.
Integraler Bestandteil der Softwarearchitektur
Security by Design verfolgt deshalb einen proaktiven Ansatz: Sicherheit wird von Beginn an als integraler Bestandteil und Entwicklungsziel mitgedacht. Ergänzt wird dies durch Security by Default: Systeme sind standardmäßig sicher vorkonfiguriert. Dieses Vorgehen braucht Expertise und eine unterstützende Unternehmenskultur: Sicherheit muss als gemeinsames Ziel aller Beteiligten verstanden werden – auch in der Lieferkette.
Security by Design verhindert beziehungsweise verringert die Auswirkung von Angriffen. Systeme sollen modular aufgebaut werden, mit klar definierten Schnittstellen und minimalen Rechten für jede Komponente. Diese Segmentierung reduziert die Komplexität, erhöht Robustheit und verhindert, dass einzelne Fehler oder Angriffe

DER AUTOR
Steffen Ullrich ist Technology Fellow bei der Genua GmbH.
Bild: Genua
weitreichende Auswirkungen haben. Mehrschichtige Sicherheitskonzepte (Defense in Depth) setzen auf mehrere Schutzebenen von Erkennungs- und Abwehrfunktionen sowie leistungsfähigen Recovery-Mechanismen. So lassen sich Schäden im Ernstfall verhindern oder zumindest begrenzen.
Security by Design für IT-Infrastrukturen Analoge Prinzipien sollte man auch beim Aufbau sicherer IT-Infrastrukturen anwenden: Segmentierung und Mikrosegmentierung findet mittels Firewalls und Gateways auf der Ebene von Netzen und Anwendungen statt. Minimale Privilegien und eine Überprüfung der Sicherheit der Kommunikationspartner statt blindem Vertrauen ist Kern einer Zero-Trust-Strategie.
Segmentierungen und Prüfungen auf mehreren Ebenen werden im Rahmen von Defense in Depth ergänzt um Angriffsdetektion im Netz und auf Endpunkten. Dabei wird stets davon ausgegangen, dass ein Angreifer möglicherweise bereits im Netz ist und dessen Aktivitäten erkannt und Ausbreitung unterbunden werden muss. Leider haben die zur Absicherung eingesetzten Produkte oft selbst kritische Schwachstellen und stellen so eine zusätzliche Gefahr dar. Dem Zero-Trust Gedanken folgend sollte man hier nicht blind den Versprechen der Hersteller glauben, sondern sich auf unabhängige Audits und damit einhergehende Zulassungen und Zertifizierungen der Sicherheitsprodukte verlassen.
Unter dem Strich erzielen Unternehmen mit Security by Design auch Planungssicherheit: Sie können Ausfälle durch Notfall-Patches oder Angriffe vermeiden, Personalressourcen besser steuern und Kosten langfristig senken.
Fazit
Absolute Sicherheit gibt es nicht, doch Security by Design in Kombination mit Security by Default, Zero Trust und Defense in Depth bietet den wirksamsten Weg, Systeme robust, vertrauenswürdig und zukunftssicher zu gestalten. Wer Sicherheit von Anfang an als strategisches Entwicklungsziel definiert, senkt Risiken, Kosten und Schäden nachhaltig. •
Moderne IT-Infrastrukturen sollen skalierbar, wirtschaftlich effizient, hochverfügbar und zugleich vollumfänglich rechtskonform sein. Hybrid- und Multi-Cloud-Modelle bieten hierfür eine flexible und zukunftsweisende Grundlage. Voraussetzung für einen erfolgreichen Einsatz ist jedoch, dass der Schutz personenbezogener Daten nach europäischen Maßstäben integraler Bestandteil der Strategie ist. /// von Johannes Meyer
ZWAR HÄUFIG SYNONYM VERWENDET, in der Praxis unterscheiden sie sich jedoch deutlich. Die Hybrid Cloud verbindet typischerweise eine Private Cloud mit einer Public Cloud. Ziel ist eine intelligente Verteilung von Workloads: Sensible Daten und Anwendungen bleiben in einer kontrollierten Umgebung, weniger kritische Prozesse laufen in der Public Cloud laufen.
Die Multi Cloud geht noch einen Schritt weiter. Sie nutzt gezielt mehrere Public-Cloud-Anbieter parallel. Damit lassen sich Vorteile wie Leistungsstärke, regionale Verfügbarkeit oder preisliche Flexibilität optimal ausschöpfen. Zudem reduziert das Modell das Risiko des Vendor Lockins – einer Abhängigkeit von einzelnen Anbietern. Beide Modelle erfordern eine durchdachte Strategie, bei der technische Anforderungen, Compliance-Vorgaben, wirtschaftliche Aspekte und Sicherheitsbedenken in Einklang gebracht werden.
Rechtliche Sicherheit: Ein Muss in der Cloud Apropos Compliance: In Deutschland und der EU unterliegt die Verarbeitung von Daten klaren gesetzlichen Vorgaben. Die Datenschutz-Grundverordnung (DSGVO) schreibt vor, dass personenbezogene Daten nur unter bestimmten Bedingungen außerhalb Europas gespeichert und verarbeitet werden dürfen. US-amerikanische Anbie-
in der EU gewährleistet ist. Unternehmen, die auf europäische Cloud-Anbieter setzen, vermeiden genau hier rechtliche Grauzonen und stärken zugleich ihre digitale Souveränität. Damit rückt neben der rechtlichen Bewertung zunehmend auch die operative Umsetzung in den Fokus. Seit dem 1. Juli ist zudem das Testat BSI C5 Typ 2 für Cloud-Anwendungen im Gesundheitswesen verpflichtend. Für Finanzunternehmen gilt darüber hinaus die DORA-Verordnung ab dem 17. Januar 2025 als verbindlicher Rechtsrahmen. Diese zusätzlichen Vorgaben unterstreichen, wie eng rechtliche Compliance und technologische Umsetzung künftig verzahnt sein müssen.
Zentrale Steuerung und Sicherheit als Erfolgsfaktor Schon deshalb erfordert die Umsetzung einer Hybridoder Multi-Cloud-Strategie eine professionelle Verwaltung der verschiedenen Plattformen. Daten müssen nahtlos zwischen den Umgebungen bewegt werden können, ohne dass es zu Inkonsistenzen, Latenzen oder Sicherheitslücken kommt. Hier kommen sogenannte Orchestrierungsplattformen ins Spiel: Sie ermöglichen die zentrale Steuerung, automatisierte Bereitstellung und das Monitoring über mehrere Cloud-Systeme hinweg. Damit schafft die strategische Kombination aus unterschiedlichen Clouds nicht nur technologische Flexibilität, sondern auch das Fundament für nachhaltiges Wachstum und digitale Souveränität. •
” Die Umsetzung einer Hybrid- oder Multi-Cloud-Strategie erfordert eine professionelle Verwaltung der Plattformen.
Johannes Meyer

ter unterliegen jedoch Gesetzen wie dem Patriot Act oder dem Cloud Act, die staatlichen Behörden Zugriffsrechte einräumen. Und das oft ohne Transparenz für die betroffenen Unternehmen. Das Urteil des Europäischen Gerichtshofs in der Sache „Schrems II“ hat diesen Widerspruch nochmals verschärft. Es erklärte das Privacy-Shield-Abkommen zwischen der EU und den USA für ungültig und stellte klar: Der Datentransfer in Drittstaaten ist nur dann zulässig, wenn ein gleichwertiges Schutzniveau wie
DER AUTOR
Johannes Meyer ist Senior Market Development Manager (Cloud) bei Noris Network. Bild: Noris Network

Im Interview erläutern Lutz Beyer und Jens Schübel von PQ Plus*, weshalb präzise, kontinuierliche Messverfahren der beste Schutz für Rechenzentren und Industrie sind – und warum die Netzqualität zur unternehmerischen Überlebensfrage wird. /// von Heiner Sieger
Herr Beyer, Sie gelten mit PQ Plus als Vorreiter bei der Netzqualitätsmessung. Was unterscheidet Ihr Unternehmen von klassischen Anbietern?
Lutz Beyer | Unser Ansatz war von Beginn an darauf ausgerichtet, mit flexiblen, anwenderfreundlichen und dennoch hochpräzisen Messgeräten kritische Infrastrukturen wie Rechenzentren oder Krankenhäuser zu unterstützen. Während andere Anbieter früher nur sehr teure Anlagen verkauft haben, die oft lediglich Momentaufnahmen lieferten und deren Daten den Kunden wenig nutzten, haben wir mit innovativen Firmware-Lösungen eine neue Richtung eingeschlagen. Unsere Systeme sind so entwickelt, dass Power Quality-Messungen zum Standard und erschwinglich wurden. Ein besonderer Meilenstein war die Einführung unseres 333 mV-Signals – es hat sich inzwischen zum Industriestandard etabliert und wird mittlerweile sogar von früheren Platzhirschen kopiert. Ein PQ
Plus Klasse-S-Gerät kostet heute zwischen 600 und 700 Euro, was früher für viele Projekte schlicht unbezahlbar war. Und auch unsere Klasse-A-Messgeräte bieten mit etwa 2.000 Euro ein ausgezeichnetes Preis-Leistungs-Verhältnis, bei gleichzeitig höchster Messgenauigkeit.

oder Kundenwünsche reagieren, weil die Produktion eng mit unserer Entwicklung verzahnt ist. Diese Flexibilität ist ein großer Vorteil gegenüber den manchmal trägen Strukturen von Konzernen. Gleichzeitig ist unsere Entwicklung immer am Puls der Praxis, weil wir sehr eng mit Endanwendern und Installateuren zusammenarbeiten.
Welche Herausforderungen sehen Sie heute speziell bei modernen Rechenzentren in Sachen Verfügbarkeit und Ausfallsicherheit?
Wie gelingt Ihnen als vergleichsweise schlankes Unternehmen die Entwicklung und Produktion solcher Systemlösungen in großen Stückzahlen?
LB | Die Antwort liegt in unserer agilen Firmenkultur und in starken Partnerschaften. Mit unserer hochspezialisierten Produktionsfirma in Tschechien – einem sogenannten EMS, also einem Electronic Manufacturing Service – sind wir extrem flexibel, was Planung, Anpassung und Herstellung angeht. Wir produzieren jährlich rund 100.000 Messgeräte und können schnell auf Marktentwicklungen


LB | Die Anforderungen an Rechenzentren steigen permanent – sowohl von der Netzbelastung her als auch hinsichtlich der Versorgungssicherheit. Schon kleinste Unterbrechungen oder Qualitätsmängel können massive wirtschaftliche Schäden verursachen. Die IT-Lasten schwanken zudem durch Virtualisierung oder dynamische Zunahme von KI-Anwendungen extrem und sind sehr komplex. Entscheidend ist, die Qualität und Kontinuität der Stromversorgung auf höchstem Niveau zu halten, gerade weil Fehler nicht nur in der eigenen Infrastruktur, sondern auch durch Rückwirkungen von außen entstehen können. Wir helfen Betreibern, dieses Gleichgewicht zu bewahren: Mit unseren präzisen Messgeräten können Spannungseinbrüche, Oberschwingungen, Ableitströme und andere Störfaktoren sofort erkannt und dokumentiert werden.
Herr Schübel, wie erfassen die Messsysteme von PQ Plus diese Störungen und welche Analysen sind damit möglich?
Jens Schübel | Unsere Messsysteme bieten eine hohe Auflösung: Wir messen Strom-, Spannungs-, Leistungsund Frequenzdaten mit bis zu 57,6 Kilohertz. Außerdem erfassen wir Oberschwingungen weit über die üblichen
Lutz Beyer (l.) ist Generalmanager von PQ Plus und seit mehr als einem Jahrzehnt Innovationstreiber im Bereich der Netzqualitätsanalytik. Gemeinsam mit Jens Schübel, Prokurist sowie technischer Leiter mit besonderem Fokus auf Produktions- und Entwicklungsprozesse, führt er PQ Plus in der Branche für Energie- und Netzqualitätsüberwachung.
Beide kombinieren praxisnahe Expertise mit technologischem Weitblick, um kritische Infrastrukturen in Deutschland und Europa sicherer zu machen.
Standards hinaus, oft entscheidend bei der Analyse von komplexen Störungen. Alle Messdaten werden für mindestens ein Jahr im Gerät gespeichert. Über unsere spezielle und kostenfreie Software ermöglichen wir gezielte Auswertungen: Wir prüfen die Einhaltung von Normen, können aber auch sehr detailliert den Verlauf von Anomalien nachzeichnen und Korrelationen beispielsweise mit Lastwechseln, Schaltzuständen oder bestimmten Ereignissen untersuchen. Die Möglichkeit, lückenlos auf historische Daten zuzugreifen, ist für viele Betreiber ein entscheidender Vorteil – sie können so nicht nur akute Probleme lösen, sondern auch längerfristig die Entwicklung ihrer Infrastruktur gezielt analysieren und optimieren.
Können Sie ein konkretes Praxisbeispiel nennen, das zeigt, wie der Einsatz Ihrer Systeme die Ausfallwahrscheinlichkeit reduziert hat?
JS | Ein gutes Beispiel ist ein mittelgroßes Rechenzentrum, das wir ausgerüstet haben. Unsere Oberschwingungsanalyse deckte Unregelmäßigkeiten an den Ausgängen einer USV-Anlage auf. Ein genauerer Blick zeigte, dass eine Fehlfunktion an einer der Leistungsstufen die Ursache war – ein Problem, das im Rahmen der nächsten

gen über Gleichstrom (DC), etwa durch den verstärkten Einsatz von Photovoltaik oder anderen erneuerbaren Energiequellen. Gerade Unternehmen wie die Deutsche Telekom investieren heute stark in die direkte Nutzung von Gleichstrom, weil sie so Energieverluste vermeiden. Auch in diesem Bereich halten wir unsere Technik stets bereit: Unsere Geräte sind sowohl für AC als auch DC ausgelegt – und für die Cloudanbindung zur Datennutzung der nächsten Generation vorbereitet. Weiterhin beobachten wir, dass neue Kommunikationsprotokolle und Sensorintegration immer wichtiger werden. Diese Offenheit eröffnet uns und unseren Kunden die Möglichkeit zur kontinuierlichen Optimierung und den Zugang zu neuen Märkten.
LB | Ergänzend möchte ich sagen: Solche Innovationen sind für uns gelebte Praxis. Unsere Geräte sind so aufgebaut, dass sie ständig weiterentwickelt werden können – sei es für neue Netzformen oder komplexe Auswertungen. Mit unseren strategischen Partnerschaften sichern wir die Flexibilität, die es uns erlaubt, sehr schnell auf technologische Trends oder veränderte Marktanforderungen zu reagieren.
” Die Anforderungen an Rechenzentren steigen permanent – sowohl von der Netzbelastung her als auch hinsichtlich der Versorgungssicherheit. Schon kleinste Unterbrechungen oder Qualitätsmängel können massive wirtschaftliche Schäden verursachen.
Lutz Beyer
planmäßigen Wartung gelöst werden konnte, bevor ein echter Schaden entstand. Ohne diese permanente Überwachung und die Möglichkeit, solche Details in Echtzeit zu erkennen, hätte sich das Problem unbemerkt fortgesetzt und womöglich zu Ausfällen mit enormen Folgekosten geführt.
Welche Weiterentwicklungen und Technologietrends sehen Sie im Bereich Mess- und Monitoringtechnik speziell für Rechenzentren in den kommenden Jahren?
JS | Der Trend geht deutlich in Richtung KI-gestützter Analyseverfahren. Intelligente Algorithmen werden künftig nicht nur Anomalien noch schneller und zuverlässiger erkennen, sondern können eventuell schon selbstständig eingreifen – zum Beispiel Schwellwerte anpassen oder Hinweise zur Fehlerbehebung geben. Ein weiterer wachsender Bereich ist die Direktversorgung von Anla-
Abschließend: Warum lohnt sich gerade für Betreiber kritischer Infrastrukturen die Investition in moderne Messund Überwachungstechnik?
LB | Ein zuverlässiges Stromnetz ist das Rückgrat aller digitalen Prozesse. Gerade kritische Infrastrukturen wie Rechenzentren, Krankenhäuser oder Verkehrssteuerungen sind ohne ständige Qualitätskontrolle hochgradig verwundbar – oft unterschätzt man, wie sensibel selbst kleinste Fehler sich auswirken. Die Investition in kontinuierliche Überwachung und intelligente Auswertung reduziert Risiken und Kosten: Sie verhindert Ausfälle, senkt Wartungsaufwände und schafft die Grundlage dafür, mit Zukunftstechnologien wie KI und nachhaltigen Energien optimal zu arbeiten. Wer auf präzise Mess- und Monitoringtechnik setzt, investiert in Widerstandsfähigkeit, Skalierbarkeit und wirtschaftliche Sicherheit. •
Ein Wechsel in die Cloud betrifft nicht nur die IT-Systeme von Unternehmen: Auch Prozesse, Verantwortlichkeiten und die teamübergreifende Zusammenarbeit verändern sich dadurch. Um diesen Wandel erfolgreich zu gestalten, braucht es mehr als nur technische Migration – klare Rollen, transparente Prozesse und eindeutige Ziele sind entscheidend für den Erfolg. /// von David Torgerson
ENTGEGEN DER LANDLÄUFIGEN MEINUNG stehen wir immer noch am Anfang der Einführung von Cloud Computing. Laut Goldman Sachs Research sind bisher nur etwa 30 Prozent der Workloads in die Cloud verlagert worden. In den kommenden Jahren werden unzählige Unternehmen technische Migrationsprojekte in Angriff nehmen – viele davon werden scheitern, wenn sie den Wechsel in die Cloud ausschließlich als Infrastrukturaufgabe für die IT-Abteilung betrachten.
Die Einführung der Cloud hat tatsächlich grundlegende organisatorische und technologische Veränderungen in Unternehmen zur Folge. Sie beeinflusst, wie Teams zusammenarbeiten, wie Prozesse strukturiert sind und wie Entscheidungen getroffen werden. Denn der Wandel ist nicht mit der Verlagerung der Workloads in die Cloud abgeschlossen. In Cloud-Umgebungen vollziehen sich jegliche Veränderungen schneller: Updates, Abhängigkeiten, Sicherheitsanforderungen und Nutzungsbedürfnisse entwickeln sich stetig weiter.

Die Lösung: Cloud-Change-Management. Es begegnet den Herausforderungen, indem es Strukturen schafft, um komplexe Prozesse steuern zu können, ohne dabei das Business zu verlangsamen. Es stellt sicher, dass sich Rollen und Prozesse parallel zur Technologie weiterentwickeln und dass Entscheidungen klar und verantwortungsbewusst getroffen werden können, während gleichzeitig Governance und Sicherheit gewahrt bleiben. Richtig umgesetzt, wird die Cloud so von einem bloßen Werkzeug zu einer Grundlage für Anpassungsfähigkeit, Resilienz und Wettbewerbsfähigkeit.
Warum Cloud Change Führung braucht Cloud-Projekte scheitern in der Regel nicht an der Technologie. Vielmehr scheitern Unternehmen daran, wie sie mit technologischem Wandel umgehen. Zuständigkeiten sind unklar, Freigabeprozesse zu langsam und die Abstimmung zwischen IT, Security und Fachbereichen funktioniert nicht. Eine erfolgreiche Umstellung auf die Cloud
” Die Einführung der Cloud hat tatsächlich grundlegende organisatorische und technologische Veränderungen in Unternehmen zur Folge.
David Torgerson

erfordert Schnelligkeit, Transparenz und Flexibilität – sowohl in technischer als auch in organisatorischer Hinsicht. Cloud-Change-Management bietet hierfür den nötigen Rahmen: Es schafft Klarheit und verankert Anpassungsfähigkeit als Kompetenz langfristig im Unternehmen, statt die Umstellung als einmaliges Projekt zu betrachten.
Wichtig: Rollen und Informationsbedarfe definieren In traditionellen IT-Umgebungen sind Rollen und Prozesse stabil und eindeutig definiert. In der Cloud entwickelt sich die Infrastruktur kontinuierlich weiter und Verantwortlichkeiten verteilen sich zunehmend über mehrere Teams und Abteilungen. Ohne Klarheit darüber, wer entscheidet, wer genehmigt und wer die Risiken überwacht, steigt die Komplexität. Klar definierte Rollen sind daher ein zentrales Element des Cloud-Change-Managements. Und ebenso wichtig ist, dass jede Rolle Zugriff auf die richtigen Informationen hat – sei es für strategische Entscheidungen, für die Operative oder in Bezug auf Compliance: Führungskräfte benötigen Klarheit darüber, wie sich Cloud-Umgebungen auf Geschäftskontinuität, Sicherheit und Kosten auswirken. Ihr Fokus liegt auf Risiken, Abhängigkeiten und der Ausrichtung von Infrastrukturentscheidungen an den Unternehmenszielen. Grafische Overviews und strukturiertes Reporting sind wichtige Voraussetzung für schnelle und dennoch fundierte Entscheidungen.
Cloud-Architekten und Ingenieure benötigen präzise und aktuelle Einblicke zu Cloud-Architektur, Schnittstellen und Abhängigkeiten, um Cloud-Umgebungen zu entwerfen und zu optimieren. Automatisierte Infrastrukturgrafiken sowie die Integration mit Infrastructure-as-Code und Dokumentationstools ermöglichen es ihnen, Architekturen zu validieren, Umstellungen sicher zu planen und Risiken durch veraltete Daten zu vermeiden.
Entwickler benötigen Einblick in die Infrastruktur, die ihre Anwendungen unterstützt. Der Zugriff auf aktuelle Diagramme von Umgebungen, Diensten und Abhängigkeiten minimiert das Fehlerrisiko und gewährleistet, dass Bereitstellungen reibungslos verlaufen und festgelegten Richtlinien entsprechen. In Betrieb und Support sind die Teamsauf Echtzeit-Einblicke angewiesen, um Störungen zu bewältigen und die Stabilität der Systeme sicherzustellen. Sie benötigen Informationen zu betroffenen Systemen, Abhängigkeiten und Eskalationswegen. Per Live-Diagrammen und Monitoring-Tools lassen sich die jeweiligen Ur-
sachen schnell identifizieren und standardisierte Abläufe durchhalten. Sicherheit und Compliance-Teams benötigen strukturierte, überprüfbare Dokumentationen zu Architekturen, Zugriffskontrollen, Datenflüssen und Verschlüsselungsstandards. Zentralisierte Plattformen mit Prüfprotokollen und automatisierten Updates bieten die nötige Transparenz, um Risiken zu managen und Compliance nachzuweisen.
Praxisbeispiel:
Wie Informatica die Komplexität der Cloud managt
Das Cloud-Trust-Team von Informatica, einem führenden Anbieter für Cloud-Data-Management in Unternehmen, betreibt eine globale Multi-Cloud-Umgebung über AWS, Azure und Google Cloud hinweg. Um die Kontrolle über diese Infrastruktur zu behalten, nutzt das Team automatisierte Architekturvisualisierungen. So lässt sich bei Störungen schnell erkennen, welche Systeme betroffen sind und welche Abhängigkeiten bestehen, um auf dieser Basis fundierte Entscheidungen zu treffen.
Aktuelle Diagramme unterstützen die täglichen Abläufe auf vielfältige Weise: bei P1-Vorfällen, um die Ursachenanalyse zu beschleunigen, bei globalen Schichtübergaben, um eine nahtlose Kommunikation sicherzustellen, und bei Compliance-Audits, um klare, auditierbare Dokumentationen bereitzustellen.
Das Team nutzt außerdem vereinfachte Visualisierungen, um nicht-technische Stakeholder über Themen wie Datenflüsse oder Compliance aufzuklären und ihnen so fundierte strategische Entscheidungen zu ermöglichen.
Bei Informatica werden diese Visualisierungen in Lucidscale erstellt und mit Jira sowie Confluence integriert, sodass die Informationen team- und standortübergreifend zugänglich sind.
Aufbau von Strukturen für nachhaltige Veränderungen
Ein effektives Cloud-Change-Management erfordert eine Führung, die Governance nicht als Einschränkung, sondern als Rahmen für Flexibilität und Geschwindigkeit betrachtet. Transparenz über Systeme, Rollen und Abhängigkeiten hinweg ist entscheidend und muss durch Tools unterstützt werden, die allen Beteiligten einen Echtzeit-Einblick in die Cloud-Umgebung ermöglichen.
Verantwortlichkeiten müssen nicht nur in Organigrammen, sondern auch für Prozesse und täglichen Abläufe klar definiert sein. •
Künstliche Intelligenz revolutioniert die Arbeitswelt, doch der Mensch bleibt der zentrale Faktor. Wie das 3M-Prinzip Unternehmen hilft, durch synergetische Zusammenarbeit von Mensch und Maschine effektiver zu arbeiten und bessere Ergebnisse zu erzielen. /// von Fridel Rickenbacher
STATT MENSCH GEGEN MASCHINE HEISST DIE DEVISE HEUTE VIELMEHR: Mensch mit Maschine. Dieses 3M-Prinzip („Mensch mit Maschine“) entpuppt sich als zentraler Erfolgsfaktor im KI-Zeitalter. Die größte Magie und echter Business Impact entstehen nämlich erst, wenn KI und menschliche Expertise zusammenspielen – KI liefert hervorragendes Rohmaterial, aber den Feinschliff und die wertschöpfende Anwendung bringt der kritisch denkende Mensch mit seiner Domänen-Expertise und gesundem Menschenverstand.
In aktuellen Kundenprojekten sehen wir genau das: KI kann zum Beispiel in Sekunden Daten analysieren oder Texte generieren, doch Kontextverständnis und kreative Wertschöpfung steuern Menschen bei. Ein Beispiel aus der Praxis: In einem Finanzprojekt wurde ein KI-Assistent (Microsoft 365 Copilot) eingesetzt, um Berichte zu generieren. Ohne das Domänen-Wissen der Fachexperten bezüglich FINMA-Vorgaben, Compliance und Firmendaten wäre das Resultat wertlos gewesen – erst durch die Kombination aus Domänen-Knowhow, firmeneigenen Datenschätzen und KI entstand ein wirklich nützlicher Report.

DER AUTOR
Phase 1:
Der Mensch mit Assistenz – Mitarbeiter nutzen individuelle KI-Assistenten, um ihre Arbeit besser und schneller zu erledigen.
Phase 2:
Mensch-Agent-Teams – Richtig angewiesene und trainierte KI-Agenten agieren als „digitale Kollegen” und «digital Assistenten» im Team und übernehmen spezifische Aufgaben autonom, wobei der Mensch noch anleitet und überprüft.
Phase 3:
Agentengesteuerte Organisation – Menschen geben Ziele vor, Agenten führen Routineprozesse und Recherchegrundlagen autonom aus, während Menschen nur noch in Ausnahmefällen eingreifen.
In allen Phasen bleibt klar:

Der Mensch behält die Verantwortung und möglichst Kontrolle.
Fridel Rickenbacher war Mitgründer/Partner/Co-CEO/Verwaltungsrat diverser IT-Unternehmen. Heute ist er Investor und „Unternehmer im Unternehmen“ bei der SITS Group AG in der Schweiz.
Business Excellence entsteht an der Schnittstelle von Fachwissen, Daten und KI Viele Unternehmen träumen von „KI-gestützter Business Intelligenz oder gar Exzellenz“, ohne jedoch in Strategie, Kultur und Kompetenzen zu investieren – das notwendige Fundament fehlt dann. Dabei lässt sich die Einführung von KI schrittweise gestalten. Laut diversen Erfahrungen kristallisieren sich drei Phasen der KI-Adoption.
KI kann keine Verantwortung übernehmen – sie ist Werkzeug, nicht Entscheider. Und je weiter KI vordringt, desto wichtiger wird es, Mitarbeiter durch Upskilling und Kulturwandel auf diese neuen Formen der Zusammenarbeit vorzubereiten.
Fazit dieses 3M-Prinzips: Wer Mensch und Maschine gezielt verbindet, erhöht die Leistungsfähigkeit dramatisch.

” KI kann keine Verantwortung übernehmen – sie ist Werkzeug, nicht Entscheider. Und je weiter KI vordringt, desto wichtiger wird es, Mitarbeiter durch Upskilling und Kulturwandel auf diese neuen Formen der Zusammenarbeit vorzubereiten
© Tuyen/stock.adobe.com, arbuzu/stock.adobe.com
„Augmentation” schlägt Automation“ – KI mit Kontext und menschlichem Augenmaß liefert bessere Ergebnisse als KI allein. Das bestätigen Projekte, in denen Mitarbeiter durch KI 30–50 Prozent Zeit einsparen und diese Zeit in Innovation und Problemlösung investieren. Der Mensch bleibt der Dirigent, die KI das Orchester – gemeinsam entsteht eine höhere Symphonie.
Auswirkungen auf „secure intelligent agentic work“
Im Kontext von „Secure Intelligent Agentic Work“ verschiebt sich die Arbeitswelt zunehmend hin zu einem Zusammenspiel aus Mensch, KI-Agenten und sicheren digitalen Arbeitsumgebungen. Das 3M-Modell – „Mensch mit Maschine“ – liefert dabei den passenden Bezugsrahmen: Es geht nicht um Ersetzung, sondern um Erweiterung menschlicher Fähigkeiten durch intelligente Agenten, die sicher, erklärbar und zielgerichtet agieren.
In der Praxis bedeutet das: Mitarbeitende arbeiten mit KI-Agenten zusammen, die Aufgaben übernehmen, Entscheidungen vorbereiten oder Prozesse autonom ausführen – etwa in der Kundenkommunikation, im Reporting oder bei der Datenanalyse. Diese Agenten sind nicht nur „intelligent“, sondern auch „agentisch“ – sie handeln eigenständig innerhalb definierter Grenzen. Damit das funktioniert, braucht es drei Dinge:
1. Security first – Sichere Infrastruktur:
Die Agenten müssen in einer Umgebung operieren, die Datenschutz, Zugriffskontrolle und Nachvollziehbarkeit gewährleistet. Zero-Trust-Architekturen, rollenbasierte Berechtigungen und Audit-Trails sind essenziell.
2. Erklärbarkeit und Kontrolle: Agenten dürfen keine Black Boxes sein. Ihre Entscheidungen müssen nachvollziehbar sein – für Nutzer, Auditoren und Regulatoren. Das stärkt Vertrauen, Souveränität und reduziert Risiken.
3. Menschliche Steuerung mit gesundem Menschenverstand und kritischem Denken:
Auch wenn Agenten autonom agieren, bleibt der Mensch in der Verantwortung. Er definiert Ziele, überprüft Ergebnisse und greift bei Bedarf ein. Das ist der Kern des 3M-Prinzips: Der Mensch bleibt Dirigent, die Agenten spielen die Instrumente.
In Kundenprojekten zeigt sich: Secure Intelligent Agentic Work ermöglicht enorme Effizienzgewinne – aber nur, wenn Sicherheit, Compliance, Ethik und Menschzentrierung mitgedacht werden. Unternehmen, die diese Prinzipien frühzeitig verankern, schaffen sich einen strategischen Vorteil:
Sie nutzen KI nicht nur produktiv, sondern auch verantwortungsvoll. •
Sieben menschliche Fachkräfte führen 32 KI-Agenten. Mit diesem außergewöhnlichen Setup setzt Dominic von Proeck, Gründer und Chef der Akademie Leaders of AI, die aktuellen Bildungsstrukturen auf den Prüfstand und ebnet den Weg für revolutionäre Organisationen im digitalen Zeitalter. /// von Heiner Sieger
Dominic Du hast in Leaders of AI eine außergewöhnliche Akademie geformt. Wie bist Du dazu gekommen, eine Bildungseinrichtung zu installieren, in der viermal so viele KI-Agenten tätig sind wie menschliche Mitarbeiter?
Dominic von Proeck | Leaders of AI ist ein Berliner Startup, das sich auf die KI-Transformation von Organisationen konzentriert. Unser Fokus liegt auf der Integration von KI in Unternehmen, um Arbeitsprozesse zu optimieren und zukünftige Arbeitsmodelle zu entwickeln. Mein Weg begann mit der Gründung von Punk Incorporated, einem Startup, das adaptive Lernsysteme entwickelte. Dieses Unternehmen konnte ich erfolgreich an die WBS-Gruppe verkaufen. Danach beschloss ich, mit Leaders of AI noch einen Schritt weiter zu gehen und das zu leben, was wir lehren – nämlich eine Organisation zu führen, die mehr KI-Assistenten als menschliche Mitarbeiter nutzt. Unsere Entscheidung basiert auf der Überzeugung, dass der produktive Einsatz von KI entscheidend ist, um Organisationen zukunftsfähig zu machen.
Das sind große Worte, die Du da gelassen aussprichst. Warum habt ihr euch für diese neuartige Organisationsform mit vielen KI-Assistenten entschieden?
nur möglich, sondern äußerst effektiv ist. So beschloss ich, diesen Ansatz in unserer Organisation zu leben und weiterzugeben.
Dein Unternehmen gilt – auch laut dem Vice President für AI Product von Microsoft, Marco Casalaina – als eine Art „Reagenzglas“ für Organisationsmodelle der Zukunft. Wie definierst Du diese Rolle konkret?
DvP | Wir freuen uns sehr über die Anerkennung von Microsoft, die unser Unternehmen als Vorreiter betrachten. Im Leaders Lab, einem innovativen Labor, das wir zusammen mit Microsoft, EY und Virtual Identity betreiben, forschen wir fortlaufend an der Optimierung organisatorischer Prozesse durch KI. Ein Thema, das wir intensiv untersucht haben, ist die Erstellung personalisierter Newsletter, bei denen nicht Tausende dieselbe E-Mail erhalten, sondern jeder individuell angesprochen wird. Ein weiteres Beispiel ist die Implementierung von KI im B2B-Vertrieb. Unsere KI-Assistenten analysieren Informationen über potenzielle Kunden, um personalisierte Gespräche zu führen. Diese Forschung zeigt, dass unsere Organisation auf die wohl herausforderndste Reise geht: die ständige Anpassung und Neuerfindung der Arbeitsweise durch KI.
DER GESPRÄCHSPARTNER
Dominic von Proeck ist der Kopf hinter Leaders of AI. Er bringt umfassende Erfahrungen aus der KI- und Digitalisierungsszene mit und setzt sich für zukunftsweisende Arbeitsmodelle ein, die den Spagat zwischen technologischer Effizienz und menschlicher Wärme meistern.
DvP | Im Februar 2023 begannen wir mit den ersten Seminaren für Führungskräfte zur Nutzung von KI. Schnell stellten wir fest, dass die Zusammenarbeit mit KI entscheidend ist, um produktive Ergebnisse zu erzielen. Anders als in der Vergangenheit, wo technologische Kenntnisse das wichtigste waren, sind es nun Führungsqualitäten wie Kommunikations- und Feedbackfähigkeiten, die den Erfolg im Umgang mit KI definieren. Diese unerwartete Wende im Paradigma ermutigte uns, KI als festen Bestandteil unserer eigenen Arbeitsstruktur zu etablieren. Dabei haben wir empirische Studien durchgeführt, die zeigten, dass die hybride Zusammenarbeit von Mensch und KI nicht



Welche spezifischen organisatorischen Aspekte sind in eurem Modell besonders disruptiv für traditionelle Unternehmensstrukturen?
DvP | Ein wesentlicher Teil unserer Philosophie ist es, die Anzahl menschlicher Mitarbeiter auf sieben zu beschränken. Diese bewusste Entscheidung zwingt uns, unsere Prozesse zu optimieren und sorgt dafür, dass wir traditionelle Strukturen hinterfragen. Gleichzeitig erlaubt uns diese Limitierung, effizienter zu arbeiten, indem wir KI-gestützte Lösungen zur Automatisierung repetitiver Aufgaben verwenden. Kurz gesagt, wir zwingen uns dazu, die altbekannten Hierarchien zu überdenken und neue, agile Formen des Arbeitens zu entwickeln. Diese enge Zusammenarbeit zwischen Mensch und KI stellt sicher, dass Aufgaben effektiver und schneller erledigt werden können, was die Tür für innovative Organisationsformen öffnet.
Das stellt ja in etablierten Hierarchien einiges auf den Kopf. Welche Änderungen in Führungs- und Kommunikationsprinzipien hast du beobachtet?
DvP | Die hybride Arbeitsweise erfordert eine neue Herangehensweise an Führungs- und Kommunikationsstrategien. In bestehenden Studien wird aufgezeigt, dass die Symbiose von Mensch und KI die besten Ergebnisse liefert. Konzepte wie ‘Human in the Loop’ sind entscheidend, da sie sicherstellen, dass in kritischen Prozessen immer eine menschliche Überprüfung stattfindet. Gleichzeitig muss auch ‘AI in the Loop’ berücksichtigt werden, denn die KI kann menschliche Arbeit auf Schwächen hin überprüfen. Diese Doppelstrategie sorgt dafür, dass die Zusammenarbeit zwischen Mensch und KI nicht nur effizienter, sondern auch fehlerfreier wird. Führungskräfte müssen lernen, sich auf diese neue Dynamik einzustellen, um den größtmöglichen Nutzen aus beiden Welten zu ziehen.
Welche Charakteristika sollten Unternehmen deiner Erfahrung nach künftig berücksichtigen, um mit KI erfolgreich zu sein?
warten, dass die IT alles regelt, sollten Teams eigenständig mit KI arbeiten und prozessuale Herausforderungen identifizieren. Schließlich sollten Unternehmen den Zugang zur KI nicht nur ausgewählten Piloten vorbehalten, sondern eine Lernkultur schaffen, in der alle Mitarbeiter mit der Technologie vertraut gemacht werden.
Wenn Du ein paar Jahre vorausschaust: Was sind deine Zukunftsaussichten für den breiten Einsatz von KI in Organisationen?
DvP | KI wird in vielen Sektoren unverzichtbar sein, besonders dort, wo bisher manuelle und repetitive Prozesse vorherrschend sind. Die Automatisierung solcher Aufgaben wird Organisationen erlauben, effizienter zu arbeiten und sich auf strategisch wichtige Themen zu konzentrieren. Doch die Einführung kompletter KI-gestützter Prozesse muss sinnvoll gestaltet werden, indem ein Reifegradmodell sicherstellt, dass die Transformation nachhaltig ist. Schließlich muss der Wandel Schritt für Schritt erfolgen, da viele Unternehmen, insbesondere im Mittelstand, noch grundlegende Prozesse definieren und dokumentieren müssen, bevor sie die nächste Evolutionsstufe erreichen können.
Wir haben jetzt viel über KI gesprochen. Wie schätzt du die Rolle des Menschen in einer KI-orientierten Zukunft ein? DvP | Während KI viele Prozesse vereinfachen kann, bleibt die menschliche Komponente entscheidend. Wir entscheiden, was technologisch möglich ist und was ethisch und kulturell richtig erscheint. Ziel ist es, KI so einzusetzen, dass wir mehr Raum für menschlichen Austausch und Kreativität gewinnen. Die Vision und Richtung einer Organisation kommen nach wie vor vom Menschen. Unsere Aufgabe ist es, durch Leitung und Anleitung sicherzustellen, dass sowohl Mensch als auch KI ihr Potenzial voll ausschöpfen können. Die menschliche Wärme und Interaktion wird nicht durch Technologie ersetzt, sondern ergänzt. •
© typepng/stock.adobe.com, arbuzu/stock.adobe.com
DvP | Führungskräfte müssen die Wichtigkeit ihrer eigenen Rolle in der Transformation erkennen. Sie sind nicht nur passive Beobachter, sondern aktive Teilnehmer, die das Thema KI ernst nehmen müssen. Dies bedeutet, sich selbst mit den Technologien auseinanderzusetzen und ihre Möglichkeiten zu verstehen. Ein weiterer wichtiger Punkt ist das Empowerment der Fachabteilungen: Anstatt darauf zu
MEHR ERFAHREN
Das vollständige Interview und den Podcast mit Dominic von Proeck finden Sie hier
” Konzepte wie ‘Human in the Loop’ sind entscheidend, da sie sicherstellen, dass in kritischen Prozessen immer eine menschliche Überprüfung stattfindet. Gleichzeitig muss auch ‘AI in the Loop’ berücksichtigt werden, denn die KI kann menschliche Arbeit auf Schwächen hin überprüfen. D. von Proeck
Wie Krankenhäuser den digitalen Wandel wirklich schaffen – und warum „mehr Technik“ nicht die Lösung ist. Sondern Führung, Prozesse und Kommunikation den Informationsfluss endlich patientenzentriert machen. Ein Gespräch mit dem Digitalisierungsexperten
*Martin Fiedler, Geschäftsführer von MCL Munich Communication Lab. /// von Heiner Sieger
Herr Fiedler, Sie sagen, viele Krankenhausaufenthalte wirkten „vormodern“. Was meinen Sie damit – und woher kommt der aktuelle Rückstand vieler Kliniken bei der Digitalisierung?
Martin Fiedler | „Vormodern“ ist zugespitzt, beschreibt aber die Erfahrung vieler Patienten: Aufnahmeprozesse sind papiergebunden, Daten werden mehrfach abgefragt, Informationen versanden in Formularen und sind später nicht verfügbar. Parallel existieren hochmoderne Geräte –doch der erlebte Informationsfluss ist brüchig. Die Gründe sind strukturell und kulturell: Krankenhäuser sind extrem komplex, mit Dutzenden ineinandergreifenden Prozessen und historisch gewachsenen „Mini-Reichen“ in zahlreichen Abteilungen. Oft wird im Silo optimiert statt entlang des gesamten Behandlungs- und Informationsflusses – idealerweise von der Vorbereitung der Aufnahme bis zur Überleitung nach der Entlassung. Changemanagement ist dabei meist unterentwickelt.
Das Krankenhauszukunftsgesetz (KHZG) sollte genau diesen Informationsfluss verbessern. Warum hat es vielerorts nicht gewirkt?
MF | Das KHZG war als Hebel gedacht, Qualitäts- und Reifegradziele bis 2025 zu erreichen. Fördermittel wurden jedoch häufig primär für Technikbeschaffung genutzt. Das hat zwei Folgen: Erstens fehlt oft die Anschlussfinanzierung für Betrieb und Weiterentwicklung der Systeme. Zweitens wurde zu wenig in Prozesse, Schnittstellen und Qualifizierung investiert. Anbieter schulen verständlicherweise ihre jeweilige Lösung – selten den Gesamtprozess. Ohne End-to-End-Design, klare Zuständigkeiten und befähigte Nutzer bleibt der Informationsfluss Stückwerk, auch wenn Einzelkriterien auf dem Papier erfüllt sind.
Liegt es am fehlenden Geld – oder an falschen Budgets?
MF | Eher an der Logik des Systems. In DRG- und Abrechnungszyklen sind Ausgaben für Veränderungsprozesse kaum vorgesehen. Es gibt Innovationsfonds, die Pilotprojekte fördern, aber keinen dauerhaften „Veränderungsfonds“ für Beratung, Schulung, Coaching und Organisati-
PATIENT KRANKENHAUS
• 2023 schrieben 61% der Kliniken Verluste
• Für 2024 erwarten 79% der Krankenhäuser ein Defizit, für 2025 rechnen rund 75% mit Verlust.
• Laut Krankenhaus Rating Report liegen 16% der Kliniken im roten Bereich für erhöhte Insolvenzgefahr
• Jedes vierte Krankenhaus sieht sich binnen der nächsten 12 Monate von Insolvenz bedroht.
• 2020–2024 wurden 88 Klinikinsolvenzen gemeldet.


DER GESPRÄCHSPARTNER
Martin Fiedler ist Gründer und Geschäftsführer der MCL Munich Communication Lab GmbH. Der frühere Journalist berät Unternehmen und Organisationen zu Kommunikation und Veränderungsprozessen. Mit dem Projekt „Digitales Gesundheitswesen“ unterstützt
MCL Kliniken, Kassen, KVen, Verbände und Kommunen beim digitalen Wandel – mit Fokus auf Informationsfluss, Change und Kommunikation.
onsentwicklung. Jedes Unternehmen weiß: Wandel kostet – finanziell, personell, kulturell. Im Gesundheitswesen fehlt dafür ein definierter Topf.
Warum tun sich Kliniken so schwer, Digitalisierung als Organisations- und Kulturthema zu begreifen?
MF | Da sehe ich zwei Faktoren. Erstens technischer Lockin: Krankenhausinformationssysteme (KIS) sind oft monolithisch, proprietär und kontrollieren entscheidende Schnittstellen. Interoperabilität wird zwar regulatorisch gefordert, ist in der Praxis aber teuer oder eingeschränkt. Ein KIS-Wechsel gleicht einer Operation am offenen Herzen. Zweitens das Mindset: Viele Klinik-Vorstände sind faktisch Krisenmanager – getrieben von kurzfristigen Finanzkennzahlen und dem politischen Auftrag, Häuser am Laufen zu halten. Existenzdruck aus der Qualitätsperspektive fehlt, weil defizitäre Häuser oft politisch gestützt werden; private Träger digitalisieren tendenziell stringenter.
Gleichzeitig steigen Defizite und Insolvenzen. Müsste das den Druck nicht erhöhen?
MF | Branchenreports zeigen wachsende Defizitquoten und mehr Insolvenzen. Dennoch agiert Lokalpolitik häufig nach dem Motto „Unser Krankenhaus muss bleiben“ – als Symbol für Versorgungssicherheit. Das Ergebnis: Häuser werden gehalten, obwohl Qualität, Personaldecke und Ausstattung das kaum tragen. Der unmittelbare Druck, Kulturund Prozesswandel zu erzwingen, bleibt damit geringer als der Druck, den Status quo zu verwalten.
Sie warnen, KI könne den Insellösungs-Trend verschärfen. Wie lässt sich KI sinnvoll nutzen?
MF | KI kann in Einzelanwendungen spürbare Verbesserungen bringen – das verführt zu noch mehr „Insellösungen“. Sinnvoll wird es, wenn Kliniken KI in einen klar definierten End-to-End-Prozess einbetten: Vom Pre-Admission bis zur Überleitung. Dafür braucht es Governance, Daten- und Prozessstandards, Verantwortliche mit Mandat und Ressourcen – und nutzbare, sichere Kommunikation. Heute weichen Mitarbeitende mangels praktikabler Alternativen teils auf inoffizielle Kanäle wie WhatsApp aus. TI-Lösungen (z. B. KIM, TI-Messenger) müssen so einfach sein, dass sie den Alltag wirklich erleichtern – sonst setzt sich das Falsche durch.
Welche Führung und Strukturen sind nötig? Hilft ein Chief Digital Officer (CDO)?
MF | Ein CDO hilft nur, wenn er Macht, Budget und Rückendeckung hat – und nicht als Feigenblatt dient. Das Topmanagement muss ein Zielbild vorgeben, zum Beispiel: „So sieht unser digitaler Behandlungs- und Informationsfluss in drei Jahren aus“, dazu Meilensteine festlegen und Silogrenzen überwinden. Zentral ist eine Taskforce aus Unternehmenskommunikation, HR und IT: ein ge -
meinsamer Kommunikations- und Qualifizierungsstrang statt dreier unkoordinierter Kanäle. Ergänzend braucht es Multiplikatoren und Early Adopter in den Bereichen, die Erfahrungen teilen, Hürden melden und Lösungen in den Alltag tragen.
Könnten die Kliniken nicht zweigleisig vorgehen: Piloten in den Ambulanzen plus systematisches Change- und Kommunikationsmanagement – kann das schnell Wirkung zeigen?
MF | Ja. Klinikambulanzen sind oft näher an der Organisation von Arztpraxen, mit überschaubareren Prozessketten – das sind ideale Lernfelder für Anwendungen, Rollen, Schulung und Akzeptanz. Parallel sollte das Haus intern Strukturen schaffen, die dauerhaft Veränderung begleiten: Mandatierte Verantwortliche, ein kleines operatives Team, klare Kommunikation von Zielbild, Fortschritt und Stolpersteinen. Erfolg heißt nicht „Ein Tool eingeführt“, sondern: „Organisation und Belegschaft sind fähig, laufende Innovation zu verstehen und produktiv zu adaptieren.“
Wie realistisch ist das bei knappen Mitteln – woher kommt das Geld für diesen Weg?
MF | Vieles lässt sich durch Bündelung vorhandener Ressourcen erreichen. Die drei Kommunikationssilos – Unternehmenskommunikation, HR, IT – gibt es bereits. Effektiv wäre: Sie arbeiten als Taskforce mit klarer Zuständigkeit und dauerhaftem Auftrag. Das kostet weniger als neue Technik – verlangt aber Führungswillen. Wenn das Topmanagement Konflikte mit Silo-Interessen scheut, bleibt es beim „Projektmodus“ und Strohfeuern.
Was muss in den nächsten fünf Jahren passieren, damit Kliniken digital fit und patientenzentriert arbeiten?
MF | Weniger, dafür aber stärkere Häuser – besser vernetzt in regionale Versorgungsstrukturen. Konsequente Umsetzung von KHZG- und TI-Anforderungen als Basis. Vor allem aber: eine permanente Struktur für Veränderungsbegleitung aufbauen – personell, organisatorisch, kommunikativ. Wer das schafft, bleibt nicht nur wirtschaftlich relevant, sondern verbessert messbar die Versorgung.
Wie können Kliniken so etwas grundsätzlich aufsetzen?
MF | Wir haben dazu ein Zwölf-Monatsprogramm entwickelt. Es vereint Geschäftsführung, Unternehmenskommunikation, HR und IT, definiert ein Zielbild für den digitalen Behandlungs- und Informationsfluss und identifiziert Multiplikatoren in den Bereichen. Parallel werden anstehende Projekte so aufgesetzt, dass sie reibungsärmer eingeführt werden – mit klaren Rollen, Feedbackschleifen und transparenter Kommunikation. Ziel ist, in zwölf Monaten die „Change-Infrastruktur“ im Haus zu etablieren – als Startpunkt für dauerhaftes Lernen und bessere Umsetzung weiterer Digitalvorhaben. •

Rekursive KI-Systeme begleiten nicht nur Ärzte im Gespräch: Sie erkennen auch Zusammenhänge und liefern die Grundlage für sichere, kontextsensitive Entscheidungen in Klinik-Alltag. /// von Florian Schwieker
DIE DIGITALISIERUNG IN DER MEDIZIN HAT MIT DER EINFÜHRUNG KI-GESTÜTZTER SYSTEME große Erwartungen geweckt. Virtuelle Assistenten und sogenannte Ambient Scribes sollten die ärztliche Schreibarbeit verringern und mehr Zeit für Patientengespräche ermöglichen. Doch in der Praxis hat sich dieses Versprechen bisher oft nicht erfüllt. Statt einer Entlastung entstand zusätzliche Komplexität. Meist muss medizinisches Fachpersonal fehlerhafte KI-Resultate korrigieren, neue Risiken im Blick behalten und sich gleichzeitig in veränderten Abläufen zurechtfinden. Ihre Verantwortung für die medizinische Dokumentation bleibt dabei unverändert.
Ein zentrales Problem liegt dabei nicht allein in der Technik, sondern in der Denkweise hinter den Systemen. Viele aktuelle Lösungen behandeln ärztliche Gespräche als statische Datenblöcke. Doch die Gesundheitsversorgung ist ein vielschichtiger, dynamischer Prozess. Symptome entwickeln sich, Informationen entstehen in Etappen und Kontexte verändern sich innerhalb von Sekunden.
Künstliche Intelligenz mit klinischem Verstand Für diese komplexe Realität braucht es Systeme, die nicht nur aufzeichnen, sondern mitdenken. Genau hier setzt der Ansatz des rekursiven Denkens an. Statt eine abgeschlossene Unterhaltung nachträglich zu transkribieren, analysieren rekursive Systeme den Gesprächsverlauf in Echtzeit. Sie erkennen klinische Fakten unmittelbar, gleichen sie mit bereits bekannten Informationen und dem

DER AUTOR
Florian Schwieker
Patientenkontext ab und fügen sie direkt strukturiert in die Dokumentation ein. Diese Form der Echtzeitanalyse orientiert sich am Denkprozess erfahrener Kliniker. Sie erkennt Widersprüche, deutet Symptome im Kontext und passt das Verständnis fortlaufend an. Die daraus entstehende klinische Notiz ist keine bloße Abschrift. Sie bildet den Entscheidungsweg ab und schafft damit die Grundlage für transparente klinische Dokumentation.
Vertrauen entsteht durch Transparenz Ein entscheidender Vorteil dieser Systeme liegt in ihrer Nachvollziehbarkeit. Viele Mediziner stehen KI skeptisch gegenüber – besonders, wenn sie Ergebnisse liefert, ohne ihren Weg dorthin zu zeigen. Rekursive KI-Systeme machen ihre Logik sichtbar und ermöglichen es, während des Gesprächs einzugreifen oder zu korrigieren. So wird die Verantwortung für die Qualität der Dokumentation nicht auf einen einzigen Moment am Ende der Konsultation verlagert, sondern über den gesamten Ablauf hinweg gesichert.
„Wenn mehrere Symptome gleichzeitig auftreten, steigt die Komplexität erheblich. Kommen noch widersprüchliche oder unspezifische Befunde hinzu, wird es für jeden Kliniker nahezu unmöglich, alle Informationen strukturiert zu erfassen. Genau hier kann eine intelligente, kontextbezogene Unterstützung einen entscheidenden Unterschied machen“, sagt Dr. Lasse Krogsbøll, ehemals praktizierender Arzt am Bispebjerg-Spital in Kopenhagen. Diese kontinuierliche Begleitung im Entscheidungsprozess entspricht
ist Chief Commercial Officer bei Corti, einem dänischen Health-Tech-Unternehmen, das mithilfe von KI-Co-Piloten in Echtzeit bei Patientengesprächen assistiert.
” Der Ansatz des rekursiven Denkens reicht über die reine Notizenerstellung hinaus. Die zugrunde liegende Infrastruktur kann auch andere Anwendungen ermöglichen –
etwa bei der Differenzialdiagnose oder bei kontextsensitiven Warnhinweisen.
Florian Schwieker
nicht nur klinischen Anforderungen. Sie erfüllt auch die regulatorischen Forderungen an KI-gestützte Medizinprodukte. Gefragt sind Systeme, die prüfbar, erklärbar und sicher sind.
Mehr als nur Dokumentation




Der Ansatz des rekursiven Denkens reicht über die reine Notizenerstellung hinaus. Die zugrunde liegende Infrastruktur kann auch andere Anwendungen ermöglichen – etwa bei der Differenzialdiagnose oder bei kontextsensitiven Warnhinweisen. Dieser Ansatz verändert die Rolle von KI in der klinischen Umgebung grundlegend. Ein anschauliches Beispiel macht das Potenzial deutlich: Eine Ärztin spricht mit einem Patienten über Brustschmerzen. Die KI erkennt dabei nicht nur den Begriff. Sie prüft automatisch, ob ein EKG fehlt, ob Wechselwirkungen mit Medikamenten vorliegen und ob frühere Laborwerte auffällig waren. All das geschieht parallel zum Gespräch. Das ist möglich, wenn KI nicht nur aufzeichnet, sondern klinisches Denken in Echtzeit unterstützt.
Technologischer Wandel mit Augenmaß
Natürlich bringt dieser technologische Wandel neue Anforderungen mit sich. Echtzeitsysteme benötigen spezielle Infrastruktur, stabile Schnittstellen, geringe Latenz und klare Validierungsprozesse. Doch diese Herausforderungen sind lösbar, vor allem wenn die Technologie gezielt für den Einsatz in der medizinischen Praxis entwickelt wurde.
Entscheidend ist dabei nicht nur die technische Leistungsfähigkeit, sondern die Integration in bestehende Prozesse. Die Lösungen müssen nachvollziehbar, editierbar und objektiv überprüfbar sein. Vor allem aber müssen sie die ärztliche Rolle stärken – nicht ersetzen.
Vertrauen zurückgewinnen
baasith88/stock.adobe.com
Das Potenzial von KI im Gesundheitswesen liegt nicht in der Automatisierung, sondern in der gezielten Unterstützung ärztlicher Denkleistung. Informationen müssen geordnet, kontextualisiert und verständlich gemacht werden – in dem Moment, in dem sie entstehen. Rekursives Denken ist kein Allheilmittel. Aber es kann den Beginn einer neuen Phase markieren: einer Phase, in derKI nicht nacharbeitet, sondern mitarbeitet. Damit rückt in greifbare Nähe, was bislang gefehlt hat: eine KI, die wirklich mitdenkt und die medizinische Versorgung spürbar verbessert. •















Sichern Sie sich jetzt Ihr exklusives Abonnement! www.digital-business-cloud.de/ abonnement/
Paragraph 3 Abs. 2 KHTFV fördert die Umstrukturierung stationärer Einrichtungen zu sektorenübergreifenden Versorgungsformen. Viele Häuser digitalisieren jedoch nur innerklinisch mit Fokus auf die Förderrichtlinien. So entstehen Insellösungen, die dem Strukturziel widersprechen und den Projektnutzen einschränken. Darum müssen sektorübergreifende Versorgungsmodelle bereits in der Projektplanung einfließen. /// von Prof. Dr. Alexander Alscher und Dr. Christian Herles
Förderprogramme als Anlass für Digitalisierung
Das Krankenhauszukunftsgesetz (KHZG) war für viele Häuser der erste große Anstoß, in digitale Infrastruktur zu investieren. Viele Studien und internationale Vergleiche hatten bisher die Rückständigkeit der IT- und Digital-Infrastruktur von Krankenhäusern im internationalen Vergleich aufgezeigt. Dank dem KHZG wurden zahlreiche Digitalisierungsprojekte wie hauseigene Patientenportale umgesetzt und die Digitalisierung rückte zeitweise selbst zum Ziel auf, losgelöst von einer übergeordneten Strukturstrategie.
Mit dem Krankenhaus-Transformationsfonds-Verordnung (KHTFV) liegt nun ein anderes Instrument vor: Bis zu 50 Milliarden Euro für zehn Jahre stehen bereit, um Strukturen neu auszurichten und die Krankenhauslandschaft strukturell aber auch digital zu transformieren. Hier geht es nicht mehr um Digitalisierung als Selbstzweck, sondern um Digitalisierung als Mittel zum Strukturwandel.
”

IT-Projekte, letztere müssen lediglich Interoperabilität und IT-Sicherheit gewährleisten. Zwar konkretisiert das Bundesamt für Soziale Sicherung (BAS) diese groben Vorgaben durch weitere Richtlinien, die eigentliche Ausgestaltung bleibt jedoch weitgehend den Krankenhausträgern überlassen.
Umsetzung in der Praxis: typische Fehler Falsch wäre es nun, den Transformationsfonds als eine Art „KHZG 2.0“ zu sehen und ein streng auf Muss-Kriterien ausgerichtetes Einkaufsprojekt zu starten. Wer lediglich Checklisten abarbeitet, erzeugt Systeme ohne Anschlussfähigkeit: Patientenportale ohne Anbindung an die Praxisärzte, Dokumentationssoftware ohne Schnittstellen zur Pflege oder telemedizinische Lösungen, die nur innerhalb der Klinik funktionieren. Typische Fehler sind auch Projekte, die technische Hardware beschaffen, aber weder Prozesse noch Verantwortlichkeiten klären. So entstehen digita-
Wer bei der Projektplanung mehr an Vergabestellen als an seine eigenen Nutzer denkt, stellt eine geförderte Projektrealisierung sicher, nicht aber unbedingt einen echten und von den Anwendern gelebten Nutzen
Prof. Dr. Alexander Alscher, Dr. Christian Herles
Sektorenübergreifende Versorgung als zentrales Reformziel der Krankenhausreform und des Transformationsfonds Deutschland hält im internationalen Vergleich zu viele stationäre Kapazitäten vor, die zum Teil nicht die notwendige Anzahl an Eingriffen und Behandlungen gemäß Qualitätsvorgaben erfüllen. Ein bedeutendes Transformationsziel ist daher die Konzentration stationärer Leistungen und der Abbau von Doppelstrukturen. § 3 Abs. 2 KHTFV fördert Vorhaben, die bestehende Krankenhausstandorte in sektorenübergreifende Versorgungseinrichtungen umwandeln. Förderberechtigt sind Krankenhausstandorte, die als sektorenübergreifende Versorgungseinrichtung bestimmt wurden. Förderfähig sind dabei sowohl Baukosten als auch
le Insellösungen, die den Alltag eher verkomplizieren, als erleichtern und zugleich am Förderzweck vorbeigehen – nämlich sektorenübergreifende Versorgung tatsächlich zu ermöglichen. Wer bei der Projektplanung mehr an Vergabestellen als an seine eigenen Nutzer denkt, stellt eine geförderte Projektrealisierung sicher, nicht aber unbedingt einen echten und von den Anwendern gelebten Nutzen.
Projektnutzen sicherstellen
Wie kann sichergestellt werden, dass ein IT-Projekt nachhaltig ökonomischen und medizinischen Nutzen schafft? Wichtig ist erstens eine Klarheit über konkrete Anwendungsfelder und deren Nutzen („wozu“). Zweitens und basierend hierauf bedarf es einer guten Projektplanung („wie“).
Prof. Dr. Alexander Alscher(l.) ist Gründer und Geschäftsführer von samedi sowie Inhaber der Professur für Internationales Management an der BSP Berlin.
Dr. Christian Herles ist Rechtsanwalt und General Counsel bei samedi.

Sektorenübergreifende IT benötigt einen ganzheitlichen Ansatz, der auf konkrete Anwendungsfelder gerichtet ist.
• Dazu gehört mindestens ein integriertes Ressourcenmanagement, das bei der Planung im ambulanten und stationären Bereich Synergien schafft, um die knappen Ressourcen auch standortübergreifend zu optimieren und an die Versorgung anzupassen.
• Wichtiger noch ist der medienbruchfreie und sichere Transfer von Behandlungsdaten und Dokumentation, so dass Diagnosen, Medikationspläne und Pflegeanweisungen direkt und strukturiert zwischen Klinik, Hausärzten oder Pflegediensten übertragen werden.
• Telemedizinische Netzwerke schaffen neue Formen der Zusammenarbeit und neue Formen der Versorgung: Telekonsilien binden Spezialisten in Zentren ein, während Assistenzmodelle per Videoschaltung Expertise vor Ort unterstützen. „Fahrende Patientenportale” können über vernetzte Robotertechnologien, direkt die Ärzte zu den Patienten virtuell dazu schalten, ob in kooperierenden Krankenhäusern, Standort-übergreifenden Schichtdiensten oder sektorenübergreifenden Kooperationen.
Best Practices bei der Projektplanung

© koosy/stock.adobe.com
Damit solche Konzepte nicht Theorie bleiben, braucht es klare Prinzipien in der Projektplanung. Best Practices zeigen, dass vor allem Standardisierung, die Nutzung vorhandener Strukturen sowie die frühzeitige Einbindung medizinischer und technischer Partner entscheidend sind:
• Standardisierung nutzen: Wo immer möglich, auf bestehende Standards wie HL7 FHIR und bereits bestehende Schnittstellen zwischen Primär- und Sekundärsystemen setzen.

• Vorhandene Strukturen einbinden: Bereits bestehende Systeme – etwa KIS und PVS sowie bereits eingeführte Patientenportale integrieren.
• Modulare marktverfügbare Systeme und Portale statt Speziallösungen.
• Frühzeitige Einbindung stationärer Praxen und MVZ als Stakeholder.
• Kooperation mit IT-Partnern: IT-Architektur und Sicherheit gehören von Beginn an in die Projektplanung. ISO 27001 und C5 sind dabei wichtige Standards, die von Cloud-Dienstleistern für das Gesundheitswesen gelten und vorgeschrieben sind. Ein erfahrener Technologiepartner kann helfen, Interoperabilität und Datenschutzanforderungen realistisch umzusetzen.
• Gemeinsame Projektsteuerung mit Ansprechpartnern der IT-Partner und der internen Stakeholder.
• Frühzeitige Einbindung und Schulung der Anwender.
KHTFV als Chance
Die Förderung des Transformationsfonds folgt einer klaren Logik: Digitalisierung ist kein Selbstzweck, sondern Werkzeug zur Integration. Viele Häuser fokussieren de facto nur auf den Einkaufsprozess zur Erlangung der Förderfähigkeit. Das Förderprogramm ist aber nicht Zweck, sondern Mittel. Die Muss-Kriterien der Förderfähigkeit sollten nur der kleinste gemeinsame Nenner sein, im Vordergrund dagegen eine mutige Entscheidung für eine gemeinsame digitale Infrastruktur ambulanter Partner und innerklinischer Prozesse stehen.
Für die Sicherstellung des Projektnutzens bedarf es zweierlei: Konkrete Anwendungsbereiche für die sektorenübergreifende Nutzung als Projektziel und eine gute Projektsteuerung. Beides muss auf die praktischen Gegebenheiten des stationären und ambulanten Sektors eingehen. •
Cloud-Dienste sind längst das Rückgrat vieler Geschäftsprozesse. Doch die Abhängigkeit von einzelnen Anbietern, der Vendor-Lock-in, birgt Risiken – ein technisches und rechtliches Problem, das der EU Data Act seit dem 12. September 2025 adressiert. /// von Melanie Ludolph
WER HEUTE EINEN CLOUD-ANBIETER VERLÄSST, STÖSST SCHNELL AUF HÜRDEN: Kündigungsfristen sind lang, Daten liegen in proprietären Formaten vor, Schnittstellen fehlen oder die Kosten für den Wechsel sind schlicht zu hoch. Noch kritischer wird es, wenn Verträge keine klaren Regelungen für den Exit enthalten. Dann droht, dass Unternehmen ihre eigenen Daten nur mit großem Aufwand zurückbekommen – oder dass unklare Speicherorte rechtliche Risiken schaffen. Vendor-Lock-in ist damit mehr als eine Nebensache – es kann die Geschäftsfähigkeit gefährden.
Der EU Data Act als Ausweg Mit dem Data Act will die EU diese Abhängigkeiten aufbrechen. Kernstück sind neue Regeln für die Portabilität: Cloud-Anbieter müssen künftig sicherstellen, dass ein Wechsel innerhalb von 30 Tagen möglich ist. Kommerzielle, technische oder vertragliche Hindernisse sind verboten. Außerdem dürfen Anbieter bis Anfang 2027 noch Gebühren für den Wechsel verlangen – danach nicht mehr. Der Data Act verpflichtet Anbieter auch, transparent darzulegen, welche Daten in welchem Format exportiert werden können. Unfaire Vertragsklauseln sind untersagt. Vertragsdetails wie Exit-Klauseln, Portabilität und Speicherorte werden damit gesetzlich geregelt – dies könnte ein klarer Gewinn gerade für KMU werden, die bislang kaum Verhandlungsmacht hatten.
Was macht der Markt?
Noch ist die Umsetzung überschaubar. Zwar bereiten große Cloud-Anbieter ihre Verträge im Hintergrund auf die neuen Regeln vor, sichtbare Änderungen gibt es aber

DIE AUTORIN
Melanie Ludolph
kaum. Viele Unternehmen beobachten das Thema eher passiv. Das liegt auch daran, dass die EU-Kommission erst bis September 2025 Mustervertragsklauseln veröffentlichen will, die als Orientierung dienen sollen.
Solange bleibt Unsicherheit. Welche Anforderungen gelten konkret? Wie streng werden sie kontrolliert? Brancheninitiativen wie der EU Cloud Code of Conduct versuchen, Standards zu setzen. Doch der breite Markt verhält sich abwartend – und das, obwohl die Frist unmittelbar bevorsteht.
Risiken bei Nicht-Umsetzung
Für Anbieter kann es teuer werden, wenn sie ihre Verträge nicht rechtzeitig anpassen: Aufsichtsbehörden können Bußgelder verhängen, ähnlich wie bei der DSGVO. Aber auch Unternehmen, die Kundenseite, sollten nicht tatenlos bleiben. Wer seine neuen Rechte nicht kennt oder prüft, bleibt womöglich in alten Verträgen gefangen, zahlt weiter überhöhte Wechselkosten und riskiert, dass intransparente Speicherorte zu Compliance-Problemen führen. Digitale Souveränität gibt es also nicht zum Nulltarif – sie muss aktiv eingefordert werden.
Digitale Unabhängigkeit beginnt im Vertrag
Der EU Data Act lässt Vendor-Lock-ins nicht über Nacht verschwinden. Doch er verschiebt das Kräfteverhältnis zwischen Anbietern und Kunden spürbar. Wer jetzt seine Cloud-Verträge prüft, Exit-Klauseln verhandelt und sich mit Multi-Cloud-Strategien beschäftigt, kann die neuen Rechte wirksam nutzen. Wer abwartet, riskiert dagegen, weiter in Abhängigkeiten gefangen zu bleiben. Digitale Souveränität entscheidet sich nicht in Sonntagsreden, sondern im Kleingedruckten. •
Melanie Ludolph ist Rechtsanwältin bei der europäischen Wirtschaftskanzlei Fieldfisher. Seit fast zehn Jahren berät sie Unternehmen und internationale Konzerne aus verschiedenen Branchen zu allen Aspekten des Datenschutzrechts sowie angrenzenden Rechtsgebieten. Bild: Fieldfisher



Dell GmbH
Unterschweinstiege 10 60549 Frankfurt am Main www.delltechnologies.com
Dell Technologies unterstützt Organisationen und Pripersonen dabei, ihre Zukunft digital zu gestalten und Arbeitsplätze sowie private Lebensbereiche zu transformieren. Das Unternehmen bietet Kunden das branchenweit umfangreichste und innovativste Technologie- und Services-Portfolio für das Datenzeitalter mit dem Ziel, den menschlichen Fortschritt voranzutreiben – darunter Laptops, Desktops, Server, Netzwerke, Speichersysteme, Hybrid-Cloud-Lösungen und vieles mehr.
xSuite Group GmbH
Hamburger Str. 12 22926 Ahrensburg +49 4102 88380 info@xsuite.com www.xsuite.com
xSuite Group entwickelt und vermarktet Anwendungen zur Automatisierung dokumentenbasierter Geschäftsprozesse und ist Experte für die Rechnungsverarbeitung mit SAP, inkl. E-Invoicing, Auftragsmanagement und durchgängige P2P-Prozesse. Über 300.000 User verarbeiten mit xSuite mehr als 80 Mio. Dokumente pro Jahr. Die Lösungen werden in der Cloud und hybrid betrieben und sind für alle SAP-Umgebungen zertifiziert (ECC-Systeme, SAP S/4HANA, SAP S/4HANA Cloud, SAP Clean Core). Managed Services ergänzen das Angebot.
d.velop AG
Schildarpstraße 6-8
48712 Gescher +49 2542 9307-0 info@d-velop.de www.d-velop.de
Die d.velop-Gruppe entwickelt und vermarktet StandardSoftware zur durchgängigen Digitalisierung von dokumentenbezogenen Geschäftsprozessen On-Premises, in der Cloud und im hybriden Betrieb. Das Produktportfolio reicht vom Compliance-fähigen Dokumenten-Repository bzw. Archiv und digitalen Akten über die interne Kollaboration bis zur externen Zusammenarbeit über Organisationsgrenzen hinaus. Produkte von d.velop sind aktuell bei mehr als 15.000 Geschäftskunden und bei über 4,5 Millionen Menschen weltweit im Einsatz.
Esker Software Entwicklungs- und Vertriebs-GmbH Dornacher Straße 3a 85622 Feldkirchen info@esker.de www.esker.de
Esker bietet eine globale Cloud-Plattform zur Automatisierung von Dokumentenprozessen und unterstützt Finanz-, Einkaufs- und Kundendienstabteilungen bei der digitalen Transformation in den Bereichen Order-to-Cash (O2C) und Source-to-Pay (S2P). Die Lösungen von Esker werden weltweit eingesetzt und beinhalten Technologien wie künstliche Intelligenz (KI), um die Produktivität und die Transparenz im Unternehmen zu erhöhen. Zugleich wird damit die Zusammenarbeit von Kunden, Lieferanten und Mitarbeitenden gestärkt .

easy software
Jakob-Funke-Platz 1 45127 Essen +49 201 650 69-166 info@easy-software.com www.easy-software.com
Digitalisierungsexperte und führender ECM Software-Hersteller, easy, steht seit 1990 für rechtssichere, digitale Archivierung & effiziente, automatisierte Prozesse - auch im SAP-Umfeld. Über 5.400 Kunden in über 60 Ländern und allen Branchen vertrauen auf das Unternehmen und sein starkes Partnernetzwerk. Die erstklassigen Archivierungs-, ECM-, DMS-, P2P- und HCM-Softwarelösungen & Services sind das digitale Zentrum für datenbasierte Intelligenz und machen Menschen und Organisationen erfolgreich.
Sybit GmbH
Sankt-Johannis-Straße 1-5 78315 Radolfzell +49 7732 9508-2000 sales@sybit.de www.sybit.de
We Create Customer Experience Champions! Vom KI-gestützten CRM bis zum umfassenden Kundenportal: Die Sybit GmbH ist darauf spezialisiert, Customer Journeys End-to-End zu gestalten.
Ob Lösungen für Vertrieb, eCommerce, Service oder Marketing: Sybit ist der Partner für ganzheitliches Customer Experience Management. Als Europas führende Beratung für CX vertrauen uns über 500 Konzerne und weltweit agierende mittelständische Unternehmen.
2025
/// MEGA
Digitale Souveränität
Make Europa great again:
Wie Unternehmen um digitale Unabhängigkeit von amerikansichen Hyperscalern und chinesischer KI kämpfen
/// DIGITAL HEALTH
KI macht Tempo
Ärzte finden relevante Informationen fünfmal schneller und können Entscheidungen deutlich effizienter treffen
/// RECHENZENTREN
Nachhaltigkeit im Fokus
Immer mehr Rechenzentren arbeiten mit erneuerbaren Energien und schließen Power Purchase Agreements (PPAs) ab
/// ERP
Hybride Cloud
Unternehmen migrieren ERP Systeme komplett oder teilweise in die Cloud, um Flexibilität, Skalierbarkeit und geringere Vorlaufkosten zu nutzen
IMPRESSUM
DIGITAL BUSINESS Magazin www.digitalbusiness-magazin.de
HERAUSGEBER UND GESCHÄFTSFÜHRER
Matthias Bauer, Günter Schürger
So erreichen Sie die Redaktion
Chefredaktion:
Heiner Sieger (v. i. S. d. P.), heiner.sieger@win-verlag.de
Tel.: +49 (89) 3866617-14
Redaktion:
Konstantin Pfliegl, konstantin.pfliegl@win-verlag.de
Tel. +49 (89) 3866617-18
Stefan Girschner, stefan.girschner@win-verlag.de
Tel.: +49 (89) 3866617-16
Mitarbeiter dieser Ausgabe:
Sascha Albrink, Dr. Alexander Alscher, Lutz Beyer, Dr. Iris Bruns, Marco Eggerling, Martin Fiedler, Andreas Fuchs, Gherdi Glaser, Manuel Haug, Christian Herles, Dennis Hoppe, Stefan Karpenstein, Dr. Katrin Kobe, Janek Kuberzig, Melanie Ludolph, Sebastian Mayr, Christian Mehrtens, Johannes Meyer, Julia Neumann, Ulli Pieper, Dominic von Proeck, Fridel Rickenbacher, Dr. Urs Schneider, Jens Schübel, Florian Schwieker, Julian Sefarth, Daniel Stadler, Daniel Torgerson, Steffen Ullrich, Dr. Jan Wehinger
Stellvertretende Gesamtanzeigenleitung Bettina Prim, bettina.prim@win-verlag.de, Tel.: +49 (89) 3866617-23
Anzeigendisposition
Auftragsmanagement@win-verlag.de Chris Kerler (089/3866617-32, Chris.Kerler@win-verlag.de)
Abonnentenservice und Vertrieb
Tel: +49 89 3866617 46 www.digitalbusiness-magazin.de/hilfe oder eMail an abovertrieb@win-verlag.de mit Betreff „www.digitalbusiness“ Gerne mit Angabe Ihrer Kundennummer vom Adressetikett Artdirection/Titelgestaltung: DesignConcept Dagmar Friedrich-Heidbrink Bildnachweis/Fotos: stock.adobe.com, Werkfotos
Druck:
Vogel Druck und Medienservice GmbH Leibnizstraße 5 97204 Höchberg
Produktion und Herstellung Jens Einloft, jens.einloft@vogel.de, Tel.: +49 (89) 3866617-36 Anschrift Anzeigen, Vertrieb und alle Verantwortlichen WIN-Verlag GmbH & Co. KG Chiemgaustr. 148, 81549 München Telefon +49 (89) 3866617-0 Verlags- und Objektleitung
Martina Summer, martina.summer@win-verlag.de, Tel.: +49 (89) 3866617-31, (anzeigenverantwortlich)
Zentrale Anlaufstelle für Fragen zur Produktsicherheit
Martina Summer (martina.summer@win-verlag.de, Tel.:089/3866617-31)
Bezugspreise
Einzelverkaufspreis: 11,50 Euro in D, A, CH und 13,70 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Jahresabonnement (6 Ausgaben): 69,00 Euro in D, A, CH und 82,20 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Vorzugspreis für Studenten, Schüler, Auszubildende und Wehrdienstleistende gegen Vorlage eines Nachweises auf Anfrage. Bezugspreise außerhalb der EU auf Anfrage.
29. Jahrgang; Erscheinungsweise: 6-mal jährlich
Die nächste Ausgabe erscheint am 19.11.2025
Redaktionell erwähnte Firmen dieser Ausgabe
Bosch Quantum Sensing, BVDW, Celonis, Check Point Software, Consense, Corti, DFKI, Drivelock, Fieldfisher, Fraunhofer IPA, GData, Genua, Global Connect, HLRS, Leaders of AI, Lucid Software, MHP Consulting, Munich Communications Lab, NetApp, Noris Network, NMWP Management, NTTData Business Solutions, Sage, samedi, sixclicks, Swiss IT Consult
Einsendungen: Redaktionelle Beiträge werden gerne von der Redaktion entgegen genommen. Die Zustimmung zum Abdruck und zur Vervielfältigung wird vorausgesetzt. Gleichzeitig versichert der Verfasser, dass die Einsendungen frei von Rechten Dritter sind und nicht bereits an anderer Stelle zur Veröffentlichung oder gewerblicher Nutzung angeboten wurden. Honorare nach Vereinbarung. Mit der Erfüllung der Honorarvereinbarung ist die gesamte, technisch mögliche Verwertung der umfassenden Nutzungsrechte durch den Verlag – auch wiederholt und in Zusammenfassungen –abgegolten. Eine Haftung für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion vom Herausgeber nicht übernommen werden. Copyright © 2025 für alle Beiträge bei der WIN-Verlag GmbH & Co. KG
Kein Teil dieser Zeitschrift darf ohne schriftliche Genehmigung des Verlages vervielfältigt oder verbreitet werden. Unter dieses Verbot fällt insbesondere der Nachdruck, die gewerbliche Vervielfältigung per Kopie, die Aufnahme in elektronische Datenbanken und die Vervielfältigung auf CD-ROM und allen anderen elektronischen Datenträgern.
Ausgabe: 05/2025
ISSN 2510-344X
Unsere Papiere sind PEFC zertifiziert Wir drucken mit mineralölfreien Druckfarben
Außerdem erscheinen beim Verlag:

AUTOCAD Magazin, BAUEN AKTUELL, r.energy, DIGITAL ENGINEERING Magazin, DIGITAL MANUFACTURING, e-commerce Magazin, KGK Rubberpoint, PLASTVERARBEITER, PlastXnow


















Unser Verlagshaus ist einer der Pioniere und einer der führenden Fachzeitschriftenverlage im Bereich der Digitalen Transformation. Unsere B2B-Zeitschriften sind innovativ und gehören in ihren Bereichen jeweils zur Spitzengruppe.
Sie möchten mit Ihrer Kreativität den Erfolg unserer Fachmagazine mitgestalten?
Dann sind Sie bei uns richtig. Derzeit suchen wir engagierte Mediaberater (m/w/d) in Voll- oder Teilzeit.
Wir freuen uns auf Ihre aussagekräftige Bewerbung unter https://win-verlag.de/karriere/



Willkommen bei der Podcast-Plattform des Digital Business Magazins –Ihrer Quelle für intelligente Expertise! Lernen Sie von Branchenexperten, Vordenkern und Innovatoren. Wir liefern präzise Insights, aktuelle Trends und praxisnahe Strategien direkt in Ihre Ohren. Ob Führungskraft, Professional oder ewig Lernender: Verpassen Sie keine Episode und bleiben Sie an der Spitze des digitalen Wandels. Ihr Wissensvorsprung startet hier!
