Security Insider – SECURITY VISIONEN 2026

Page 1


SECURITY VISIONEN

WWW.SECURITY-INSIDER.DE 10/2025

Preis: 16,50 €

VON

EIN BLICK IN DIE FERNE ZUKUNFT

Besuchen Sie uns in Halle 9, Stand 434

Machen Sie Ihr Unternehmen NIS2-Ready mit ESET Technologien aus der Europäischen Union

das Ziel unserer Sonderausgabe „Security-Visionen 2026“ ist klar: Wir wollen Strategien, Technologien und Menschen für die Sicherheit von morgen präsentieren. Doch was bedeutet das konkret? Wir zeigen zusammen mit Security-Experten und Fachleuten, wie IT-Sicherheit vom Cost Center zum Enabler wird. Vom strategischen Rahmen bis zur praktischen Umsetzung und darüber hinaus.

Strategisch geht es ganz klar um die digitale Souveränität Europas als Handlungsmaxime: Weniger Abhängigkeiten, mehr Kontrolle über Daten und Infrastrukturen, robustere Lieferketten, kurz: Gestaltungsfreiheit. Unerlässlich sind dafür auch zukunftsfeste Architekturen. Zero Trust und Cloud-Edge-Security bringen Sicherheit agil und skalierbar dorthin, wo Daten und Teams arbeiten.

Technologie wirkt auch in der IT-Security als Booster: KI ist allgegenwärtig und unterstützt Detektion, Triage und Response. Quantencomputer machen gewaltige Fortschritte und zwingen Unternehmen dazu, sich mit Post-Quanten-Kryptografie zu befassen und die Blockchain liefert Kontrolle, Integrität und Nachvollziehbarkeit für Identitäten und die Lieferkette.

Neben Technologie braucht es aber auch praktische strategische Ansätze, um Sicherheit bei der digitalen Transformation strukturell und prozessual zu verankern. Die Cyber-Resilienz muss hier ganz oben in der Prioritätenliste stehen und – egal ob mit oder ohne Regulierungen – gehören auch Security by Design und Supply-Chain-Sicherheit auf die Tagesordnung. Nicht als Compliance-Haken, sondern als Schritt zu durchgängiger Security von A bis Z.

Am Ende entscheidet aber auch die Firmenkultur über die Sicherheit. Eine Führung die Security vorlebt – als Chefsache und mit dem CISO als strategischem Partner – ist entscheidend damit der Mensch zur tragenden Säule der Sicherheitsstrategie wird.

Aber wie geht es dann weiter? Dass Cyberkriminelle ihre Attacken laufend weiterentwickeln, ist bekannt. Die gute Nachricht ist: Es gibt auch in der IT-Security beeindruckende Forschung, die heute vielleicht noch nach Sci-Fi klingt, aber morgen oder übermorgen schon Realität sein kann. Es lohnt also, einen Blick in die Zukunft zu werfen und sich von Security-Visionen inspirieren zu lassen. Mit unserer gleichnamigen Sonderausgabe wollen wir Impulse liefern, damit Sie die Informationssicherheit 2026 und darüber hinaus als Wachstumsmotor für sich und Ihr Unternehmen nutzen können. Für stabile Prozesse, vertrauenswürdige Produkte und klare Wettbewerbsvorteile.

Herzlichst, Ihr

Peter

Chefredakteur

Digitale Souveränität in Europa Abschied von den Ketten

Post-Quanten-Kryptografie im Unternehmen Mit quantensicherer Kryptografie entspannt in die Zukunft

Martin Merz SAP

Warum wir Souveränität neu denken müssen

Architekturen der Zukunft So werden Unternehmen zukunftsSICHER

Die Zukunft des Datenschutzes Wird der Datenschutz zu einem Unternehmensrisiko?

Cyber-Resilienz beginnt bei der Identität –mit PAM zur sicheren IT-Architektur

IT Security made easy: Wie eine PlattformStrategie IT-Abteilungen das Leben leichter macht

Souverän sicher vor Cyberbedrohungen mit G DATA Managed Extended Detection and Response

Cyberbedrohungen entwickeln sich schnell - machen Sie ihre Mitarbeiter zu sicheren Fahrern im Rennen.

KNOWBE4 Die schleichende Bedrohung: wie die Cyber Kriminalität KMUs gefährdet

Dezentralisierung von Security Blockchain hebt Vertrauen auf den nächsten Level

Security by Design

Digitale Transformation mit eingebauter Sicherheit

Cyberresilienz in Unternehmen

Sicherheit auf die gallische Art

DEN KETTEN

DIGITALE SOUVERÄNITÄT

IN EUROPA

WAS SECURITY-FORSCHER HEUTE FÜR ÜBERMORGEN

ENTWICKELN

Supply-Chain-Sicherheit

EIN BLICK IN DIE FERNE ZUKUNF

Schutz der Lieferkette in vernetzten Ökosystemen

STRATEGIEN, TECHNOLOGIEN UND MENSCHEN FÜR DIE

wir alle Links zu Quellen und weiterführen den Informationen mit ROT markiert.

Der menschliche Faktor in der IT-Sicherheit

Der Security Flügel verleihen

SICHERHEIT VON MORGEN

ARCHITEKTUREN DER ZUKUNFT SO WERDEN UNTERNEHMEN ZUKUNFTSSICHER

LEADERSHIP

Sicherheitsorganisation & Leadership Security als Teil der Unternehmensstrategie

So können Sie auf einen Blick erkennen, wo Sie noch tiefer in ein Thema eintauchen können. Wenn Sie mehr über diese verknüpften Informationen erfahren möchten, besuchen Sie einfach die digitale Version des Magazins via QR-Code oder unter:

SECURITY ALS TEIL DER UNTERNEHMENSSTRATEGIE

Ein Blick in die ferne Zukunft

Was Security-Forscher heute für übermorgen entwickeln

KI in der Cybersicherheit: Gamechanger oder Sicherheitsrisiko für Unternehmen?

So wird Cybersecurity proaktiv

Zwischen Geschwindigkeit und Präzision: Die Rolle von Datenqualität im KI-gestützen SOC

So schützt sich der Mittelstand gegen moderne Cyberbedrohungen

Zscaler bietet Zero Trust Everywhere für aktuelle Cybersicherheits-Anforderungen

SECURITY BY DESIGN DIGITALE TRANSFORMATION MIT EINGEBAUTER SICHERHEIT

Dort sind alle gekennzeichneten

Links direkt für Sie anklickbar und führen Sie zu wertvollen zusätzlichen Inhalten.

security-insider.de/Security-Visionen-2026

IMPRESSUM

Anschrift Max-Josef-Metzger-Str. 21 86157 Augsburg / Telefon +49 (0) 821/2177-0

Web Security-Insider.de

Geschäftsführer Tobias Teske, Günter Schürger

Idee & Projektleitung

Markus Späth, Co-Publisher

Layout & Gestaltung Alexander Preböck, AD Chefredakteur Peter Schmitz, V.i.S.d.P., peter.schmitz@vogel.de

Sales insider.sales@vogel.de Erscheinungstermin Oktober

Titelbild A. Preböck (M) / stock.adobe.com Haftung Für den Fall, dass Beiträge oder Informationen unzutreffend oder fehlerhaft sind, haftet der Verlag nur beim Nachweis grober Fahrlässigkeit. Für Beiträge, die namentlich gekennzeichnet sind, ist der jeweilige Autor verantwortlich.

Copyright Vogel IT-Medien GmbH. Alle Rechte vorbehalten. Nachdruck, digitale Verwendung jeder Art, Vervielfältigung nur mit schriftlicher Genehmigung der Redaktion.

DIGITALE SOUVERÄNITÄT IN EUROPA ABSCHIED DEN KETTEN

RISSE DURCHZIEHEN DAS GEFÜGE GLOBALISIERTER

ARBEITSTEILUNG, BEI DER JEDE VOLKSWIRTSCHAFT DAS

BEITRÄGT, WAS SIE AM BESTEN KANN. DAS EINE LAND

ELEKTROGERÄTE, DAS ANDERE ÖL UND GAS, DAS EINE

AUTOS, DAS ANDERE NETFLIX-SERIEN UND

TAYLOR SWIFT. DENN DAS BLOCKDENKEN

ERLEBT EINE FULMINANTE RENAISSANCE,

WENN AUCH IN KOMPLIZIERTERER KONSTELLATION

ALS ZU ZEITEN DES KALTEN KRIEGS. IT-SERVICES LIEFERN

DABEI HEUTE EINE MÄCHTIGE KEULE, UM DRUCK

AUSZUÜBEN. DESHALB STEHT DIE

FRAGE DER DIGITALEN SOUVERÄNITÄT

EUROPAS IM GRELLEN RAMPENLICHT.

UND SCHEINT SICH DORT RECHT UNWOHL ZU FÜHLEN.

AUTOR: Dr. Wilhelm Greiner

Wer sich – nur so als Gedankenspiel, bitte nicht nachmachen! – ausschließlich von Angeboten einschlägiger Fast-Food-Ketten ernährt, schadet nicht nur seiner Gesundheit, sondern auch seiner Souveränität als Verbraucher. Natürlich könnte der überzeugte Junkfood-Gourmet argumentieren: „Ich entscheide souverän, welche Kette ich aufsuche, und ich stelle auch mein Menü selbst zusammen!“ Doch die Burger-Box mit ihren immer gleichen Angeboten aus den immer gleichen Bausteinen birgt lediglich Scheinsouveränität. Denn über die Qualität seiner Ernährung hat unser Scheingourmet keine Kontrolle: Die Zentrale der Fast-Food-Kette bestimmt, was auf den Teller bzw. in die Pappschachtel kommt. Und wenn sie das Lieblingsmenü des Kunden plötzlich absetzt, dann ist das eben so.

DESOUVERÄNISIERUNG

Kürzlich erlebte Karim Khan, was es bedeutet, wenn der IT-Lieferant des Bis-dato-Vertrauens plötzlich sagt: „Sorry, McMailaccount ist aus, kriegen wir auch nicht mehr rein.“ Denn wie AP News berichtete, hatte Microsoft dem Chefankläger des Internationalen Strafgerichtshofs (IStGH) in Den Haag den Zugang zu dessen E-Mail-Konto gesperrt, offenbar auf Druck der US-Regierung, ermittelt Khan doch unter anderem gegen Trump-Freund Benjamin Netanjahu. Khan musste auf den Schweizer Secure-Mail-Provider ProtonMail ausweichen.

Der IStGH-Vorfall fand als Beispiel für mangelnde digitale Souveränität auch hierzulande beträchtliche Resonanz. Denn er machte überdeutlich, was vielen Entscheidern längst klar war – insbesondere jenen, die lange zögerten oder immer noch zögern, sensible Daten auf Public Clouds zu verlagern: In der Ära ungebremster Globalisierung hatte sich Europa in IT-Dingen von den USA so stark abhängig gemacht wie Deutschland bis vor Kurzem vom russischen Erdgas und Fast-FoodFans von McDonald’s & Co.

„Die EU hat in vielen Gebieten sehr nachgelassen und vieles vom Ausland aufkaufen lassen“, bemängelt Manuel Atug, Gründer und Sprecher der unabhängigen Arbeitsgruppe (AG) KRITIS. „Die Telekom zum Beispiel hat Mobilfunkmasten an Amerikaner verkauft und dann zurückgemietet“, so Atug. „Damit gibt man natürlich Souveränität aus der Hand.“ Es gehe aber nicht allein um die USA: „Hinzu kommt, dass China eine Strategie der Deindustrialisierung anderer Länder verfolgt. Das führt zu einer Desouveränisierung dieser Länder.“

Praktisch kein deutsches Unternehmen kommt laut Bitkom-Umfrage ohne IT-Bausteine aus dem Ausland aus. Das muss aber kein Problem sein, solange kein Abhängigkeitsverhältnis besteht.

Bildquelle: Bitkom Research

Der Kern des Problems: Über die Hälfte der Befragten schätzt, dass ihr Unternehmen von digitaler Technik aus dem Ausland stark abhängig ist, ein weiteres Drittel „eher abhängig“.

Bildquelle: Bitkom Research

Die Hauptbezugsländer für die IT deutscher Unternehmen sind laut Bitkom-Umfrage die EU und die USA, gefolgt von China. Bildquelle: Bitkom Research

Die Folge: Bei einer Bitkom-Umfrage unter 600 Unternehmen in Deutschland mit mehr als 20 Mitarbeitern bezogen 96 Prozent der befragten Unternehmen digitale Technik oder Leistungen aus dem Ausland. Als Herkunftsländer lagen die EU und die USA mit jeweils 87 Prozent gleichauf, China folgte mit 78 Prozent. Und 90 Prozent gaben an, man sei „stark“ oder „eher“ abhängig von den ausländischen Liefe ranten. In puncto Digitalisierung hat sich Deutschland also eine beträchtliche Abhängigkeit vom Ausland aufgetischt. Eine Zahl aus dem Draghi-Report zur europäischen Wettbewerbsfähigkeit belegt das sehr schön: Der größte europäische Cloud-Anbieter erreicht nur zwei Pro zent Anteil am europäischen Cloud-Markt.

ELEFANT IM RAUM

Doch seit sich Donald Trump im Weißen Haus wie der Elefant im Por zellanladen benimmt, hat manch ein Entscheider in Europa Appetit bekommen, über den Tellerrand hinauszublicken. „Bereits seit Ende 2023 häufen sich bei uns Anfragen zu Datensouveränität, operationa ler und technologischer Souveränität“, berichtet Gartner-Analyst René Büst. Der „Elefant im Raum“ sei dabei der Kill-Switch, also die Frage: Kann die US-Regierung die Hyperscaler anweisen, uns Services zu verweigern? „Angesichts von Äußerungen Trumps steigen bei uns vor allem die Anfragen aus Kanada und Dänemark stark an“, so Büst. „Dänemark ist traditionell sehr Microsoft-lastig. Deshalb überlegt man

„Pragmatisch ist es für Europa derzeit nahezu unmöglich, digital souverän zu sein“, sagt Gartner-Analyst René Büst. Bildquelle: Gartner

dort: Wie können wir uns davon unabhängiger machen?“ Es gehe bei diesen Überlegungen aber nicht zwangsläufig um US-Technologie, sondern generell um das Deployment-Modell.

Sorgen bereitet also vorrangig die weit verbreitete Abhängigkeit vom Oligopol der großen Cloud-Provider (Hyperscaler), insbesondere in puncto Datensouveränität. Zwar bieten alle Hyperscaler inzwischen europäische Rechenzentren, Kooperationen mit EU-Partnern, als „souverän“ vermarktete regionale Clouds oder auch eine „Datengrenze“. Zugleich gelten die USA rein rechtlich – obschon in der Vergangenheit mehrfach per Gerichtsurteil gekippt – derzeit mal wieder als Drittland mit Datenschutz gemäß EU-Ansprüchen. Doch US-Anbieter unterliegen dem Cloud Act und der besagt: US-Behörden können auf Daten zugreifen, die US-Provider gespeichert haben – auch im Ausland. Dies widerspricht zwar EU-Recht, aber man kann getrost davon ausgehen, dass das Trump-Regime sich darum nicht weiter schert. US-Behörden können den Unternehmen zudem sogar untersagen, ihre Kundschaft über Zugriffe zu informieren.

Da beruhigte es EU-Gemüter nicht wirklich, als ein Microsoft-Manager jüngst bei einer Anhörung vor dem französischen Senat unter Eid zugeben musste: Auch in europäischen Microsoft-Rechenzentren sind Kundendaten nicht vor US-Zugriff geschützt. Die „Datengrenze“ (die bei tatsächlich gleich hohen Datenschutzniveaus übrigens überflüssig wäre) erwies sich damit als Luftnummer – während der Vorfall rund um Karim Khan zeigte: Selbst hochsicher verschlüsselte Daten sind nutzlos, wenn der Hyperscaler mir den Zugang dazu verwehrt. Kurz: „Digitale Souveränität ist aus. Aber die Dessertkarte könnte ich Ihnen bringen.“

DIGITALE SOUVERÄNITÄT VS. AUTARKIE

Die Frage ist damit: Wie erreicht man digitale Souveränität? Viele europäische IT-Anbieter nutzen wenig überraschend die Gunst der Stunde und plädieren für eine Förderung oder gar Bevorzugung von – man errät es –europäischen IT-Anbietern. Das mag mit Blick auf Microsoft 365 und hiesige Alternativen Sinn ergeben, vermischt in seiner Pauschalität allerdings digitale Souveränität mit einem Wunsch, der stets im Hinterkopf lauert: dem nach digitaler Autarkie.

So hat sich als Reaktion auf angekündigte und inzwischen auch mit der EU vereinbarte US-Zölle im Consumer-Markt längst eine „Buy European“-Bewegung formiert, und auch die Nachfrage nach der einstigen Kultmarke Tesla ist eingebrochen, seit Tesla-Chef Elon Musk für Trump den Kettensä -

genmann im Porzellanladen gab. Im IT-Markt wäre dieses Vorgehen hingegen ein Problem. Denn es ließe sich in der Praxis höchstens punktuell umsetzen.

„Pragmatisch ist es für Europa derzeit nahezu unmöglich, digital souverän zu sein“, urteilt Gartner-Analyst Büst. „Das beginnt schon bei der Chip-Ebene. Auch hat Europa keine eigenen namhaften Server-Hersteller mehr.“

Zwar gibt es Provider wie OVH, die eigene Server bauen, aber die Komponenten kommen auch hier aus Asien, so Büst.

„Oft wird digitale Souveränität gleichgesetzt mit Autarkie, im Hinblick auf Cloud, Software, Hardware, Datenschutz etc.“, sagt auch Professor Dr. Dennis-Kenji Kipker, Forschungsdirektor am Cyberintelligence Institute (CII). „Wir können es uns aber nicht leisten, uns komplett von bestehender Technik abzukoppeln, weder in Deutschland noch in der EU. Kein Staat kann sich das leisten. Selbst die Vereinigten Staaten oder die Volksrepublik China sind abhängig von digitalen Lieferketten.“

EUROPÄISCHE ALTERNATIVEN

Für zahlreiche digitale Produkte gibt es europäische Alternativen. Eine Zusammenstellung bündelt Softwareentwickler Constantin Graf auf der Website european-alternatives.eu.

„Wir können es uns nicht leisten, uns komplett von bestehender Technik abzukoppeln, weder in Deutschland noch in der EU“, warnt CII-Forschungsdirektor Dennis-Kenji Kipker. Bildquelle: Cyberintelligence Institute

Europa sieht der Experte im globalen Vergleich in puncto digitaler Souveränität „gar nicht so schlecht aufgestellt“, wenn auch mit Lücken bei Softwareentwicklung und Hardwareversorgung. Kipker warnt allerdings: „Immer mehr Software-as-a-Service bedeutet automatisch auch: Wir haben immer weniger Kontrolle über die digitalen Lieferketten.“ Es gehe dabei auch um die Kontrolle von Marktmacht. Diese müsse aber keineswegs außerhalb Europas konzentriert sein. „Cloud Computing ist kein extrem komplexes Geschäft“, sagt Kipker, „und wir haben sehr viele Cloud-Anbieter in der EU.“

„Digitale Souveränität heißt nicht Autarkie, sondern Wahlfreiheit und Kontrolle“, so Horst Robertz, Director Public Sector and Healthcare bei Nutanix Deutschland. Bildquelle: Nutanix

DIE GAR NICHT SO GROSSE QUAL DER WAHL

Horst Robertz, Director Public Sector and Healthcare bei Nutanix Deutschland, bringt den entscheidenden Aspekt auf den Punkt: „Digitale Souveränität heißt nicht Autarkie, sondern Wahlfreiheit und Kontrolle.“ Denn wer flexibel zwischen Hypervisoren, offenen und proprietären KI-Modellen, klassischer und Cloud-nativer Technik sowie zwischen IT-Umgebungen wechseln kann, behält die Kontrolle über die Daten, die Kosten und den Betrieb, so Robertz.

Das Ziel ist somit klar umrissen: Sich das Menü aus Hardware, Software und IT- oder Cloud-Services nach Gusto à la carte zusammenstellen zu können, statt auf die allzu verführerischen Angebote der marktbeherrschenden IT-Systemgastronomie angewiesen zu sein. Und dies ohne Abstriche bei Funktionalität, Verfügbarkeit, Security und KostenNutzen-Verhältnis, aber bitte mit Datenschutz-Sahne. Und dann noch KI, aber bitte auf einem Extra-Teller, vielen Dank!

AUFBRUCH ZU MEHR SOUVERÄNITÄT

Wie aber soll es die letzthin souveränitätsbegeisterte EU schaffen, die erdrückende, allzu lang akzeptierte Marktdominanz der US-Hyperscaler abzuschütteln? „Schritt eins wäre das Identifizieren der Abhängigkeiten von ausländischen Digitaltechnologieanbietern“, sagt Michael Barth, Abteilungsleiter Strategy beim deutschen Security-Ausrüster Genua. Danach ist laut Barth zu klären, welche dieser Abhängigkeiten besonders kritisch sind und wo Risiken bestehen. Drittens sei die Frage zu beantworten, ob man diesen Risiken etwas entgegensetzen kann, etwa durch Maßnahmen zur Cybersicherheit.

„Die Dominanz der US-Hyperscaler ist nicht über Nacht entstanden“, kommentiert Mirko Ross, Chef des OT-Risikoanalyse-Anbieters Asvin aus Stuttgart. Sie sei vielmehr das „Resultat von Angebot und Nachfrage, aggressiver Vermarktung und nicht zuletzt einer massiven Unterstützung durch staatliche Auftraggeber“. Deshalb fordert er im Einklang mit zahlreichen hiesigen Branchenvertretern: Europa muss über Investitionsprogramme konsequent den Aufbau eigener Industrien und Märkte fördern.

Für mehr digitale Souveränität der EU sind laut Mark Neufurth, Lead Strategist Marketing beim Cloud-Provider Ionos aus Montabaur, fünf Punkte zentral: die Stärkung souveräner Cloud- und KI-Angebote, öf fentliche Beschaffung als Hebel für digitale Souveränität, der Ausbau nachhaltiger und verteilter Cloud- und KI-Infrastrukturen, Datensouve ränität durch offene Standards und Interoperabilität sowie schließlich ein fairer Wettbewerb. „Wir haben in Europa starke Anbieter, die sich nicht verstecken müssen“, sagt Neufurth. „Europa kann Cloud, Software und KI. Wir brauchen Nachfrage, um skalieren zu können und manche Service- und Integrationslücken zu schließen.“

Eine wichtige Rolle hier fällt nach Neufurths Ansicht der öffentlichen Hand zu. Dies dürfe man aber nicht mit Subvention verwechseln. Viel mehr übernehme die öffentliche Beschaffung „die Rolle des Venture Capital als Grundlage für Investitionen in europäische IT“. Das Ziel: lokale digitale Wertschöpfung ermöglichen und somit den Wohlstand erhalten.

KAUFKRAFT UND OFFENE STANDARDS

Dennis-Kenji Kipker drängt darauf, dass die EU mit ihren 450 Millionen Einwohnern ihre Marktmacht nutzen sollte. „Aufgrund unserer enormen Kaufkraft können wir vorgeben, wie Unternehmen bei uns tätig werden und welche Auflagen und Sicherheitsanforderungen deren Produkte erfüllen müssen“, so Kipker. „Außerdem sollten Lobby-Bestrebungen stärker offengelegt werden.“

Auf der Technikseite raten Branchenkenner zu einem stärkeren Fokus auf offene Standards für ein föderiertes Umfeld, das den Anwendern Wahlfreiheit bietet und den Anbieterwechsel erleichtert. „Mit SECA [Sovereign European Cloud API, Anm. d. Red.] setzen wir bereits zusammen mit Partnern wie Aruba und Dynamo ein Zeichen für ein interoperables europäisches Cloud-Ökosystem“, so Ionos-Manager Neufurth. SECA soll als Teil der EuroStack-Initiative eine souveräne europäische Cloud-Infrastruktur ermöglichen, nachdem GAIA-X, ein 2019 groß angekündigtes Projekt für einen sicheren europäischen Datenraum, vor sich hin schmort, scheinbar ohne je gar werden zu wollen.

Zugleich plädieren zahlreiche Branchenkenner für den verstärkten Einsatz quelloffener Software: „Open Source mit guter Governance ist ein bedeutsamer Hebel für Souveränität“, sagt zum Beispiel IonosMann Neufurth.

„Ich muss richtig in Richtung Open Source transformieren. Dann kann ich den Lock-in beseitigen und gleichzeitig produktiver und nebenbei auch wirklich souveräner werden“, so AG-KRITIS-Sprecher Manuel Atug.

Bildquelle: Manuel Atug

/ (c) Katrin Chodor

Photography

Insbesondere die Kombination von Open Source mit offenen Standards hat Potenzial. „Open Source heißt nicht gleich offene Standards, aber viel Open Source basiert auf offenen Standards“, erläutert KRITIS-Experte Atug. „Diese können einen sehr hohen Automatisierungsgrad an den Tag legen“, fügt er hinzu. Man dürfe aber nicht einfach 1:1 zu Open Source wechseln, das werde sonst ein „Rohrkrepierer“: „Ich muss richtig in Richtung Open Source transformieren. Dann kann ich den Lock-in beseitigen und gleichzeitig produktiver und nebenbei auch wirklich souveräner werden“, so Atug.

Jedoch: „Open Source ist nur ein Teilbaustein“, warnt Prof. Kipker. „Es wäre Augenwischerei zu behaupten, man könne allein dadurch digitale Souveränität herstellen.“ Natürlich werde es weiterhin Anbieter proprietärer Software geben, daran habe auch die europäische Digitalwirtschaft ein Interesse. „Es kommt vor allem auf die Vielfalt an“, sagt Kipker, „und auf die Frage: Was kann ich wo am sinnvollsten einsetzen?“

EXPERIMENTALKÜCHE

Für Entscheider in Unternehmen, die nach mehr digitaler Souveränität hungern, heißt es deshalb nun: IT-Landschaft analysieren, Abhängigkeiten identifizieren, Risiken priorisieren und dann strukturiert minimieren. „Unternehmen benötigen als Erstes eine Asset-Analyse mit Blick auf Vendor Lock-in [Fesselung an einen Anbieter oder Hersteller, Anm.d.Red.], offene Standards und Schnittstellen“, sagt zum Beispiel KRITIS-Experte Atug. „Dann müssen Schritte folgen, um den Vendor Lock-in Stück für Stück abzubauen, das muss ein strategisches Unternehmensziel sein.“

Während Ausrüster wie HPE oder Nutanix den Cloud-artig flexiblen

On-Premises-Hardwarebetrieb als Public-Cloud-Alternative propagieren, rät CII-Experte Kipker zu einer Multi-Cloud-Strategie: „Das bricht die Marktmacht der großen Monopolisten auf und bietet zugleich Vorteile für die europäische digitale Souveränität.“ Denn die Marktmacht der großen Player könne dann die Startups und Scale-ups nicht erdrücken.

„Wer Hyperscaler nutzt, sollte sich bewusst sein, worauf er sich einlässt, wo seine Daten landen können und wie die Applikationen lauffähig bleiben können“, mahnt Neufurth. Insbesondere öffentliche Stellen und regulierte Unternehmen sollten laut dem Ionos-Mann keine Dienste einsetzen, die Gesetzen wie dem Cloud Act unterliegen, nur weil es bequem ist. „Scheinsouveränität hilft hier nicht weiter“, warnt er. Wer Hyperscaler nutze, müsse zudem eine klare Exit-Strategie definiert haben.

INNOVATIVE REZEPTE GEFRAGT

In der EU scheint die Zeit des gedankenlosen IT-Konsums vorbei. Allerdings wird nicht alles so heiß gegessen, wie es gekocht wird. Schließlich ist Fast Food doch so verlockend bequem: schnell, agil, as a Service! Man kann der EU auf ihrer Reise zu mehr digitaler Souveränität deshalb nur einen scharfen Analyseblick wünschen, kombiniert mit Durchhaltevermögen und konsequentem Beharren auf der Durchsetzung der EU-Regulatorik, die ja genau diese souffléartig aufgeblähte US-Übermacht vom Tisch fegen soll. Unternehmen in der EU müssen dabei aber auch ein Auge darauf behalten, wo angesichts der aktuell verfügbaren IT-Speisekarten die Grenzen des À-lacarte-Genusses liegen. Denn die IT-Lieferkette lässt sich so leicht wechseln wie ein Restaurant – die Fesselung an marktbeherrschende Anbieter ist in vielerlei Hinsicht real.

Laut Manuel Atug ist dieser Vendor Lock-in – das Tier war oben schon zu Besuch – der „Elefant im Raum“. Sein Rat: „Wie isst man einen Elefanten? Nicht am Stück, sondern scheibchenweise!“ Kulinarisch ist das eine etwas gewöhnungsbedürftige Empfehlung. Aber sei’s drum: guten Appetit!

AUTOR: Dr. Wilhelm Greiner

INTERVIEW

„In unserer Forschung setzen wir weitestgehend darauf, lokale Lösungen für unsere Nutzer zu verwirklichen“, sagt Björn Schuller, Prof. of Health Informatics an der TU München.

Bildquelle: (c) Andreas Heddergott (TUM)

PRAXISBEISPIEL: DIGITALE SOUVERÄNITÄT IN DER GESUNDHEITSFORSCHUNG

Wie steht es um die digitale Souveränität aus Anwendersicht? Security-Insider befragte dazu Björn Schuller, Prof. of Health Informatics an der TU München und Prof. of Artificial Intelligence am Imperial College London. Als Wissenschaftler am Schnittpunkt von medizinischer und KI-Forschung arbeitet Schuller an der Speerspitze der KI-Anwenderschaft –und hat damit den Finger am Puls der Abhängigkeiten beim KI-Einsatz.

Security-Insider: Wie stellt sich die aktuelle Diskussion um digitale Souveränität auf deutscher bzw. EU-Ebene aus Ihrer Sicht als international tätiger Forscher dar?

Prof. Björn Schuller: Gerade aus Sicht meiner Forschung an KI im Gesundheitsbereich ist die Kontrolle über persönliche Daten und involvierte Infrastruktur zu behalten höchste Priorität. Diskussion ist hier sehr angebracht und vor allem benötigen wir natürlich absolut zuverlässige Lösungen in der EU und bei uns zu Hause.

Security-Insider: In welchem Maße macht sich Ihrer Einschätzung nach die Medizinforschung aufgrund zunehmenden KI-Einsatzes von ausländischen Anbietern wie z.B. den US-Hyperscalern abhängig?

Prof. Björn Schuller: Diese Abhängigkeit ist natürlich eine reale Gefahr und wird durch den Einsatz von KI durchaus bestärkt. Zunächst haben wir hier ja die Clouddienste, auf denen viele KI-Lösungen laufen, die auch von großen Forschungsprojekten teils genutzt werden. Eine Umstellung auf lokale Anbieter ist oft nicht einfach, was neben Sicherheitsaspekten wie Datensicherheit und Rechtslage auch Abhängigkeiten bei der Kostenentwicklung und von ausländischen Modellen, die oft nicht leicht alternativ vor Ort umsetzbar sind, mit sich bringt. Dabei

ist vor allem auch nicht immer klar, wer selbst bei lokal gespeicherten Daten Zugriff auf diese hat. Ferner ist auch oft fraglich, wie leicht sich in solcher Abhängigkeit europäische Ethikstandards durchsetzen lassen. Nicht zuletzt ergibt sich zunehmend ein Wettbewerbsnachteil in Europa, der die Abhängigkeit künftig potenziell bestärkt.

Security-Insider: Die Hardware kommt heutzutage letztlich aus China oder Taiwan, das ist wieder ein anderes Souveränitätsproblem. Aber wie praktikabel wäre es für Sie, sich in Ihren Projekten für den Software-Stack oder den Cloud-Betrieb ausschließlich auf europäische oder aber Open-Source-Angebote zu stützen?

Prof. Björn Schuller: In unserer Forschung setzen wir weitestgehend darauf, lokale Lösungen für unsere Nutzer zu verwirklichen, das heißt, Software, die nur auf ihren Endgeräten läuft, damit die volle Kontrolle über die Daten besteht. Das ist aber natürlich in Zeiten von großen Modellen nicht trivial und wir sind hier gezwungen, kreative Lösungen, etwa für „kleine Modelle“ zu finden, die in der Leistung keine wesentlichen Nachteile ergeben. Unsere eigenen Entwicklungen geben wir in der Regel quelloffen frei und setzen auch in der Forschung auf solche Lösungen – schon rein wegen der wissenschaftlichen Transparenz und Reproduzierbarkeit. Aber dem Cloud-Betrieb ganz auszuweichen, bleibt natürlich eine Herausforderung.

Security-Insider: In welchem Maße nehmen die Forschenden in Ihrem Umfeld digitale Souveränität und/oder Datensouveränität ebenfalls als brisante Themen wahr – oder aber nur als Randphänomene, die man halt zumindest in puncto Datensouveränität aufgrund der DSGVO beachten muss?

Prof. Björn Schuller: Dies ist ein omnipräsentes Thema, das aufgrund der genannten Priorität für die Patienten höchste Wichtigkeit hat. Aber natürlich beschäftigen uns auch viele weitere Fragestellungen ethischer KI wie Fairness, Erklärbarkeit, Umweltfreundlichkeit in Bezug auf die Energie, Zuverlässigkeit und Vertrauenswürdigkeit unserer Lösungen.

HYBRIDES UEM F U R GANZHEITLICHEN SCHUTZ

ZAHL UND KOMPLEXITÄT VON CYBERANGRIFFEN NEHMEN STETIG ZU.

UNTERNEHMEN STEHEN DAHER UNTER DEM DRUCK, IHRE SICHERHEITS -

STRATEGIEN KONTINUIERLICH ZU OPTIMIEREN UND NACHHALTIG

ABZUSICHERN. DIE BESTE GRUNDLAGE BIETET EIN HYBRIDES UNIFIED

ENDPOINT MANAGEMENT (UEM), DAS KLASSISCHES CLIENT MANAGEMENT MIT MODERNER CLOUD-INTEGRATION VEREINT. WIE DIESER ANSATZ IN DER PRAXIS FUNKTIONIERT,

Die Verwaltung von Endgeräten in Unternehmen hat sich in den letzten Jahren stark weiterentwi ckelt; klassische Desktops stehen neben Notebooks und Smartphones, mobile Betriebssysteme sind zu verwalten. Die bisherigen On-Premises Client-Management-Systeme kommen hier an ihre Grenzen, denn sie decken keine iOS- und Android-Geräte ab. Diese verwalten Unternehmen oft mit cloud-basierten UEM-Systemen wie Microsoft Intune, dem wohl bekanntesten unter ihnen. Sie sind jedoch in ihrer Funktionalität beschränkt.

einer Integration von Intune in das eigene UEM. Ergebnis ist eine zentrale Plattform, über die sich einheitlich sowohl klassische Windows-Clients im lokalen Netzwerk administrieren lassen als auch moderne, cloud-verwaltete Endgeräte.

Ein vollwertiges UEM demgegenüber verfügt über eigene Agenten, ein zusätzliches Gateway und beinhaltet Funktionen wie Remote Control, Lizenzmanagement, Asset Management oder Windows Update Management für Clients und Server und Microsoft365, an die bei Intune gar nicht zu denken ist. Sogar Microsoft-Lösungen wie Defender und BitLocker lassen sich direkt darüber steuern – auch ohne CloudAnbindung.

SICHERHEITSRELEVANTE MODULE GREIFEN INEINANDER Ein solcher hybrider Ansatz versetzt Unternehmen in die Lage, ihre Sicherheitsrichtlinien kohärent in heterogenen ITLandschaften über alle Endpunkte hinweg umzusetzen – ohne Medienbrüche oder redundante Verwaltungsprozesse. Verschiedene Module greifen dafür ineinander und arbeiten zusammen: Der ACMP Security Detective erkennt sicherheitsrelevante Konfigurationsabweichungen auf Endgeräten und meldet potenzielle Risiken automatisiert – ein Frühwarnsystem für IT-Schwachstellen. Das Patch Management sorgt für die zeitnahe und auto -

GRATIS-TICKET

FÜR DIE

IT-SA 2025 SICHERN UNTER WWW.AAGON.COM/IT-SA2025

matisierte Verteilung von sicherheitskritischen Updates für Windows und DrittanbieterSoftware – auch im Zusammenspiel mit Intune. Mit dem ACMP Inventory & Asset Management schließlich erhalten Admins vollständige Transparenz über Hard- und Software – eine essenzielle Grundlage für jede Sicherheitsstrategie.

Durch die enge Verzahnung dieser Module mit dem Intune Management-Ansatz zeigt Aagon, wie ACMP zur zentralen Schaltstelle für IT-Sicherheit und Compliance wird – auch im Kontext aktueller Anforderungen wie NIS-2, BSI IT-Grundschutz oder KRITIS-Dachgesetz.

GASTBEITRAG VON MARTIN MERZ , SAP

Warum wir SOUVERÄNITÄT neu denken müssen

Ganzheitliche digitale Souveränität über den gesamten Tech-Stack ist entscheidend, um unsere kritischen Infrastrukturen zu schützen. Sie eröffnet zugleich enormes Potenzial für Europa als Innovations- und Wirtschaftsstandort.

Sich allein auf eigene Software oder in Deutschland betriebene Server zu verlassen, wird den heutigen Anforderungen an digitale Souveränität nicht gerecht. Der gesamte Stack – also Hardware, Software, Plattform, Daten und deren Nutzung – muss als Einheit gedacht werden. Nur so lässt sich die digitale Zukunft aktiv gestalten. Einzelne Komponenten wie Rechenzentren, Softwarelösungen oder Leitlinien zum Datenumgang isoliert zu betrachten, ist zu kurz gegriffen – insbesondere angesichts der zunehmenden Zahl komplexer Cyberangriffe, die gezielt kritische Infrastrukturen ins Visier nehmen.

Die Cloud-Transformation ist in Deutschland in vollem Gange und durchdringt inzwischen nahezu alle Bereiche von Wirtschaft und Gesellschaft. Mit jedem Prozess, den wir in vernetzte Plattformen verlagern, steigen Effizienz und Innovationskraft. Gleichzeitig stehen unsere Kunden vor der Herausforderung, technologische Abhängigkeiten gezielt zu navigieren. Parallel dazu wächst die Zahl der Cyberangriffe, die nicht mehr nur einzelne Systeme betreffen, sondern ganze Wertschöpfungsketten ins Wanken bringen können, exponentiell. Umso wichtiger ist es, sichere und souveräne Lösungen zu etablieren, die Abhängigkeiten transparent machen, Wahlfreiheit und Handlungsautonomie sichern und die weltweit innovativsten Technologien für uns nutzbar machen. Digitale

Bildquelle: Adobe /

Stock / YM Creative

Studio/ KI generiert

Souveränität ist keine abstrakte Vision, sondern eine strategische Notwendigkeit. Sie sichert Resilienz und gewährleistet Handlungsfähigkeit im Ernstfall.

DIGITALE SOUVERÄNITÄT MUSS

GANZHEITLICH GEDACHT WERDEN

Echte digitale Souveränität entsteht aus der Wechselwirkung zwischen vier Dimensionen: Datensouveränität, rechtliche Souveränität, technische Souveränität und operative Souveränität. Nehmen wir Abstriche bei einer dieser Dimensionen in Kauf, geben wir Kontrolle ab, und das im Kernbereich unserer digitalen Wertschöpfung. Nur wenn alle vier Dimensionen gewährleistet sind, können wir von echter digitaler Souveränität sprechen.

Die Definitionen variieren dabei von Land zu Land –doch überall spielen die genannten Dimensionen eine Rolle. Gleichzeitig verankern immer mehr Staaten nationale Sicherheitsinteressen in ihrer IT-Regulatorik. Unternehmen mit grenzüberschreitender Geschäftstätigkeit stehen vor der enormen Herausforderung, ein komplexes Geflecht aus Vorschriften zur Cloudnutzung zu navigieren. Einen einheitlichen europäischen Rechtsrahmen für die Nutzung von Cloudtechnologie gibt es bislang nicht.

In einem nationalstaatlich fragmentierten Europa brauchen wir daher dringend mehr Harmonisierung der Anforderungen, abgestimmte Synergien und ein gemeinsames Verständnis von digitaler Souveränität. Nur so können wir einen Markt schaffen, der Lösungen hervorbringt, die uns tatsächlich souverän machen – und das im industriellen Maßstab. Diese Lösungen müssen auf europäischer Ebene skalieren, um im globalen Wettbewerb zu bestehen.

OFFENHEIT UND ENTSCHLOSSENHEIT – SOUVERÄNITÄT ALS WETTBEWERBSVORTEIL

Europäische Rechenzentren sind ein wichtiger Baustein der Unabhängigkeit und ihre Rechenleistung ist beachtlich. Doch die Frage ist: Können wir hier noch wirklich gewinnen? Unser strategischer Vorteil liegt auf Ebene der Anwendungen und der Software – dort, wo sichere, souveräne und geschäftskritische Lösungen entstehen. Nicht die Hardware entscheidet über eine erfolgreiche Zukunft, sondern der souveräne Betrieb der Anwendungen.

Um digital souverän zu werden, darf Europa sich nicht in der Fixierung auf zusätzliche eigene Rechenzentren und Server verlieren. Das mag ein Baustein sein, ist heute aber nicht der Hebel, der uns nach vorne bringt. Wer nur auf Infrastruktur setzt, läuft Gefahr, sich zu isolieren – und auf eine rein europäische Lösung können wir nicht warten. Souveränität heißt nicht Autarkie, sondern die Fähigkeit, jederzeit selbst zu entscheiden und zu handeln.

Gigantische KI-Rechenzentren als Antwort auf die USA sind ein Wettlauf, den wir kaum gewinnen werden – ganz abgesehen von der Frage, ob wir Energieversorgung und Kühlung sicherstellen können. Entscheidend ist dabei ein offener, pragmatischer Ansatz: Technologien – auch aus Drittstaaten

– so für uns nutzbar machen, dass wir unabhängig handeln können. Digitale Souveränität entsteht nicht durch Abschottung, sondern durch eine offene, pragmatische Herangehensweise: globale Partner gezielt einbinden, eigene Stärken auf der Anwendungs- und Softwareebene ausspielen und den gesamten Stack im Blick behalten.

DIE CLOUD ALS ENABLER

Teil eines ganzheitlichen europäischen Ansatzes ist ein gemeinsames europäisches Cloud-Ökosystem statt vieler nationaler Cloud-Lösungen. Die Cloud ist entscheidend, da sie Kontrolle über Plattform, Daten und deren Nutzung bietet. Unternehmen können in der Cloud ihre Geschäftsprozesse digitalisieren und automatisieren. Das steigert die Effizienz und schafft mehr Raum für weitere technologische Innovation und Zeit für das Kerngeschäft.

Gerade in Bereichen der kritischen Infrastruktur und in der öffentlichen Verwaltung berücksichtigen entsprechende CloudLösungen von Beginn an verschärfte Compliance- und Sicherheitsvorkehrungen. Das ist nicht nur zwingend notwendig, sondern kann zu einem echten Wettbewerbsvorteil werden, weil es Vertrauen schafft und neue Handlungsspielräume eröffnet.

VERLÄSSLICHKEIT UND RECHTSSICHERHEIT AUCH DIGITAL

Digitale Souveränität für den ganzen Stack bedeutet: Hardware mit nachvollziehbaren Lieferketten. Software, deren Architektur und Quellcode prüfbar sind. Offene Standards sowie die Möglichkeit zur Nutzung von Standardsoftware und von Open-SourceLösungen bieten Flexibilität und schaffen die Voraussetzung für Innovation. Technische Souveränität, also etwa besonders gesicherte Rechenzentren mit technisch voneinander isolierten Mietern. Lokale Plattformen, die im geltenden Rechtsrahmen betrieben werden. Das setzt Sicherheitsfreigaben für den Umgang mit sensiblen Daten voraus.

All dies ermöglicht es uns, die Kontrolle über Daten und ihre Nutzung zu behalten. Europa würde sich so deutlich unabhängiger machen, ohne sich von internationalen Partnern und deren in einigen Bereichen marktführenden Lösungen abzuschotten. Denn wir müssen nicht alles von Grund auf selbst entwickeln – genauso wie ein deutsches Auto aus Bauteilen aus der ganzen Welt be -

steht. Entscheidend ist, dass es den TÜV besteht, sicher funktioniert und seinen Zweck erfüllt. Der Full-Stack-Ansatz gibt uns die Freiheit, Technologien zu übernehmen, solange wir die Kontrolle behalten.

Digitale Souveränität baut auf europäischen Werten wie Rechtssicherheit und Verlässlichkeit. Wenn Europa entschlossen handelt und umfassend in den gesamten Tech-Stack investiert, können digitale Lösungen „made in Europe“ ein echtes Asset und der Treiber für etliche Innovationen werden – auch global.

Martin Merz verantwortet als President Sovereign Services & Delivery das globale Geschäft im Bereich Souveräne Cloud bei der SAP. Neben technischen Aspekten wie Infrastruktur geht es dabei um Personaleinsatzkonzepte, Funktionalität und Weiterbetrieb im Krisenfall, die Einhaltung rechtlicher Vorschriften in unterschiedlichen Jurisdiktionen und sichere Datenflüsse.

Bildquelle: Adobe / Stock / Dansih / KI generiert

-RE SILIENZ CYBER beginnt bei der Identität –

mit PAM zur sicheren IT-Architektur

IN EINER ZEIT RASANTER DIGITALISIERUNG UND ZUNEHMEND RAFFINIERTEN CYBERBEDROHUNGEN IST DER SCHUTZ DIGITALER IDENTITÄTEN ESSENZIELL FÜR DIE CYBER-RESILIENZ VON UNTERNEHMEN. IDENTITÄTSBASIERTE SICHERHEIT, INSBESONDERE PAM, IST DER SCHLÜSSEL, UM KRITISCHE ZUGÄNGE ZU SCHÜTZEN, BEDROHUNGEN FRÜHZEITIG ZU ERKENNEN UND ABLÄUFE ZU AUTOMATISIEREN. SO GELINGT UNTERNEHMEN DIE ERFOLGREICHE UMSETZUNG.

Die digitale Transformation, hybride Arbeitsmodelle und der rasante Fortschritt Künstlicher Intelligenz (KI) verändern nicht nur die Art, wie wir arbeiten –sie verändern auch die Bedrohungslage für Unternehmen. Cyberangriffe sind heute präziser und komplexer als je zuvor. Gleichzeitig entstehen immer mehr neue Schwachstellen, da Systeme zunehmend vernetzt und Identitäten über verschiedenste Plattformen verteilt sind. In dieser hochdynamischen Bedrohungslandschaft steht die digitale Identität im Zentrum moderner Sicherheit: Wer Zugänge schützt, schützt das Unternehmen. Identitätsbasierte Sicherheit, insbesondere durch Privileged Access Management (PAM), wird zum Schlüssel für Cyber-Resilienz – und ihr strategischer Einsatz zum Grundpfeiler für eine zukunftsfähige IT-Architektur.

Ein weiteres, oft unterschätztes, Risiko sind maschinelle Identitäten. In DevOps-Umgebungen oder bei der Nutzung generativer KI sind sie allgegenwärtig – und zugleich schlecht geschützt. Fest codierte Zugangsdaten, fehlende Transparenz und mangelnde Richtlinien machen sie zu einem leichten Ziel.

Privileged Access Management: Identitäten effektiv schützen

Neue Bedrohungen, neue Schwachstellen: Wenn KI zum Angreifer wird Cyberkriminelle rüsten auf – und das nicht nur mit neuen Tools, sondern mit KI. Dadurch entstehen Angriffsmethoden, die in Sachen Präzision und Automatisierung neue Dimensionen erreichen. Im Zentrum dieser Angriffe steht dabei vor allem die Identität: Angreifer zielen auf Zugangsdaten, Tokens oder API-Schlüssel ab – sei es durch Infostealer-Malware, KI-generierte Phishing-Mails oder Deepfakes, die täuschend echt wirken und Mitarbeitende zu Freigaben oder Transaktionen verleiten.

Auch Ransomware-Angriffe werden durch KI immer gefährlicher: Angreifer können Schwachstellen automatisch identifizieren, Angriffe in Echtzeit steuern und sensible Daten stehlen und verschlüsseln. Eine besondere Herausforderung stellen sogenannte Push-Bombing-Angriffe dar: Dabei werden Nutzer mit einer Flut von Multi-Factor-Authentication (MFA)-Anfragen konfrontiert, bis sie aus Ungeduld oder Verwirrung eine Freigabe erteilen – eine Taktik, die in stressigen Arbeitssituationen besonders effektiv ist.

Privileged Access Management (PAM) setzt genau hier an. Als Teil einer umfassenden Identity- und Access-ManagementStrategie (IAM) fokussiert sich PAM auf den Schutz besonders sensibler Konten – etwa von Administratoren, Dienstkonten oder maschinellen Identitäten. Es begrenzt den Zugang auf das Notwendigste (Least Privilege), verwaltet Zugriffsrechte kontextabhängig und überwacht deren Nutzung in Echtzeit. Damit wird PAM zum entscheidenden Baustein für eine resiliente Sicherheitsarchitektur.

Es bietet dabei mehrere zentrale Vorteile, die sowohl die Sicherheit erhöhen als auch die Transparenz verbessern. Unternehmen erhalten vollständige Sichtbarkeit und Kontrolle darüber, wer wann auf welche Systeme oder Daten zugegriffen hat – und

aus welchem Grund. Gleichzeitig reduziert PAM durch Prinzipien wie Just-in-TimeZugriffe und automatisierte Passwortrotation die Angriffsfläche erheblich. Ungewöhnliche Aktivitäten lassen sich in Echtzeit erkennen, wodurch verdächtige Sitzungen sofort beendet oder Zugriffe blockiert werden können. Darüber hinaus sorgt PAM dafür, dass jede Aktion lückenlos protokolliert wird – eine wichtige Voraussetzung, um Sicherheitsvorgaben einzuhalten und interne sowie externe Prüfungen zuverlässig zu unterstützen.

Vom Konzept zur Realität:

Wie Unternehmen PAM strategisch umsetzen

Eine wirksame PAM-Strategie ist kein einmaliges Projekt, sondern muss als kontinuierlicher Prozess verstanden werden. Der Weg zu einer resilienten Infrastruktur beginnt mit einer klaren Definition und Governance: Welche Systeme und Konten gelten als privilegiert? Wer entscheidet über den Zugriff? IT-Abteilungen, Risk Management und Management müssen hier an einem Strang ziehen.

Danach müssen alle privilegierten Konten identifiziert werden – sowohl menschlich als auch maschinell. Automatisierte Discovery-Tools

helfen, auch verborgene Zugänge oder Schatten-IT sichtbar zu machen. Im nächsten Schritt werden die Konten gesichert und verwaltet: Zugangsdaten wandern in verschlüsselte Tresore und Zugriffe erfolgen nur noch über kontrollierte Workflows mit MFA. Durch Just-in -Time-Zugriffsvergabe oder API-basierte Verwaltung sensibler Zugangsdaten lassen sich Risiken weiter minimieren.

Ein weiteres zentrales Element ist die Überwachung und Analyse: Jede privilegierte Sitzung kann aufgezeichnet, dokumentiert und in Echtzeit analysiert werden.

KI hilft dabei, verdächtige Verhaltensmuster zu erkennen und automatisch zu reagieren. Kommt es dennoch zu einem Vorfall, werden sofort Maßnahmen ergriffen. So werden etwa betroffene Zugänge gesperrt, Passwörter gewechselt oder automatisierte Incident-ResponseProzesse eingeleitet.

Abgeschlossen wird der Zyklus durch regelmäßige Audits. Nur wenn klar dokumentiert ist, wer wann worauf zugegriffen hat, lassen sich regulatorische Anforderungen erfüllen und die Sicherheitslage kontinuierlich verbessern.

Damit PAM bestmöglich wirkt, sollte es zudem in die vorhandene IT-Infrastruktur eingebunden werden –zum Beispiel mit Active Directory, DevOps-Tools oder IT-Service-Management-Systemen. Nicht zuletzt spielt auch der Mensch eine entscheidende Rolle. PAM funktioniert nicht nur durch Technologie, sondern muss auch im Unternehmen gelebt werden – mit Schulungen, klaren Regeln und regelmäßiger Kommunikation.

Fazit

In einer zunehmend vernetzten und digitalen Welt ist der Schutz privilegierter Zugänge entscheidend für die Cyber-Resilienz von Unternehmen. PAM unterstützt maßgeblich dabei, Risiken zu minimieren, Angriffe frühzeitig zu erkennen und schnell zu reagieren. Durch die Kombination aus moderner Technologie und klaren organisatorischen Maßnahmen wird PAM zum Grundstein für eine robuste und zukunftssichere IT-Infrastruktur. So bleiben Unternehmen auch in einer zunehmend komplexen Bedrohungslandschaft bestens geschützt.

Malware verstehen, Bedrohungen erkennen Lösungen für Malware- Analyse und Threat Intelligence:

Security Operations (SOC)

 Skalierbare, automatisierte Validierung und Triage von Alarmen, z.B. aus EDR-/SIEM-/SOAR-Umgebungen

 Dedizierte Mailbox zur automatisierten Analyse intern gemeldeter E-Mails unter Phishing-Verdacht (User-Reported Phishing)

Incident Response (CERT)

 Tiefgehende, automatisierte Analyse verdächtiger Samples und URLs

 Strukturiertes Reporting aussagekräftiger und kontextualisierter IOCs

Cyber Threat Intelligence (CTI)

 Generierung von Threat Intelligence aus eigenen Malware-Analysen, z.B. zum Aufbau einer Threat-Datenbank

 Threat Intelligence Feed - kuratiert, kontextstark, ready-to-use, optimiert für automatisierte Sicherheitsprozesse

ARCHITEKTUREN DER ZUKUNFT

SO WERDEN UNTERNEHMEN

ZUKUNFTS SICHER

ZERO TRUST UND CLOUD-EDGE-SECURITY FORMEN DIE BASIS

MODERNER SICHERHEITSARCHITEKTUREN. UM IHRE IT

ZUKUNFTSSICHER AUFZUSTELLEN, BENÖTIGEN UNTERNEHMEN

ADAPTIVE SCHUTZMODELLE, DIE IDENTITÄT, KONTEXT UND

NETZWERKDYNAMIK PRÄZISE INTEGRIEREN. NOTWENDIG SIND

AUCH ZENTRALE STRUKTUREN, RESILIENTE TECHNOLOGIEN

UND DIE RICHTIGEN IMPLEMENTIERUNGSANSÄTZE.

AUTOR: Thomas Joos

Zero Trust und eine optimale Identity Governance spielen auch bei der Verwendung von Clouddiensten eine wichtige Rolle.

Bildquelle: Th. Joos

Zero Trust und Cloud-Edge-Security wandeln sich zur tragenden Sicherheitsarchitektur für zukunftsorientierte, hybride und cloudzentrierte Unternehmensmodelle. Der klassische Perimeterschutz ist überholt. Gefragt sind heute granulare Identitätsprüfungen, kontextbasierte Richtlinien und adaptive Zugriffskontrollen entlang verteilter Infrastrukturen. Zero Trust verfolgt genau diesen Ansatz. Nichts und niemand erhält automatisch Vertrauen. Jeder Zugriff wird validiert. Jede Aktion kontextualisiert. Das reduziert Angriffsflächen und entkoppelt Sicherheit vom Standort. Cloud-Edge-Security schiebt dabei die Kontrollen näher an Nutzer und Workloads, ohne zentrale Gateways zu überlasten. Das steigert die Reaktionsgeschwindigkeit, reduziert Latenz und sorgt für konsistente Sicherheitsrichtlinien bis in den Endpunkt.

ZERO TRUST ALS GRUNDLAGE DYNAMISCHER SICHERHEITSMODELLE

Infrastrukturen lösen sich auf. Ressourcen liegen verteilt über Multicloud-Umgebungen, mobilen Geräten, Rechenzentren und SaaS-Plattformen. Klassisches Netzwerkdenken scheitert an dieser modernen Dynamik. Zero Trust abstrahiert Sicherheit von der Netzwerkstruktur. Die Identität steht im Zentrum. Technisch bedeutet das: Authentifizierung erfolgt kontinuierlich. Richtlinien prüfen Gerätezustand, Nutzerkontext, Standort und Verhalten. Dabei geht es nicht um einzelne Tools. Entscheidend ist das orchestrierte Zusammenspiel von Komponenten wie Identitätsmanagement, Endpoint Detection, Bedrohungsanalyse und Zugriffssteuerung. Die Plattformlogik ersetzt Punktlösungen. Entscheidungen laufen automatisiert, aber kontextsensitiv. Der Zugriff wird nicht einmalig gewährt, sondern fortlaufend kontrolliert.

Security wird damit zur Plattformfunktion. Die klassische Applikation mit dedizierter Infrastruktur verschwindet. SSE (Security Service Edge) verlagert Funktionen wie Secure Web Gateway, CASB, DLP und Zero Trust Network Access (ZTNA) in die Cloud. Anwender verbin -

den sich nicht mehr mit dem Netzwerk, sondern direkt mit der Anwendung über eine global verteilte Policy-Engine. Jede Verbindung wird geprüft, jedes Paket inspiziert. Das Modell ist vertikal skalierbar, geografisch flexibel und konsistent in der Umsetzung.

SASE (Secure Access Service Edge) integriert zusätzlich WAN-Funktionalitäten. Die Trennung zwischen Netzwerk und Sicherheit verschwindet. Kontrolle und Konnektivität verschmelzen zur ServiceSchicht. Schöne neue Sicherheitswelt.

FORWARD PROXY, DLP, CLOUD-FIREWALL UND KIGESTÜTZTE ANALYSE

Ein zentraler Bestandteil moderner SSE-Umgebungen bleibt der Forward Proxy. Er ermöglicht tiefgreifende Kontrolle über ausgehende Verbindungen. In Kombination mit DLP-Systemen lassen sich sensible Daten klassifizieren und deren Bewegung kontrollieren. Ergänzend bietet eine cloudbasierte Firewall die Möglichkeit, Applikationen granular zu steuern und Bedrohungen frühzeitig zu blockieren. KI/ML-Komponenten analysieren Nutzungsverhalten, erkennen Anomalien und eskalieren Bedrohungen automatisiert. Der Vorteil liegt in der Echtzeitfähigkeit. Sicherheitsrichtlinien passen sich fortlaufend an. Der Aufwand zur Signaturpflege entfällt. Entscheidungen basieren auf Verhalten, nicht auf statischen Regeln.

Moderne SSE-Plattformen bündeln mehrere Sicherheitsschichten in einer durchgängigen Servicekette. Neben URL-Filterung, Firewall-as-a-Service und Cloud Access Security Broker (CASB) kommen Data Loss Prevention und Malware-Sandboxing zum Einsatz. Ein zentrales Element bildet die kontinuierliche Inspektion des gesamten Datenverkehrs, unabhängig von App, Gerät oder Standort. Die Durchsetzung erfolgt identitätsbasiert in Echtzeit. Cloudflare etwa nutzt ein InlineScanning mit KI-gestützter Klassifikation sensibler Inhalte. Ob sensible Kundendaten in SaaS-Anwendungen oder Shadow-IT-Aktivitäten in der Cloud, die Plattform erkennt und blockiert Verstöße automatisiert. Gefahren wie Phishing, Ransomware und C2-Kommunikation lassen sich mit KI-Modellen und Threat-IntelligenceFeeds korrelieren, wodurch die Reaktionszeit bei Zero-Day-Exploits deutlich sinkt. Das Zusammenspiel mit XDR-Architekturen verbessert dabei nicht nur die Sichtbarkeit, sondern automatisiert auch die Eskalation an SecOps-Teams.

Im Microsoft Entra Admin Center lassen sich Benutzerkonten aus der Microsoft Cloud absichern. Bildquelle: Th. Joos

AGENTENMODELLE UND

TRAFFIC-STEUERUNG

IM ZERO-TRUST-UMFELD

Für die Durchsetzung von Richtlinien in verteilten Umgebungen braucht es eine granulare Steuerung des Datenverkehrs bis auf Geräteebene. Cloud-basierte SSE-Plattformen arbeiten dafür mit agentenbasierten Connectoren, die sämtliche ausgehende Verbindungen zentral über das Zero Trust Network Gateway leiten. Das betrifft nicht nur Browser- oder Applikationszugriffe, sondern auch non-Web-Traffic wie RDP, SSH oder DB-Verbindungen. Bei Remote-Zugriffen ersetzt der ZTNA-Agent herkömmliche VPNLösungen.

ZTNA-Agenten übernehmen im Kontext moderner Zero-Trust-Architekturen die Rolle einer intelligenten Zugangskontrolle auf Endgeräten. Sie ermöglichen granulare Entscheidungen auf Basis kontextueller Informationen wie Nutzeridentität, Gerätestatus, Standort und Risikobewertung. Im Gegensatz zu traditionellen VPNClients bauen sie keine dauerhafte Verbindung zum Unternehmensnetz auf, sondern vermitteln jeErstellen von Zugriffspaketen für die Microsoft Cloud. Bildquelle: Th. Joos

weils nur autorisierte Sitzungen zu klar definierten Applikationen oder Diensten. Im beschriebenen Modell der Cloud-Edge-Security dienen ZTNA-Agenten als zentrales Bindeglied zwischen den identitätsbasierten Sicherheitsrichtlinien des Zero-Trust-Modells und der verteilten Infrastruktur, auf die zugegriffen wird. Sie initiieren dynamische Authentifizierungsund Autorisierungsprozesse, oft mehrfach während einer Sitzung, und übernehmen zugleich Telemetrieaufgaben, indem sie kontinuierlich Gerätezustand und Nutzerverhalten an die Policy Engine zurückmelden. Innerhalb einer SSE-Architektur (Secure Service Edge) sind sie eine wichtige Grundlage, um Richtlinien durchzusetzen, die sich nicht auf Netzwerkparameter stützen, sondern auf die Echtzeitbewertung von Risiken und Rollen. Dabei arbeiten sie eng mit Cloud-Proxys, CASBs und DLP-Systemen zusammen, um Datenflüsse zu überwachen, Anomalien zu erkennen und Zugriff strikt zu kontrollieren.

Authentifizierung, Gerätestatus und Richtlinienabgleich laufen kontinuierlich im Hintergrund, ohne dass der Anwender eingreifen muss. Der komplette Traffic wird über das nächste Edge-Node geleitet, das gleichzeitig als Policy Enforcement Point fungiert. Das ermöglicht einheitliche Sicherheitsrichtlinien, unabhängig davon, ob der Nutzer sich im Büro, im Homeoffice oder in einem

Third-Party-Network bewegt. Besonders für hybride Arbeitsmodelle mit häufig wechselnden Zugriffsorten schafft dieses agentenbasierte Modell eine belastbare Grundlage für kontextbasierte Zugriffskontrollen.

CLOUD-KOMPATIBILITÄT UND RESILIENTE ARCHITEKTUR

Moderne SSE-Plattformen müssen sich nahtlos in Multi-Cloud-Infrastrukturen einfügen und gleichzeitig globale Verfügbarkeit gewährleisten. Die Architektur basiert auf einem weltweiten Netzwerk aus Cloud-Edges, das den Zugriff auf Anwendungen unabhängig von Standort und Plattform beschleunigt. Dienste wie Forward Proxy, DLP und CASB laufen verteilt in der Infrastruktur und replizieren automatisch Richtlinien, Benutzerkontexte und Logik auf alle aktiven Regionen. Fällt ein Knoten aus, übernimmt der nächste automatisch, ohne dass Verbindungen unterbrochen werden. Diese dynamische Lastverteilung wird durch kontinuierliches Monitoring von Latenz, Pfadstabilität und Verkehrsprofilen gestützt. Auch TLS-Handshake und DNS-Resolution lassen sich dabei auf Edge-Ebene terminieren, um Antwortzeiten zu minimieren. Für Cloud-First-Strategien, die hohe Verfügbarkeit und Ausfallsicherheit erwarten, bildet diese Architektur den notwendigen Unterbau.

XDR ALS STRATEGISCHES BINDEGLIED

Die Integration von Extended Detection and Response (XDR) in SSE-Plattformen verschiebt die Detektionslogik weg von isolierten Telemetriepunkten hin zu einem korrelierten Analysemodell über sämtliche Kontrollschichten hinweg. Endpoint-Agenten, GatewaySensorik, Cloud-Signale und Nutzeraktivitäten fließen in eine konsolidierte Datenpipeline, die nicht nur Bedrohungen erkennt, sondern sie im Kontext von Session-Verhalten, Policy-Verstößen und Richtlinienabweichungen bewertet. Diese Kontextualisierung schärft die Entscheidungslogik für automatische Reaktionen und verbessert die Nachvollziehbarkeit komplexer Vorfälle. Für hybride Angriffsflächen, die sich dynamisch über Endgeräte, Anwendungen und Cloud-Dienste verteilen, bildet XDR das Bindeglied zwischen Prävention, Sichtbarkeit und Response-Strategie. Ohne diese Ebene bleiben viele Ereignisse isoliert und unkorreliert.

XDR verknüpft damit Ereignisse aus verschiedenen Quellen zu einem kohärenten Lagebild. In SSE/SASE-Architekturen fließen Daten aus Identitätsdiensten, Netzwerkzugriff, Endpunkten und Cloud-Ressourcen zusammen. Entscheidend ist die Fähigkeit zur Korrelation. Bedrohungen zeigen sich selten als einzelner Alarm.

Erst die zeitliche und logische Verknüpfung mehrerer Indikatoren erlaubt eine fundierte Bewertung. Moderne Plattformen aggregieren Telemetrie, normalisieren Formate und priorisieren automatisch. Das reduziert manuelle Analyseaufwände und ermöglicht proaktives Eingreifen vor Schadenseintritt.

AGENTENMODELLE UND GERÄTEKONTROLLE

Endgeräte bleiben Schwachstelle und Angriffsziel. SSE-Plattformen nutzen deshalb agentenbasierte Kontrollinstanzen, die tief im Betriebssystem verankert sind. Sie ermöglichen die Durchsetzung von Sicherheitsrichtlinien unabhängig vom Standort. In regulierten Umgebungen erlauben diese Agenten zusätzlich die Durchsetzung von Compliance-Vorgaben wie Gerätestatus, Verschlüsselung, Patchlevel oder Anwendungszugriff. Gleichzeitig erlauben agentenlose Modelle über APIs oder Tunnel-Proxys einen schrittweisen Umstieg. Die Architektur bleibt flexibel. Der Kontrollgrad lässt sich anpassen. Wichtig bleibt die zentrale Richtlinienvergabe, nicht die Implementierung. Die Einführung einer SSE- oder SASE-Plattform beginnt selten mit einem Big-Bang. Vielmehr erfolgt der Rollout stufenweise über priorisierte Use Cases. Erste Schritte umfassen zumeist die Ablösung bestehender Secure Web Gateways oder VPNs. Vor-

aussetzung ist ein funktionierendes Identitätsmanagement, idealerweise über SSO mit MFA. Der Datenverkehr wird entweder über lokale Agenten oder über DNSForwarding und GRE/IPsec-Tunnel zum SSE-PoP geleitet. Cloudflare etwa bietet API-gestützte Integrationen in bestehende SIEM- und SOAR-Plattformen, um vorhandene Workflows beizubehalten. Wichtig bleibt die Planung über Proof-of-Concepts, die typischerweise mit Testgruppen unter Realbedingungen starten. Skalierung und Migration erfolgen dann anhand gemessener Effekte und Risikobewertungen. Legacy-Anwendungen lassen sich über Tunnel oder Reverse-Proxy-Zugänge absichern. Die Plattform selbst übernimmt die Durchsetzung granularer Richtlinien, während Netzwerkinfrastruktur zunehmend zur Transportfunktion wird.

ZERO TRUST FÜR KLEINE UND MITTELSTÄNDISCHE UNTERNEHMEN

Viele Plattformen bieten modularisierte Einstiegsszenarien. Gerade kleinere Unternehmen profitieren von SSE als Service-Modell. Der Rollout erfolgt schrittweise. Zunächst werden Webzugriffe gesichert, später Anwendungen segmentiert, schließlich Netzwerkzugriffe migriert. Templates, Automatisierung und vorgefertigte Richtlinien reduzieren Komplexität. Der Aufwand bleibt überschaubar. Entscheidend ist die

Privilegd Identity Management in der Cloud ist ein wichtiger Faktor für mehr Sicherheit.

Bildquelle: Th. Joos

strategische Ausrichtung. Zero Trust bedeutet nicht, sofort alle Komponenten zu ersetzen. Es bedeutet, Vertrauen neu zu bewerten und Zugriffe nur dann zu erlauben, wenn alle Bedingungen erfüllt sind.

Die Sicherheitslogik moderner SSE-Architekturen verlagert sich von klassischen Netzwerkgrenzen auf die Ebene individueller Identitäten. Zugriffe werden nicht mehr pauschal erlaubt oder blockiert, sondern dynamisch anhand von Kontextparametern bewertet. Faktoren wie Gerätezustand, Nutzerrolle, Standort, Sitzungsdauer, Anomalieverhalten oder Zeitpunkt fließen in Richtlinien ein, die granular auf Applikationsebene durchgesetzt werden. Dabei fungiert die Policy Engine als zentrales Steuerungselement, das Anfragen in Echtzeit bewertet und abhängig vom Kontext Zugriff

Firewalls, DMZs und Segmentgrenzen. Sicherheit wird in modernen Umgebungen zur beweglichen Funktion, die sich mit Nutzer, Gerät und Anwendung verändert. Plattformen übernehmen Analyse, Steuerung und Korrelation. Unternehmen müssen lernen, Sicherheitsarchitektur nicht mehr als Infrastrukturprojekt, sondern als Betriebsmodell zu verstehen. Sichtbarkeit, Automatisierung und Kontext stehen dabei im Zentrum. Wer heute beginnt, kann schrittweise modernisieren, statt später unter Zeitdruck umzubauen.

AUTOR: Thomas Joos

„Wir können es uns nicht leisten, uns komplett von bestehender Technik abzukoppeln, weder in Deutschland noch in der EU!“
Prof. Dr. Dennis-Kenji Kipker Cyberintelligence Institute

Ihr Weg zu Innovationen beginnt mit einer Cybersecurity-Plattform, die Risikomanagement, Security Operations und mehrschichtigen Schutz in sich vereint.

Machen Sie Security zum Innovationstreiber mit Trend Vision One™.

Erfahren Sie mehr unter trendmicro.com/visionone

WIE EINE PLATTFORMSTRATEGIE IT-ABTEILUNGEN DAS LE BEN LEICHTER MACHT

DIE VIELFALT DER SICHERHEITSLÖSUNGEN –FLUCH UND SEGEN ZUGLEICH ...

BEI DRIVELOCK SE

... Unternehmen stehen unter wachsendem Druck, ihre wertvollen Daten gegen immer raffinierter werdende Bedrohungen zu schützen. Mit dieser Herausforderung einher geht eine Flut neuer Sicherheitslösungen, die IT-Abteilungen den Kopf schwirren lässt. Obwohl diese Vielfalt potenziell stärkeren Schutz verspricht, führt sie schnell zu ineffizienten Insellösungen, die schwer miteinander zu integrieren sind und wertvolle Ressourcen im Management binden.

ZUKUNFTSSICHER GEGEN CYBERCRIME: WIE DER PLATT-

FORM-ANSATZ KRIMINELLE AUSBREMST

Ein Lichtblick in diesem komplexen Sicherheitsuniversum ist die Cloudbasierte Plattform-Lösung, die IT-Abteilungen erheblich entlastet. Durch den Einsatz der DriveLock HYPERSECURE Platform können Unternehmen Sicherheitsressourcen sparen und sich zugleich umfassend schützen. Diese zentralisierte Lösung vereint Sicherheitskontrollen wie Device und Application Control, Detect & Response Funktionen sowie Verschlüsselungslösungen und Security Awareness Maßnahmen zu effektiven Schutzmaßnahmen. Zudem können Nutzer Microsoft Security Tools wie Bitlocker Management in der zentralen Plattform verwalten. Das Modul Human Risk & Awareness analysiert und optimiert die Schulung von Mitarbeitenden auf sicheres Verhalten und stärkt so die Human Firewall im Unternehmen.

Ein entscheidender Vorteil der DriveLock HYPERSECURE Platform ist ihre Flexibilität. Unternehmen können die Plattform individuell auf ihre Anforderungen zuschneiden und neue Sicherheitsmodule problemlos einbinden. Darüber hinaus setzt DriveLock nicht nur auf die eigenen Security Controls sondern integriert komplementäre Lösungen ausgesuchter europäischer Security-Hersteller.

So passen sich Unternehmen ganz einfach den wachsenden und sich verändernden Sicherheitsanforderungen an, gestalten ihre Sicherheitsinfrastruktur skalierbar und reduzieren den Verwaltungsaufwand deutlich.

DIE HYPERSECURE PLATFORM UND DIE INTEGRATION VON IDGARD

– EIN RUNDUMSCHUTZ FÜR DRIVELOCK KUNDEN

Die Integration von idgard in die Plattform-Strategie von DriveLock bringt eine zusätzliche Ebene von Sicherheit und Datenschutz für Kunden, die einen ganzheitlichen Ansatz suchen. Idgard, als hochsichere DatenraumLösung, bietet DriveLock Kunden den Vorteil, vertrauliche Informationen und Dokumente sicher zu teilen und zu verwalten, sowohl intern als auch extern.

Mit Technologien wie der „Sealed Cloud“-Technologie sorgt idgard dafür, dass DriveLock Kunden nicht nur ein Maximum an Sicherheit genießen, sondern auch den Anforderungen des Datenschutzes gerecht werden. Diese Kombination stärkt nicht nur das Vertrauen in die Gesamtlösung, sondern ermöglicht auch eine reibungslose und sichere Zusammenarbeit innerhalb und außerhalb des Unternehmens.

Für IT-Abteilungen bedeutet das: weniger Verwaltungsaufwand, erhöhte Effizienz und eine zukunftssichere Cyberabwehr, die genau dort ansetzt, wo Bedrohungen entstehen – und sie außen vor lässt.

https://www.drivelock.com/de/

AUTOR: Oliver Schonschek

BSI-Präsidentin Claudia

Plattner: „Hinsichtlich Cyberbedrohungen im Zusammenhang mit Künstlicher Intelligenz kommt es darauf an, dass wir als Verteidiger mit den Angreifenden Schritt halten.“

Bildquelle: BMI / Henning Schacht

Angesichts der sich verändernden Bedrohungslandschaft ist es wichtig, der Cybersicherheit höchste Priorität einzuräumen, erklärt das BSI (Bundesamt für Sicherheit in der Informationstechnik). Es werde entscheidend sein, die Geschwindigkeit und den Umfang der Abwehrmaßnahmen zu erhöhen, zum Beispiel durch Verbesserung des Patchmanagements, der Angriffserkennung und der SocialEngineering-Prävention. Dabei kann und wird Künstliche Intelligenz (KI) eine zentrale Rolle spielen, nicht nur auf Seiten der Angreifer und Internetkriminellen.

„Eine neue Schwachstelle kann mit KI innerhalb weniger Tage oder sogar Stunden ausgenutzt werden. Wir müssen dafür sorgen, dass unsere Abwehrsysteme mindestens ebenso schnell und

effizient funktionieren. Dabei kann KI uns helfen“, betont die BSI-Präsidentin Claudia Plattner die beiden Seiten von KI für Cybersecurity.

Schon heute berichten zahlreiche Studien über eine schnellere und präzisere Erkennung von Angriffen durch KI-Verfahren, das Aufdecken neuer Angriffstypen durch Anomalie-Detektion und die Möglichkeit, die Reaktion auf erkannte Attacken weitgehend zu automatisieren.

Laut einer Studie von Capterra sehen deutsche Unternehmen als wichtigste Vorteile von KI in der Cybersicherheit die Identifizierung von Anomalien und Mustern, die auf Bedrohungen hinweisen (49 Prozent), die Erkennung von Bedrohungen, sobald sie auftreten (48 Prozent) und die Automatisierung von routinemäßigen Sicherheitsaufgaben wie Warnungspriorisierung, Vorfallsreaktion und Patch-Management (40 Prozent).

Die wichtigsten Vorteile der KI-gestützten Cybersicherheit gegenüber der herkömmlichen Cybersicherheit laut einer Capterra-Umfrage. Bildquelle: Capterra

Diese Vorteile durch KI haben spürbare Auswirkungen auf die Zeitspanne bis zur Erkennung eines Vorfalls und die Schadenshöhe. Der IBM-Bericht „Cost of a Data Breach Report“ zum Beispiel zeigt, dass es im Jahr 2024 im Durchschnitt 258 Tage dauerte, um einen IT-Sicherheitsvorfall aufzudecken und die Folgen zu minimieren. Unternehmen, die KI umfassend für Sicherheit und Automatisierung einsetzen, konnten demnach einen Vorfall durchschnittlich 98 Tage früher erkennen und eindämmen als Unternehmen, die diese Technologien nicht nutzen. Der Einsatz von KI und Automatisierung reduzierte laut der Studie dadurch die Kosten von Sicherheitsverletzungen durchschnittlich um jeweils 1,88 Millionen US-Dollar.

SECURITY PROFITIERT VON DEN STÄRKEN DER KI

Was aber macht KI so erfolgversprechend und effizient in der Erkennung und Abwehr von Cyberangriffen? Im Gegensatz zu uns Menschen stellt es für eine KI-basierte Lösung keine Herausforderung dar, die wachsenden Datenmengen zu durchforsten, um in kurzer Zeit Anzeichen für Angriffe zu finden, sich strikt an die Vorgaben der Administration zu halten, um Fehler bei Konfigurationen zu vermeiden, und nicht zu ermüden, wenn sich bestimmte Aufgaben ständig wiederholen.

Der Einsatz neuer generativer KI-Tools (GenAI) kann die Leistung bei bestimmten Aufgaben deutlich steigern (je nach Kontext um etwa 20 bis 40 Prozent), berichtet die OECD. KI dürfte demnach erhebliche Auswirkungen auf die Arbeitsplätze haben: „Obwohl die KI-Nutzung in Unternehmen noch relativ gering ist, deuten schnelle Fortschritte, auch bei generativer KI (wie ChatGPT), sinkende Kosten und die zunehmende Verfügbarkeit von Arbeitskräften mit KI-Kompetenzen darauf hin, dass die OECD-Länder möglicherweise am Rande einer KI-Revolution stehen“, so die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung.

KI IN DER SECURITY FÜHRT ZUR ENTLASTUNG DES MENSCHEN, NICHT ZUR ENTLASSUNG

Nicht nur die OECD hat sich mit den zukünftigen Auswirkungen von KI befasst, auch Marktforschende wie Gartner tun dies. „Da wir die Möglichkeiten von GenAI erweitern, ergeben sich solide Chancen zur Lösung einer Reihe von Dauerproblemen der Cybersicherheit“, kommentierte Deepti Gopal, Director Analyst bei Gartner, die Chancen von KI für die Cybersicherheit. Helfen könne KI sowohl bei der Minderung des Fachkräftemangels als auch als Grundlage von Maßnahmen gegen unsicheres menschliches Verhalten:

Cybersicherheit gehört zu den Anwendungsbereichen für KI, die weit oben auf der Wunschliste in Deutschland stehen, wie eine Umfrage von Bitkom zeigt.

Bildquelle: Bitkom

Bis 2026 werden Unternehmen, die GenAI mit einer integrierten plattformbasierten Architektur in Sicherheitsverhaltens- und -kulturprogrammen kombinieren, 40 Prozent weniger mitarbeiterbedingte Cybersicherheitsvorfälle verzeichnen, lautet die GartnerPrognose. GenAI habe das Potenzial, personalisierte Inhalte und Schulungsmaterialien zu erstellen, die die individuellen Eigenschaften eines Mitarbeitenden berücksichtigen. Laut Gartner erhöht dies die Wahrscheinlichkeit, dass Mitarbeiter und Mitarbeiterinnen im Arbeitsalltag sicherere Verhaltensweisen an den Tag legen, was zu weniger Cybersicherheitsvorfällen führt.

Bis 2028 wird die Einführung von GenAI zudem die Qualifikationslücken bei Cybersicherheit schließen und für 50 Prozent der Einstiegspositionen im Bereich Cybersecurity den Bedarf an einer speziellen Ausbildung beseitigen. GenAI-Unterstützung wird laut Gartner die Einstellung und Ausbildung von Cybersicherheitsfachkräften verändern.

KI hat also gerade für den Faktor Mensch in der Cybersicherheit tiefgreifende Auswirkungen, indem der Einstieg in die Security-Branche erleichtert werden, aber auch das sichere Verhalten bei den Nutzerinnen und Nutzern unterstützt wird, was wiederrum die Arbeitslast der Security-Abteilung senken kann, die weniger Zeit in Schulung und Support auf Anwenderseite stecken muss.

BERUFE DER CYBERSICHERHEIT WERDEN ANDERS, NICHT WENIGER

Eine Studie von ISC2 untersuchte die Auswirkungen von Künstlicher Intelligenz (KI) auf die Arbeitswelt der Cybersicherheit: 88 Prozent der Befragten glauben, dass KI ihre Arbeit jetzt oder in naher Zukunft erheblich beeinflussen wird, und 35 Prozent haben die Auswirkungen bereits erlebt. Cybersicherheitsexperten erkennen demnach, dass ihren Organisationen das Fachwissen und das Bewusstsein für eine sichere Implementierung von KI fehlen. Dies biete Cybersicherheitsexperten eine enorme Chance, eine führende Rolle einzunehmen, indem sie ihr Fachwissen im Bereich sichere Technologie einsetzen und deren sicheren und ethischen Einsatz gewährleisten, so ISC2.

Das Recruitment-Unternehmen Hamlyn Williams beispielsweise sieht neue Berufsbilder in der Cybersicherheit: KI-Sicherheitsspezialisten zum Beispiel konzentrieren sich auf die Integration von künstlicher Intelligenz und maschinellem Lernen in Cybersicherheitsstrategien. Spezialisten für Automatisierung und Incident Response nutzen Automatisierungstools, um Incident-Response-Prozesse zu verbessern. Sie entwickeln automatisierte Skripte und KI-Systeme, um Sicherheitsvorfälle schnell zu identifizieren, zu analysieren und darauf zu reagieren.

Wichtig ist die richtige Balance zwischen dem menschlichen Faktor und dem Einsatz von KI in der Cybersicherheit. Bildquelle: Capterra

KI verändert also die Security-Berufsbilder, aber macht sie nicht etwa überflüssig, im Gegenteil. Die Veränderungen durch KI schaffen neue Aufgaben.

KI VERÄNDERT DIE CYBERSICHERHEIT AUF ALLEN EBENEN

KI revolutioniert die Cybersicherheit, auf alle Ebenen der Security, Personal, Prozesse und Technologie. KI wird „Teil“ des Personals, automatisiert Abläufe und optimiert Security-Technologien, von der verbesserten Phishing-Erkennung und der KI-basierten Warnungen vor Deep-Fakes, über eine intelligente, risikobasierte Zugangskontrolle bis hin zur Automatisierung, Orchestrierung und Beschleunigung der Reaktion auf Vorfälle.

AUTOR:

Schonschek

Doch wird KI die Cybersicherheit eines Tages komplett übernehmen können? Wie autonom kann die Cybersicherheit dank KI werden? Hier kommen die KI-Agenten ins Spiel. KI-Agenten sind Softwaresysteme, die KI verwenden, um im Namen von Nutzern Ziele zu verfolgen und Aufgaben zu erledigen. KI-Agenten zeigen logisches Denken, können planen und sich erinnern und haben ein gewisses Maß an Autonomie, um Entscheidungen zu treffen, zu lernen und sich anzupassen.

Die Cloud Security Alliance (CSA) nennt Aufgaben für KI-Agenten in der Security: Im Bereich Threat Intelligence zum Beispiel erkennen KI-Agenten Anomalien, verfolgen Cyberangriffe und prognostizieren zukünftige Bedrohungen. Durch die Analyse von Echtzeitdatenpunkten identifizieren sie bösartige Aktivitäten, bevor diese eskalieren. Dabei melden sie nicht nur, sie können autonom agieren, dies spart Ressourcen und verkürzt die Reaktionszeiten.

„Die Fortschritte in den Bereichen Reasoning und Multi-Agent-Systeme ermöglichen es diesen Technologien, auch in dynamischen und unstrukturierten Umgebungen zuverlässig zu agieren“, erklärt Kai Ebert, Lableiter des Labs AI Value Chain im Ressort KI im BVDW (Bundesverband Digitale Wirtschaft). Dennoch stünden Unternehmen vor der Herausforderung, geeignete Kontrollmechanismen zu etablieren, um Fehlentscheidungen zu vermeiden. Die Integration von Agentic AI erfordere daher nicht nur technologische, sondern auch organisatorische Anpassungen, um ein ausgewogenes Zusammenspiel zwischen menschlicher Expertise und maschineller Autonomie zu gewährleisten.

„Während KI-gestützte Cybersicherheit Automatisierung, Geschwindigkeit und Skalierbarkeit mit sich bringt, sorgen Mitarbeiter für kritisches Denken, ein kontextbezogenes Verständnis und ethische Überlegungen für eine effektive Cybersicherheitsabwehr,” kommentiert Ines Bahr, Senior Content Analystin bei Capterra, die Aufgabenteilung zwischen KI und Mensch.

Das sieht auch das Analystenhaus Forrester so: „Obwohl erste Beispiele für KI-Agenten vielversprechend sind und autonome Entscheidungsfindung ermöglichen, benötigt diese Technologie noch mehr Genauigkeit, Vertrauen und Koordination, um sich durchzusetzen.“ Forrester erwartet in den nächsten zwei bis fünf Jahren den Durchbruch für die KI-Agenten, die dann die Revolution in der Cybersicherheit fortführen. Security-Abteilungen werden dann besetzt sein aus gemischten Teams, KI-Agenten, KI-Assistenten und Security-Fachkräften, die gleichzeitig KI-Expertinnen und -Experten sein müssen und werden.

„Die Bedeutung der digitalen Souveränität in Europa nimmt stetig zu.“

SOUVERÄN SICHER

VOR CYBERBEDROHUNGEN

MIT G DATA

MANAGED EXTENDED DETECTION AND RESPONSE

CYBERANGRIFFE NEHMEN RASANT ZU

UND DAMIT AUCH DIE HERAUSFORDERUNGEN FÜR UNTERNEHMEN.

VIELE IT-VERANTWORTLICHE SIND

MIT DER EFFEKTIVEN ABSICHERUNG

DER IT-SYSTEME ÜBERFORDERT.

ES MANGELT AN ZEIT, PERSONAL UND TIEFGREIFENDEM FACHWISSEN.

DIE LÖSUNG FÜR DAS PROBLEM IST

G DATA 365 | MXDR (MANAGED EXTENDED DETECTION AND RESPONSE).

Bildquelle: G DATA CyberDefense AG

Cyberattacken sind heute oft individualisiert und dateilos. Angreifer nutzen ungeschlossene Sicherheitslücken in Anwendungen oder Betriebssystemen aus oder sie setzen auf Phishing, um an Zugangsdaten zu kommen. Ein hundertprozentiger Schutz vor Attacken ist kaum möglich. Es kommt daher darauf an, das Netzwerk zu überwachen, schädliche Aktivitäten aufzuspüren und sofort richtig darauf zu reagieren.

Genau dies leistet die deutsche Security-Operation-Center-Lösung (kurz SOC): G DATA 365 | MXDR.

24/7-RUNDUMSCHUTZ

Ein erfahrenes Analystenteam überwacht bei G DATA 365 | MXDR das Netzwerk rund um die Uhr. Die Managed-SOC-Expertinnen und -Experten haben alle Vorgänge im Blick und betreiben Threat Hunting: Sie analysieren verdächtige Aktivitäten und Unregelmäßigkeiten, um schädliche Vorgänge aufzudecken. Bei einem Angriff handeln sie umgehend und stoppen diesen – zu jeder Tages- und Nachtzeit.

IT-Verantwortliche werden über Vorfälle informiert und finden in der Webkonsole alle relevanten Informationen. Zusätzlich führt das Analystenteam Root-Cause-Analysen (RCA) durch, um die Ursachen von Sicherheitsvorfällen zu identifizieren und daraus fundierte und verständliche Handlungsempfehlungen in deutscher Sprache abzuleiten.

WWW.GDATA.DE/MXDR

STARKE TECHNOLOGISCHE BASIS

G DATA 365 | MXDR basiert auf selbst entwickelten Security-Komponenten. Diese werden kontinuierlich weiterentwickelt. Unternehmen stehen persönliche Ansprechpartner zur Seite, unterstützt von einem preisgekrönten deutschsprachigen 24/7-Support. Beim Onboarding berät das Cyber-Defense-Unternehmen individuell und thematisiert dabei aktiv das Thema Datenschutz.

DEUTSCHER CYBER-DEFENSE-PARTNER

Die Bedeutung der digitalen Souveränität in Europa nimmt stetig zu. Unternehmen können sich heute nicht mehr voll auf Dienstleister aus Übersee verlassen. Daher ist Vertrauen bei der Wahl des passenden Managed-SOC-Anbieters sehr wichtig. G DATA CyberDefense ist in Deutschland ansässig und unterliegt den strengen deutschen Datenschutzgesetzen. Die Dienstleistung wird ebenfalls in Deutschland erbracht – sowohl die Analysten als auch die verschiedenen SupportTeams sitzen in Bochum am Hauptsitz. Dort erfolgt auch die Entwicklung sämtlicher Software-Komponenten – und das garantiert ohne eingebaute Hintertüren für staatliche Organisationen. Vom Serverstandort bis zum Personal – der einzige Managed-XDR-Service

AUF DER IT-SA 2025

IST G DATA CYBERDEFENSE IN HALLE 7A, STAND 314 ZU FINDEN. https://www.gdata.de/

POST-QUANTEN-KRYPTOGRAFIE IM UNTERNEHMEN

MIT

QUANTENSICHERER KRYPTOGRAFIE ENTSPANNT

IN DIE ZUKUNFT

QUANTENCOMPUTER BEDROHEN DIE

GRUNDLAGEN MODERNER VERSCHLÜSSELUNG.

UNTERNEHMEN STEHEN VOR EINEM WENDEPUNKT.

WER JETZT NICHT HANDELT, RISKIERT MEHR ALS NUR TECHNISCHE RÜCKSTÄNDE.

POST-QUANTEN-KRYPTOGRAFIE KANN ZUR CHANCE FÜR SICHERHEIT, COMPLIANCE UND INNOVATION WERDEN.

AUTOR: THOMAS JOOS

Post-Quanten-Kryptografie (PQC) markiert eine tiefgreifende Wende in der Absicherung digitaler Infrastrukturen. Klassische asymmetrische Verschlüsselungsverfahren wie RSA oder ECC gelten im Angriffsmodell leistungsfähiger Quantencomputer als vollständig angreifbar. Shors Algorithmus kann die zugrunde liegenden mathematischen Probleme effizient lösen und macht damit etablierte Public-Key-Verfahren obsolet.

Quantum-ComputerRessourcen lassen sich bereits aktuell nutzen und auch für Cyberattacken verwenden.

Bildquelle: Th. Joos

Bei symmetrischen Verfahren wie AES oder HMAC ist die Lage weniger dramatisch, aber dennoch gefährlich. Grovers Algorithmus beschleunigt zwar die Schlüsselsuche, halbiert aber lediglich die effektive Schlüssellänge, sodass eine Verdopplung der Schlüssellänge genügt, um das ursprüngliche Sicherheitsniveau zu erhalten.

DRINGLICHKEIT DURCH „HARVEST NOW, DECRYPT LATER“

Das Risiko quantenbasierter Angriffe ergibt sich nicht erst mit funktionsfähigen Quantencomputern. Angreifer archivieren heute bereits verschlüsselte Daten in der Absicht, diese später mit Quantenhardware zu entschlüsseln. Besonders betroffen sind Systeme mit langen Datenhaltungsfristen. Dazu zählen Gesundheitsdaten, langfristige Finanzarchive oder kryptografische Root-Zertifikate in Public-Key-Infra -

strukturen. Das Risiko liegt nicht in einem zukünftigen Bruch, sondern in der aktuellen Speicherung unsicherer Informationen.

PQC setzt auf neue mathematische Problemklassen, die auch für Quantencomputer keine praktikablen Lösungswege eröffnen. Dazu gehören Gitterprobleme wie das Learning-with-Errors-Problem oder das Short-Integer-Solution-Problem. Beispiele für standardisierte Verfahren sind CRYSTALS-Kyber für den Schlüsselaustausch und CRYS -

TALS-Dilithium für digitale Signaturen. Beide wurden 2024 vom USamerikanischen National Institute of Standards and Technology (NIST) in die Standardisierung überführt und bilden die Grundlage für eine quantensichere Kryptografie.

KONKRETE RISIKEN FÜR UNTERNEHMENSINTERNE

SICHERHEIT UND COMPLIANCE

Unternehmen, die PQC ignorieren, setzen langfristig die Vertraulichkeit sensibler Daten aufs Spiel. Angreifer archivieren verschlüsselte Informationen mit dem Ziel, diese in einigen Jahren mit Quantencomputern zu entschlüsseln. Besonders betroffen sind Daten mit langer Lebensdauer wie Kundenarchive, Vertragswerke, Gesundheitsakten oder interne PKIStrukturen. Ein später Bruch dieser Informationen kann rechtliche Folgen nach sich ziehen, etwa durch Verstöße gegen Datenschutzvorgaben oder regulatorische Anforderungen. Hinzu kommen wirtschaftliche Risiken wie der Verlust geschäftskritischer Informationen oder die Gefährdung strategischer Partnerschaften. Ohne PQC fehlen zudem zentrale Voraussetzungen für zukünftige Zertifizierungen in Bereichen wie E-Government, kritische Infrastruktur oder internationaler Datenaustausch. Wer heute nicht handelt, riskiert morgen den Verlust kryptografischer Integrität.

Angreifer archivieren heute bereits verschlüsselte Daten in der Absicht, diese später mit Quantenhardware zu entschlüsseln.

Bildquelle: Adobe / Stock / KI generiert

TECHNOLOGISCHE GRUNDLAGE UND SICHERHEITSKRITI -

SCHE IMPLIKATIONEN

Der Algorithmus CRYSTALS-Kyber wurde speziell für ein Problem entwickelt, das durch die Einführung leistungsfähiger Quantencomputer entsteht. Während klassische asymmetrische Verschlüsselung wie RSA darauf basiert, dass bestimmte mathematische Probleme, zum Beispiel die Zerlegung großer Zahlen in Primfaktoren, sehr aufwendig sind, könnten Quantencomputer diese Aufgaben in vergleichsweise kurzer Zeit lösen. Damit wären viele aktuelle Sicherheitsmechanismen obsolet. Kyber verfolgt daher einen völlig anderen Ansatz.

Quanten-Computer halten bereits Einzug in Unternehmen. Die Sicherheit sollte damit mitgehen.

Bildquelle: Th. Joos

Im Kern basiert Kyber auf dem mathematischen Prinzip „Learning with Errors“. Dabei geht es nicht mehr um das Faktorisieren von Zahlen, sondern um das Lösen linearer Gleichungen, denen absichtlich kleine Fehler hinzugefügt wurden. Diese Fehler, auch als „Rauschen“ bezeichnet, dienen nicht der Tarnung, sondern stellen eine aktive Schutzmaßnahme dar. Nur wer den richtigen geheimen Schlüssel besitzt, kann aus dem verrauschten Datenmaterial die korrekte Lösung rekonstruieren. Für Angreifer ohne diesen Schlüssel sind die Gleichungen mathematisch kaum lösbar, auch mit einem Quantencomputer.

Kyber wird vor allem für den Schlüsselaustausch eingesetzt. Zwei Kommunikationspartner können damit sicher einen gemeinsamen geheimen Schlüssel vereinbaren, ohne dass ein Angreifer diesen aus den übertragenen Informationen rekonstruieren kann. Wichtig ist, dass Kyber auch praktisch einsetzbar ist. Die Schlüsselgrößen und Antwortzeiten liegen in einem Bereich, der für Netzwerke und Anwendungen geeignet ist. Das Verfahren wurde vom US-amerikanischen NIST 2024 als Standard für Post-Quantum-Kryptografie bestätigt und wird zunehmend in Cloud-Diensten, VPNs, Mobilplattformen und eingebetteten Systemen integriert. Kyber gilt damit als zentrale Antwort auf die Frage, wie sich digitale Kommunikation gegen die Rechenmacht künftiger Quantenprozessoren absichern lässt.

Im Gegensatz zu klassischen Verfahren basiert Kyber auf dem Learning-with-Errors-Problem, das in hochdimensionalen Gitterstrukturen

formuliert ist. Die Schwierigkeit besteht darin, unter Rauscheinfluss bestimmte Vektoren zu rekonstruieren, was selbst für Quantenalgorithmen als nicht praktikabel gilt. Bei Dilithium handelt es sich um ein Signaturschema, das auf dem Short-Integer-Solution-Problem basiert. In der Praxis zeigen beide Verfahren hohe Performance bei moderatem Speicherbedarf, auch wenn Schlüssel und Signaturen größer sind als bei ECC.

ALTERNATIVEN ZU KYBER UND IHRE ROLLE IN DER KRYPTOAGILEN ARCHITEKTUR

Neben CRYSTALS-Kyber existieren mehrere alternative Schlüsselkapselungsverfahren, die im Rahmen der NIST-Auswahlverfahren als potenziell quantensichere Algorithmen vorgeschlagen wurden. Dazu zählt FrodoKEM, das auf Standardgittern basiert und durch konservative Sicherheitsannahmen überzeugt, allerdings deutlich größere Schlüsselund Ciphertext-Größen aufweist. NTRU als weiterer Gitterkandidat ist für ressourcenschwache Geräte geeignet, da es kompakt implementierbar ist, stellt jedoch höhere Anforderungen an die sichere Parameterwahl.

Codebasierte Verfahren wie BIKE und HQC nutzen Fehlerkorrekturmechanismen als mathematische Grundlage und gelten insbesondere HQC zufolge als robuste, wenn auch speicherintensivere Alternativen. Isogenie-basierte Verfahren wie SIKE wurden aufgrund neu entdeckter Schwachstellen zurückgezogen. In kryptoagilen Architekturen empfiehlt sich daher, neben Kyber auch Verfahren mit unterschiedlicher mathematischer Basis wie FrodoKEM oder HQC als sekundäre Optionen vorzusehen, um eine Diversifikation bei der Absicherung gegen mögliche zukünftige algorithmische Angriffe zu erreichen.

EINFÜHRUNG HYBRIDER KRYPTOARCHITEKTUREN

Die Migrationsstrategie hin zu PQC erfolgt in mehreren Phasen. Kurzfristig dominiert der hybride Ansatz, bei dem klassische und quantensichere Algorithmen parallel eingesetzt werden. Bei Signaturen

Unternehmen, die Post-QuantumCryptography ignorieren, setzen langfristig die Vertraulichkeit sensibler Daten aufs Spiel. Bildquelle: Adobe / Stock / azi / KI generiert

PQC setzt auf neue mathematische Problemklassen, die auch für Quantencomputer keine praktikablen Lösungswege eröffnen.

Bildquelle: Adobe / Stock / KI generiert

bedeutet dies die doppelte Unterzeichnung mit RSA und Dilithium. Im Schlüsselaustausch kombinieren Systeme ECC mit Kyber. Dieses Vorgehen erhält die Interoperabilität und ermöglicht stufenweise Migration. Es entspricht Empfehlungen europäischer Behörden wie der ANSSI und ENISA, während US-Behörden in vielen Anwendungsfällen bereits auf reine PQC-Verfahren setzen.

Nationale und internationale Akteure setzen verbindliche Zeitpläne. Die EU sieht im Rahmen des Digital Europe Programms die flächendeckende Umstellung sicherheitskritischer Systeme bis 2035 vor. Die NIS-Roadmap benennt konkrete Meilensteine: 2026 für die erste Erhebung kryptografischer Abhängigkeiten, 2030 für die Migration aller Hochrisikokomponenten. In den USA gibt das Memorandum NSM-10 der Biden-Administration vor, dass ab 2030 keine FIPS-zertifizierte Lösung mehr klassische Verfahren enthalten darf. Das betrifft auch Geräte-Zertifizierungen, sichere Firmware-Updates und Behördeninfrastruktur.

ALGORITHMISCHE DIVERSITÄT UND GLOBALE STANDARDISIERUNGSDYNAMIK

Die Auswahl quantensicherer Algorithmen ist kein rein technischer Vorgang, sondern Ergebnis globaler Konsensbildung zwischen Forschung, Industrie und staatlichen Stellen. Der NIST-Prozess zur PQCStandardisierung umfasst seit 2016 eine international getragene Evaluierung durch akademische Peer-Reviews, Praxisbenchmarks und sicherheitsrelevante Stresstests. Aus über 80 Einreichungen wurden mit Kyber und Dilithium bislang zwei Verfahren der CRYSTALS-Familie priorisiert. Parallel verläuft die Standardisierung weiterer Kandidaten wie HQC (codebasiert), SPHINCS+ (hashbasiert) oder BIKE (Fehlerschutzcode-basiert), deren Spezifika für Spezialanwendungen wie Root-Zertifikate, Signaturen mit langen Gültigkeitszeiträumen oder hardwareoptimierte Umgebungen besser geeignet sind.

Die EU fördert zusätzlich eigene Kandidatenlinien über ETSI und ENISA, während asiatische Gremien in Japan, Südkorea oder China eigenständige Verfahren validieren. Diese algorithmische Pluralität erzeugt Spannungen zwischen globaler Interoperabilität und lokaler Souveränität. Für Unternehmen bedeutet das, dass PQC nicht als starres Ziel, sondern als dynamisches Technologiefeld zu betrachten ist, in dem die getroffene Wahl regelmäßig überprüft und an neue Empfehlungen angepasst werden muss. Eine frühzeitige Integration von mehreren Algorithmusfamilien in crypto-agile Systeme stellt sicher, dass auch im Falle späterer Rückzüge oder Sicherheitslücken nicht erneut vollständige Migrationen erforderlich werden.

GLOBALE STANDARDISIERUNG UND ALGORITHMISCHE DIVERSIFIZIERUNG

Die Internationalisierung der PQC-Standards verläuft dezentral, fragmentiert und politisch aufgeladen. Neben den offiziellen NIST-Verfahren, die maßgeblich auf US-Forschung basieren, entstehen parallele Ansätze in Europa, Kanada und Asien. Das EU-geförderte PQC-Projekt FoCaM verfolgt mit alternativen Schlüsselvereinbarungsprotokollen eigene Prioritäten, während Japan mit isogeniebasierten Verfahren experimentiert. Die IETF entwickelt unabhängig von NIST hybride Protokollerweiterungen für TLS, IKEv2 und X.509-Zertifikate, die auch nichtstandardisierte Algorithmen berücksichtigen. Diese Diversifizierung erfordert eine höhere Resilienz gegenüber potenziellen Schwächen einzelner Verfahren. Sicherheitsagenturen wie die französische ANSSI und das deutsche BSI empfehlen daher in bestimmten Szenarien sogenannte Composite-Ansätze, bei denen zwei Post-Quantum-Verfahren mit unterschiedlichen mathematischen Grundlagen kombiniert werden. Die Validierung solcher Kombinationen bleibt jedoch offen, ebenso wie Fragen nach Zertifizierungsfähigkeit, Hardware-Kompatibilität und Langzeitarchivierung signierter Objekte in Multi-Algorithmen-Umgebungen.

KRYPTOAGILITÄT ALS STRATEGISCHE VORAUSSETZUNG

Technische Migration allein genügt nicht. Unternehmen benötigen crypto-agile Architekturen, um zukünftig auf neue Algorithmen reagieren zu können. Dies betrifft Schlüsselaustauschprotokolle, PKI-Strukturen, Signaturvalidierung und Spezifikationen wie TLS, IPsec oder S/ MIME. Systeme müssen so entworfen sein, dass kryptografische Module ausgetauscht werden können, ohne zentrale Komponenten zu modifizieren. Software-Bibliotheken wie AWS LibCrypto, Bouncy Castle PQ oder das Open Quantum Safe Projekt bieten erste Grundlagen für diesen Umbau.

Anbinden von weiteren QuantenRessourcen zu Azure Quantum. Bildquelle: Th. Joos

Die Umsetzung quantensicherer Kryptografie in gewachsenen IT-Landschaften erfordert mehr als den Austausch einzelner Algorithmen. Unternehmen stehen vor der Aufgabe, kryptografische Abhängigkeiten über mehrere Schichten hinweg zu identifizieren und zu bewerten. In Legacy-Systemen, die auf fest kodierte Schlüsselformate, proprietäre Middleware oder ältere Protokollstacks setzen, lässt sich PQC nur mit erheblichem Aufwand integrieren.

Der erste Schritt besteht in der Erstellung eines vollständigen Cryptographic Inventory, das alle verwendeten Algorithmen, Bibliotheken und Schnittstellen dokumentiert. Tools wie das Cryptographic Bill of Materials (CBOM) nach NIST SP 800-175 oder das AWS CryptoScan Framework helfen bei der systematischen Erhebung. Darauf aufbauend müssen Governance-Strukturen etabliert werden, die Zuständigkeiten für Schlüsselrotation, Versionsmanagement und Algorithmuswechsel klar regeln. Viele Organisationen implementieren hierzu dedizierte PQC-Migration-Workstreams unter Leitung eines Chief Cryptography Officer oder eines übergreifenden Security Architecture Boards. Entscheidungsprozesse zu Algorithmusauswahl, Migrationsreihenfolge oder Interoperabilität mit externen Partnern lassen sich nur auf Basis eines solchen Governance-Modells sinnvoll steuern. Die größte Herausforderung liegt dabei in der Synchronisation mit Zulieferketten, externen Dienstleistern und Zertifizierungsstellen, die nicht immer im gleichen Tempo umstellen können.

IMPLEMENTIERUNGSREIFE UND OFFENE HERAUSFORDERUNGEN

Trotz der inzwischen veröffentlichten NIST-Standards FIPS 203 (MLKEM), FIPS 204 (ML-DSA) und FIPS 205 (SLH-DSA) bleiben technische, organisatorische und infrastrukturelle Fragen ungelöst. Die Umstellung betrifft nicht nur Algorithmen, sondern erfordert tiefgreifende Änderungen in Schlüsselinfrastruktur, Gerätefirmware, Sicherheitsrichtlinien und Softwarearchitektur. Legacy-Systeme mit fest kodierten

Schlüssellängen, starren Protokollversionen oder fehlender Modularisierung stoßen an ihre Grenzen. Selbst einfache Maßnahmen wie der Umstieg auf TLS 1.3 oder die Ablösung von ECDSA durch Dilithium scheitern oft an inkompatiblen Komponenten oder unzureichender Automatisierung in der Softwareverteilung. Unternehmen benötigen deshalb klare Migrationspfade, Priorisierung nach Risikoklassen und eine verbindliche Governance für kryptografische Abhängigkeiten über die gesamte Lieferkette hinweg.

PRAKTISCHE UMSETZUNG IN CLOUD- UND NETZWERKINFRASTRUKTUREN

Die Einführung postquantenresistenter Verfahren betrifft nicht nur Endgeräte oder Embedded-Systeme, sondern auch zentrale Netzwerkprotokolle und Cloud-Plattformen. Bei TLS muss insbesondere der Schlüsselaustausch über Diffie-Hellman durch hybride oder reine PQCMechanismen ersetzt werden. AWS verfolgt hierzu eine mehrjährige Roadmap, bei der öffentliche Endpunkte schrittweise auf Post-Quantum-TLS aktualisiert werden. Gleichzeitig liegt es in der Verantwortung der Kunden, eigene Clientanwendungen anzupassen und kryptografische Abhängigkeiten in Quelltexten, SDKs oder Appliances zu inventa -

Bei postquantenresistenten Verfahren muss man auch an zentrale Netzwerkprotokolle und Cloud-Plattformen denken. Bildquelle: Adobe / Stock / GreenOptix / KI generiert

risieren. Ähnlich komplex zeigt sich die Integration in IPsec oder VPNGateways, bei denen Hardware, Firmware und PKI in Einklang gebracht werden müssen. Dienste wie das AWS Key Management System (KMS) oder Secrets Manager bieten bereits PQC-Unterstützung, wobei die Kunden selbst für die Schlüsselrotation und Infrastrukturkompatibilität verantwortlich sind.

Herausforderungen entstehen auch im Umfeld begrenzter Ressourcen. Geräte mit ARM Cortex-M7-Prozessoren, wie sie in Automotive- und Satellitentechnik eingesetzt werden, müssen PQC-Verfahren effizient implementieren können. Untersuchungen mit stateless hash-based Signaturen wie SLH-DSA zeigen, dass Signaturgrößen im Bereich mehrerer Kilobyte liegen. Die Verifikation bleibt jedoch möglich, insbesondere durch Hardwarebeschleuniger. Maskierungsverfahren gegen Side-Channel-Angriffe, zum Beispiel mittels höherer Masking-Orders, ermöglichen signifikante Verbesserungen der physischen Sicherheit auf Kosten der Latenz.

Die Umsetzung quantensicherer Kryptografie in gewachsenen IT-Landschaften erfordert mehr als den Austausch einzelner Algorithmen. Bildquelle: Adobe /Stock / NNJ Designs / KI generiert

MARKTENTWICKLUNG UND INFRASTRUKTURUMSTELLUNG

Omdia prognostiziert einen Anstieg des weltweiten Umsatzes im Quantencomputing von 1,1 Milliarden US-Dollar im Jahr 2023 auf 28,2 Milliarden US-Dollar bis 2033. Cloudbasierte Dienste machen den größten Anteil aus, Investitionen und erste industrielle Anwendungen zeigen, dass sich das Feld rasch in Richtung praktischer Nutzung entwickelt.

Bereits heute planen über 15 Prozent der Unternehmen eine Integration quantensicherer Verfahren. Unternehmen wie IBM und AWS bieten erste PQC-fähige Dienste und Bibliotheken an. Ripple testet mit CRYSTALS-Dilithium im XRP-Ledger. Apple hat ML-KEM bereits in iOS und macOS integriert. Die EU fördert PQC-Projekte wie PQC Finland oder das EU-PQC-Konsortium, das einheitliche Migrationspfade und Zertifizierungsmodelle etablieren soll.

PQC bedeutet mehr als Risikominimierung. Unternehmen, die frühzeitig in quantensichere Strukturen investieren, verbessern nicht nur ihre Resilienz, sondern gewinnen regulatorische Sicherheit, reduzieren langfristige Compliance-Kosten und stärken ihr Vertrauen im Markt. Das betrifft insbesondere Unternehmen mit hohen Anforderungen an Vertraulichkeit, Integrität und Authentizität. Post-Quanten-Kryptografie wird zum Differenzierungsmerkmal in einer zunehmend quantenfähigen Technologielandschaft.

CYBERBEDROHUNGEN ENTWICKELN SICH SCHNELL –MACHEN SIE IHRE MITARBEITER

ZU SICHEREN FAHRERN IM RENNEN.

Unsere Welt dreht sich immer schneller. Ob Internetgeschwindigkeit, digitale Alltagshelfer, Lieferdienste oder Nachrichten –Veränderungen finden in rasantem Tempo statt.

Auch in der IT-Security herrscht Hochgeschwindigkeit. Wir entwickeln kontinuierlich neue Wege, um Bedrohungen zuvorzukommen und abzuwehren – immer im direkten Duell mit den Angreifern. Doch bei aller technischer Finesse dürfen wir nicht vergessen: Es ist nicht nur die Technologie, die im Rennen ist, sondern auch die Menschen.

Cybersicherheit bedeutet mehr als nur Technik. Entscheidend ist, wie wir Mitarbeiter mitnehmen, einbinden und gemeinsam mit smarter Technologie stark machen.

Wie das gelingen kann? Indem wir Lösungen schaffen, bei denen beide Seiten gewinnen: Die Mitarbeiter werden gestärkt und leisten gleichzeitig einen wertvollen Beitrag zur Sicherheitsarchitektur.

Ein bewährter Ausgangspunkt ist die Mailbox. Jeder kann verdächtige E-Mails melden – ein zentraler Bestandteil jeder Sicherheitsstrategie. Doch was passiert nach dem Klick auf „Melden“? In vielen Fällen: nichts.

Und genau hier liegt das Problem. Wer keine Rückmeldung erhält, weiß nicht, ob die E-Mail gefährlich war und ob die Meldung überhaupt etwas bewirkt hat. Diese fehlende Transparenz führt dazu, dass weniger gemeldet wird, mit ernsthaften Folgen:

• Die Sensibilität für Phishing & Co. sinkt.

• Wertvolle Lernmomente in Sachen Security bleiben aus.

• SOC-Teams erhalten keine Hinweise auf durchgekommene Bedrohungen –mögliche koordinierte Angriffe bleiben unent deckt.

Die Lösung: Das Melden muss sowohl für das Unternehmen als auch für die Mitarbeiter echten Mehrwert bieten.

Hornetsecurity hat genau das umgesetzt – mit einer Lösung, die eingehende E-Mails nach dem Melden automatisch analysiert und sofort Rückmeldung gibt.

Der AI Email Security Analyst prüft jede gemeldete Nachricht in Echtzeit. Mitarbeiter erhalten direkt eine Einschätzung: harmlos oder gefährlich – inklusive konkreter Begründung und Handlungsempfehlung.

Das schafft Mehrwert auf mehreren Ebenen:

• Sofortige Analyse gemeldeter E-Mails

• Praktische Schulung im sicheren Umgang mit E-Mails

• Entlastung der SOC-Teams durch Automatisierung

• Stärkung der Sicherheitslage durch schnelle Rückmeldung

Die Lösung ist Teil von 365 Total Protection Plan 4 und basiert auf AI.MY , dem neuen AI Cyber Assistant von Hornetsecurity. Entwickelt, um IT-Teams und Anwender im Arbeitsalltag optimal zu unterstützen.

Lust, selbst einen Blick auf AI.MY zu werfen und gemeinsam mit uns an die Spitze des Rennens zu gehen?

Besuchen Sie Hornetsecurity auf der it-sa in Halle 8. Eine echte Rennstrecke wartet auf Sie!

www.hornetsecurity.com

DEZENTRALISIERUNG VON SECURITY

BLOCK CHAIN

HEBT VERTRAUEN

AUF DEN NÄCHSTEN LEVEL

BASIERTE SYSTEME VERSCHIEBEN VERTRAUEN IN DEZENTRALE KONTROLLE UND EIGENVERANTWORTUNG.

SOVEREIGN IDENTITY UND TRANSPARENTE LIEFERKETTEN

SCHAFFEN WIDERSTANDSFÄHIGE SICHERHEITSMODELLE FÜR

UNTERNEHMEN DER ZUKUNFT OHNE SINGLE POINT OF FAILURE

AUTOR: THOMAS JOOS

Die Blockchain-Technologie stellt ein verteiltes Registersystem dar, in dem Transaktionen blockweise gespeichert, kryptografisch verknüpft und durch Konsensmechanismen validiert werden. Jeder Block enthält einen Hash des vorherigen, wodurch eine unveränderbare Kette entsteht. Datenintegrität wird nicht durch zentrale Autorität, sondern durch Mehrparteienvalidierung und mathematische Absicherung garantiert. Für die IT-Sicherheit ergibt sich daraus ein Paradigmenwechsel: Vertraulichkeit, Authentizität und Nachvollziehbarkeit sind nicht mehr organisatorisch geregelt, sondern systemisch verankert, innerhalb der Infrastruktur. In Bereichen wie Identitätsmanagement, Zugriffssteuerung oder Lieferketten entsteht so eine manipulationsresistente Grundlage, auf der sich Vertrauen technisch reproduzieren lässt, selbst in verteilten, unsicheren oder regulatorisch komplexen Umgebungen.

Blockchain-Datenbanken eliminieren zentrale Kontrollstellen. Stattdessen beruht Integrität auf verteiltem Konsens, kryptographischer Signatur und lückenloser Nachvollziehbarkeit. Ob Identitäten, Daten oder Transaktionen, ihre Authentizität ergibt sich aus kryptografischem Protokoll und der automatisierten Abstimmung zahlreicher Knoten. Klassische Schwachstellen wie zentralisierte Zertifikatsstellen entfallen. Das Modell ist besonders geeignet für fragmentierte Geschäftslandschaften mit mehreren Beteiligten, wo Vertrauen nicht vorausgesetzt wird, sondern technisch erzeugt wird.

SELF

- SOVEREIGN IDENTITY ALS PARADIGMENWECHSEL

Self- Sovereign Identity (SSI) verleiht Nutzern Kontrolle über ihre Identität. SSI bezeichnet ein Identitätsmodell, bei dem Individuen oder Organisationen ihre digitalen Identitäten vollständig selbst verwalten, ohne auf zentrale Instanzen angewiesen zu sein. In klassischen Systemen liegt die Kontrolle über Identitätsdaten meist bei Dritten. Diese Stellen speichern, validieren und verwalten persönliche Daten zentral. Nutzer haben dabei kaum Einfluss auf den Zugriff, die Verwendung oder den Verbleib dieser Informationen.

SSI kehrt dieses Verhältnis um. Nutzer erzeugen ihre Identitäten dezentral, ohne eine zentrale Vergabestelle, auf Grundlage kryptographischer Schlüsselpaare. Aus diesen entsteht ein sogenannter "dezentraler Identifikator" (DID), eine global eindeutige Kennung, die nicht von außen vergeben, sondern vom Nutzer selbst erzeugt wird. Der zugehörige öffentliche Schlüssel wird in einem DID Document gespeichert, das öffentlich zugänglich gemacht werden kann, während der private

Schlüssel ausschließlich in der Kontrolle des Identitätsinhabers bleibt. Damit wird die Identität rechnerisch überprüfbar, aber organisatorisch unabhängig. Dadurch entsteht ein technisches Fundament für Selbstbestimmung, das sich weder durch zentrale Ausfälle noch durch institutionelle Vertrauensbrüche kompromittieren lässt. Das bedeutet:

• Identitätsdaten liegen in der Hand des Nutzers

• Freigaben erfolgen kontrolliert, datensparsam und nachvollziehbar

• Vertrauen basiert auf kryptographischen Signaturen, nicht auf zentraler Speicherung

Damit wird Identität nicht nur portabel und interoperabel, sondern vor allem souverän, im Sinne technischer Eigenverantwortung und informationeller Selbstbestimmung. Verifiable Credentials ruhen auf dezentralen Identifikatoren (DIDs) statt zentraler Speicher. Nutzer entscheiden selektiv, welche Attribute sie weitergeben, ohne zentrale Instanz oder massive Datensammlung. SSI-Frameworks wie Sovrin , Veramo (ehem. uPort) oder Civic erfüllen Prinzipien wie Portabilität, Minimalität und Unabhängigkeit vom zentralen Anbieter.

TECHNOLOGISCHE UMSETZUNG VON SSI MIT ORACLE

BLOCKCHAIN UND HYPERLEDGER FABRIC

Oracle zeigt, wie sich Self-Sovereign Identity (SSI) auf Basis eines permissioned Netzwerks konkret implementieren lässt. In einem gemeinsam mit der Lehigh University realisierten Projekt wurde die Oracle Blockchain Platform als verifiable data registry (VDR) genutzt, um dezentrale Identitäten (DIDs) und kryptographisch verifizierbare Nachweise (VCs) direkt auf einer Hyperledger-Fabric-Instanz umzusetzen. Die Architektur folgt dem etablierten SSI-Modell mit den Rollen Issuer, Holder und Verifier, die über Agenten interagieren und über REST-basierte Schnittstellen mit der Blockchain kommunizieren. Die DID-Operationen werden dabei durch speziell entwickelte Chaincodes abgebil -

Hyperledger Indy kann für den sicheren Einsatz von Blockchains im Security-Bereich ein wichtiger Faktor sein. Bildquelle: Th.Joos

det, während die Verifiable Credentials in Peer-to-Peer-Mechanismen zwischen den Beteiligten ausgetauscht werden.

Durch ein neu entwickeltes JSON-LD-Proof-Handling konnte das Sys tem vollständig W3C-konform aufgebaut werden. Eine Besonderheit des Projekts lag in der Ablösung Indy-spezifischer Bibliotheken zugunsten eines Ledger-unabhängigen VDR-Moduls, das direkt mit OBP arbeitet. Der gesamte Stack wurde in Oracle Cloud Infrastructure integriert, einschließlich Agentenframework, React-Frontend, Wallet-Anbindung und einer vollständigen Ablaufsteuerung für Credential-Issuing, -Storage und -Presentation. Die Lösung wurde für reale Anwendungsfälle wie den Zugriff auf elektronische Gesundheitsakten (EHR) entwickelt, bei denen Patienten selbst digitale Nachweise ausstellen, empfangen und kontrolliert an andere Institutionen weitergeben können. Damit demonstriert Oracle nicht nur die technische Machbarkeit einer sicheren, dezentralen Identitätsinfrastruktur, sondern auch deren unmittelbare Relevanz für Datenschutz, Interoperabilität und Souveränität in kritischen Branchen wie dem Gesundheitswesen.

ZERO-KNOWLEDGE-PROOFS ALS TECHNOLOGISCHE BRÜCKE ZWISCHEN PRIVATSPHÄRE UND TRANSPARENZ

Die Blockchain liefert Integrität und Nachvollziehbarkeit, doch gerade in Unternehmenskontexten stehen häufig sensible Daten im Zentrum.

Zero-Knowledge-Proofs (ZKP) schaffen hier einen Ausweg aus dem Spannungsfeld zwischen Offenlegung und Vertraulichkeit. Mit ZKP lässt sich die Gültigkeit einer Aussage kryptografisch belegen, ohne dabei die zugrundeliegenden Daten preiszugeben. Das ist für dezentra -

le Identitätslösungen ein zentraler Baustein, zum Beispiel wenn ein Nutzer nachweist, über ein bestimmtes Alter oder eine Qualifikation zu verfügen, ohne Details zu offenbaren. In Lieferketten dient ZKP dazu, Prüfprozesse oder Zertifizierungen nachzuweisen, ohne Einblick in geschützte Geschäftsbeziehungen zu gewähren. Projekte wie ZKsync zeigen, wie sich diese Konzepte praktisch in Layer-2-Architekturen integrieren lassen. Auch Hyperledger Indy erlaubt ZKP-gestützte Credentials, zu Beispiel für den Zugang zu Ressourcen oder für Compliance-Zwecke. Damit entsteht ein funktionierender Spagat zwischen Auditierbarkeit und Datenschutz, eine Anforderung, die zentralisierte Systeme kaum ohne Interessenskonflikte lösen können.

ZKSYNC UND HYPERLEDGER

INDY: ZKP-ANWENDUNGEN

FÜR DIGITALE IDENTITÄT UND

REGULATORISCHE NACHWEISE

Sowohl ZKsync als auch Hyperledger Indy demonstrieren, wie Zero-Knowledge-Proofs (ZKP) in realen Infrastrukturen Sicherheit und Privatsphäre zugleich ermöglichen. ZKsync bindet ZKP-Mechanismen tief in seine Layer-2-Architektur ein und ermöglicht dadurch skalierbare, modulare Blockchain-Umgebungen mit nativer Datenschutzfähigkeit. Ein Beispiel ist der Einsatz im Projekt QuarkID der Stadt Buenos Aires, wo über 3,6 Millionen Bürger mit einer blockchainbasierten digitalen Identität ausgestattet wurden. Diese Lösung erlaubt es, Nachweise zu erbringen, zum Beispiel zu Staatsbürgerschaft oder Wohnsitz, ohne die zugrundeliegenden Daten offenzulegen. Die Identität bleibt lokal kontrolliert, kryptografisch belegbar und interoperabel innerhalb des ZKsync-Ökosystems.

Buenos Aires arbeitet zur Authentifizierung von Bürgerdiensten mit QuarkID. Bildquelle: QuarkID

Auch Hyperledger Indy stellt mit AnonCreds ein Format zur Verfügung, das selektive Offenlegung einzelner Claims erlaubt. Identitätsinhaber können daraus Verifiable Presentations erzeugen, die unabhängig vom ursprünglichen Credential-Spektrum geprüft werden können. Besonders für Compliance-Szenarien wie Altersverifikation, Lizenznachweis oder KYC ist dieses Modell ideal. Unternehmen erhalten nur exakt die Informationen, die sie benötigen und nichts darüber hinaus. Pairwise DIDs sichern zudem die Kommunikation zwischen zwei Parteien ab,

Smart Contracts sind ein wichtiger Faktor bei der Verwendung von Blockchain-Technologie als Sicherheits-Faktor.

Bildquelle: Th.Joos

ohne eine globale Rückverfolgbarkeit zu ermöglichen. In Verbindung mit Hyperledger Aries entstehen daraus anpassbare agentenbasierte Lösungen für Self-Sovereign Identity, die kryptographische Validierung und datensparsame Umsetzung technisch verbinden.

Diese Beispiele zeigen, wie sich ZKP nicht nur als Sicherheitskomponente, sondern als strukturelle Grundlage für digitale Vertrauenssysteme etablieren lässt, skalierbar, interoperabel und kompatibel mit Datenschutzanforderungen weltweit.

HYPERLEDGER & ENTERPRISE-BLOCKCHAINS ALS RÜCKGRAT FÜR SSI

Permissioned Plattformen wie Hyperledger Fabric, Sawtooth oder Besu ermöglichen SSI - Deployments mit Governance und skalierbarer Infrastruktur. Diese Netzwerke bestimmen, welche Knoten validieren, wer Chaincode ausführen darf und wie Zugriff geregelt wird. Fabric erlaubt modulare Zugriffsrechte, hohe Transaktionsraten und Datenschutz durch private Channels. Sawtooth trennt Ledger und Applikationslogik, unterstützt mehrere Konsensmechanismen und erleichtert somit spezifische Unternehmensanforderungen.

Die Wahl des Konsensmechanismus entscheidet über Sicherheit, Performanz und Integritätsmodell eines BlockchainNetzwerks. Während Proof of Work auf Rechenaufwand und damit Unmanipulierbarkeit durch Energieeinsatz setzt, etablieren sich im Enterprise-Umfeld zunehmend ressourcenschonende Verfahren wie Practical Byzantine Fault Tolerance (PBFT) oder Proof of Authority. Hyperledger Fabric verwendet ein modulares Konsensmodell, bei dem Validierung, Ordnung und Commit getrennt erfolgen. Diese Trennung ermöglicht eine präzise Kontrolle über Transaktionsflüsse und Auditierbarkeit einzelner Schritte. Die Manipulation eines Blocks erfordert nicht nur die Änderung des Ledgers, sondern das Umgehen sämtlicher Ordnungsknoten, ein realistischer Angriffsvektor wird damit faktisch eliminiert. Konsensprotokolle wie RAFT oder BFT-SMaRt in Fabric oder Tendermint in Cosmos bieten deterministische Finalität und senken damit das Risiko unein -

heitlicher Sichtweisen innerhalb des Netzwerks. Gerade in regulatorischen Umgebungen ist diese Eigenschaft wichtig, um Konsistenz und Revisionssicherheit nachweisbar abzusichern.

TRANSPARENTE LIEFERKETTEN DURCH BLOCKCHAIN -TECHNOLOGIE

Lieferketten werden globaler, fragmentierter und komplexer. Blockchain ermöglicht lückenlose Verfolgbarkeit jeder Einheit. Projekte wie IBM Food Trust und VeChain bilden Herkunft, Prüfstatus und Transportbedingungen entlang der gesamten Kette ab. Walmart reduzierte die Rückverfolgungszeit für Mangos von sieben Tagen auf 2,2 Sekunden. OpenSC verfolgt Fisch, Palmöl und Milch unter Berücksichtigung ökologischer und sozialer Kriterien.

BLOCKCHAIN-BASIERTE AUDIT-TRAILS UND FORENSISCHE RÜCKVERFOLGBARKEIT

Ein weiterer sicherheitsrelevanter Aspekt der Blockchain-Technologie liegt in der manipulationssicheren Protokollierung von Transaktionen und Systemereignissen. In traditionellen IT-Infrastrukturen stoßen Audit-Logs schnell an Vertrauensgrenzen, etwa wenn Administrationsrechte missbraucht oder Logdaten nachträglich verändert werden. DLT-basierte Audit-Trails schaffen hier eine neue Qualität an Integrität und Transparenz.

Jede protokollierte Aktion wird mit einem Zeitstempel versehen, kryptografisch signiert und unveränderlich in einem verteilten Ledger abgelegt. Besonders in sicherheitskritischen Branchen wie der Finanzwirtschaft, im Energiesektor oder bei regulierten Cloud-Diensten ergibt sich daraus ein nachvollziehbares, revisionssicheres Sicherheitsprotokoll, das sowohl internem Monitoring als auch externen Audits standhält. Systeme wie Chainstack , Guardtime KSI oder die Kombination aus SIEM-Lösungen mit Hyperledger Fabric demonstrieren bereits, wie sich diese Form der forensischen Rückverfolgbarkeit in operative Umgebungen einbinden lässt, unabhängig von der Anzahl der beteiligten Akteure oder der geografischen Verteilung der Systeme. Integrationen mit IoT-Geräten ermöglichen dadurch Echtzeitdatenerfassung. Jedes Sensorevent wird kryptographisch gesichert, jeder

Bildquelle: Adobe / Stock / chartphoto / KI generiert

Schritt öffentlich nachvollziehbar, Manipulationen unmöglich. Smart Contracts als Rahmenwerk für Compliance & Automatisierung Smart Contracts sind digitale Kontrollstrukturen, die automatisiert Regeln durchsetzen. Hyperledger Fabric nutzt modularen „Chaincode“ in gängigen Sprachen wie Go oder JavaScript und lässt sich mit SDKs zentral in Unternehmensprozesse einbinden. Ethereum-kompatible Netzwerke wie Besu erlauben hybride Governance in Enterprise-Strukturen. Smart Contracts reduzieren manuelle Prüfungen, verhindern Regelverstöße und schaffen auditierbare Automationsprozesse. Compliance wird auf Transaktionsverhalten angewendet und nicht nur dokumentiert.

DATENSCHUTZ DURCH ZERO KNOWLEDGE UND PRIVACYBY-DESIGN

SSI-Lösungen wie Citadel verwenden Zero - Knowledge-Proofs, um Besitz oder Berechtigung nachzuweisen, ohne Daten preiszugeben, ganz ohne zentrale Offenlegung. Andere Frameworks kombinieren ShamirSchema oder Multi-Party Computation zur Pseudonymisierung. Zero Knowledge und Privacy-by-Design fügen eine wichtige Schutzschicht hinzu. Nutzer behalten Kontrolle über ihre Daten, während Unternehmen Compliance und Transparenz sicherstellen können.

Entra Verified ID ermöglicht den Einsatz von hybriden Identitätsmodellen.

Bildquelle: Th. Joos

SSI und hybride Identitätsmodelle complementieren zentrale Systeme. Microsoft Entra Verified ID integriert DID-Standards in bestehende Enterprise-Verzeichnisse. Hyperledger Indy und Aries verknüpfen dezentrale Identitäten mit bestehenden Authentifizierungslösungen. Unternehmen können damit selektiv Teile ihrer Identitätsarchitektur dezentralisieren, ohne zentrale Gatekeeper abzuschaffen.

Governance bleibt gewährleistet durch Konsortien oder Verzeichnisinstanzen. Hyperledger Caliper dient zur Leistungsanalyse. Chaincode kann in Entwicklungszyklen versioniert, getestet und validiert werden. Governance-Layer erlauben Kontrolle über Änderungsmanagement und Upgrade-Prozesse. Sawtooth trennt Anwendung von Ledger-Logik, entscheidend für Datenskalierbarkeit und parallele Transaktionen.

Blockchain als Grundlage für sektorübergreifende Interoperabilität

Die zunehmende Fragmentierung digitaler Infrastrukturen macht sektorübergreifende Interoperabilität zu einem Sicherheits- und Effizienzfaktor. Blockchain-basierte Systeme wie Hyperledger Cactus oder Polkadot ermöglichen den Austausch verifizierter Informationen zwischen voneinander isolierten Netzwerken, ohne zentrale Vermittlungsinstanz. Verbindende Layer übernehmen dabei Authentifizierung, Transaktionsvalidierung und Governance-Kompatibilität über standardisierte Schnittstellen.

Lieferantennetzwerke, regulatorische Stellen und Kundenportale lassen sich dadurch miteinander verknüpfen, ohne Sicherheitsniveaus anzugleichen oder operative Systeme zu öffnen. Gerade im Kontext von Compliance-Audits, Mehrparteienverträgen oder sektorübergreifenden Zertifizierungen schafft diese Interoperabilität einen durchgängigen Nachweisfluss, überprüfbar, revisionssicher und automatisierbar. Blockchain wird damit zur technischen Brücke zwischen ehemals inkompatiblen Ökosystemen.

FAZIT

Blockchain bietet nicht einfach einen zusätzlichen Layer, sie transformiert Vertrauen, Identität, Compliance und Prozesssicherheit. SSI verlagert Kontrolle vom Anbieter auf den Nutzer. Smart Contracts automatisieren Prüfprozesse. Transparente Lieferketten sichern Integrität. Zusammen formen diese Bausteine ein Sicherheitsmodell, das resilient, transparent und datenfern gestaltet ist, ein Fundament für digitale Märkte, die Dezentralität ebenso hohes Gewicht beimessen wie Zentralisierung.

Autor: Thomas Joos

Bildquelle: Adobe Stock / Visualmind / KI generiert

JETZT MIT AI CYBER ASSISTANT

UMFASSENDER SCHUTZ FÜR IHRE

M365-UMGEBUNG IN EINER PLATTFORM

SECURITY AWARENESS

AI RECIPIENT VALIDATION

AUTOMATIC BACKUP OF M365 DATA

PERMISSION MANAGEMENT

DMARC REPORTING & MANAGEMENT

AI EMAIL SECURITY ANALYST POWERED

TEAMS PROTECTION

ADVANCED THREAT PROTECTION

GRANULAR RECOVERY WITH END USER SELF SERVICE

UNLIMITED STORAGE IN ONE ALL-INCLUSIVE FEE

EMAIL ARCHIVING CONTINUITY SERVICE

SPAM & MALWARE PROTECTION EMAIL ENCRYPTION

SIGNATURE & DISCLAIMER

Bildquelle:

LAUT BKA BETRUG DER GESAMTWIRT-

SCHAFTLICHE SCHADEN DURCH CYBER -

CRIME IN 2024 178,6 MRD. € GESAMT

FÜR BETROFFENE KMU. EIN EINZELNER

ANGRIFF KANN SCHNELL ZU EINER

EXISTENZBEDROHUNG WERDEN,

ZUMAL OFTMALS KEINE CYBERVERSICHERUNGEN BESTEHEN.

KMU bleiben für Cyberkriminelle besonders attraktive Ziele für einen schnellen Zahltag. Die Sicherheitsmaßnahmen sind oft rudimentär, ein geringer Geldbetrag von oftmals €5.00050.000 lässt sich schnell erbeuten.

Angriffe auf KMU werden für Cyberkriminelle immer einfacher und verfügbare Werkzeuge werden immer besser: Ransomware Frameworks, Phishing-Kits oder Zugangsdaten aus dem Darkweb – die Eintrittsschwelle für Angreifer sinkt weiter dramatisch, während die Angriffsfläche durch die Digitalisierung stetig anwächst.

Der weiterhin komplexen Bedrohungslage adressiert die Europäische Union durch umfassende Richtlinien, wie zum Beispiel die NIS2 Direktive. Mittlere KMU mit mehr als 50 Mitarbeitenden oder Umsatz von mehr als 10 Mio. € sind direkt betroffen, während Kleinunternehmen als systemrelevante Zulieferer ebenfalls von der Richtlinie betroffen sein können. Zum Beispiel kleine IT Dienstleister, die IT Infrastruktur für Unternehmen der kritischen Infrastruktur betreuen, sind relevant.

KMU stehen vor großen Herausforderungen auf Grund der relativen Ressourcen-Knappheit.

AUTOR:

Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4

Oftmals haben die Unternehmen kein eigenes Informationssicherheitsteam, sondern arbeiten mit Dienstleistern. IT Verantwortliche sind zum Teil auch Sicherheitsbeauftragte und Datenschutzbeauftrage, obgleich diese Personalunion große Herausforderungen bei der Abwägung von Sicherheit und Produktivität mit sich bringt. In Realität sind diese Unternehmen einer steig anwachsenden Anzahl von Cyberattacken ausgesetzt. Die Fälle von KMU, die mit Insolvenzantrag nach einem Sicherheitsvorfall steigen stetig an. Im Juni 2025, stellt Fasana in Stotzheim den Insolvenzantrag. Die Serviettenfabrik kann nach zwei Wochen anhaltenden technischen und logistischen Herausforderungen den Betrieb nicht wiederherstellen. Die Systeme sind lahmgelegt und die Produktion stark eingeschränkt. Aufgrund mangelnden Absatzes kommt es schlussendlich zur Zahlungsunfähigkeit.

Die Angriffmethoden sind oftmals nicht besonders komplex. Das ist auch nicht notwendig, mangelt es doch in vielen KMU an grundle -

genden Sicherheitsmaßnahmen. Dringender Weise müssen die Unternehmen einen minimal Standard an Cybersicherheit einführen, egal ob durch Richtlinien festgeschrieben oder nicht – das Eigeninteresse sollte Grund genug zum Ergreifen von Sicherheitsmaßnahmen sein.

Minimale Schutzmaßnahmen sind unumgänglich. Kein Unternehmen kommt ohne Multi-Faktor-Authentifizierung, eine solide BackupStrategie, Netzwerksegmentierung und einen Incident Repsonse Plan aus. An aller erster Stelle steht aber das Human Risk Management, welches alle Maßnahmen zur Überwachung und Steuerung des menschlichen Risikos umfasst. Darunter fallen Awareness und Training Maßnahmen sowohl als auch Echtzeit Interventionen zur Förderung von sicherem Verhalten.

Mit dem richtigen Training befähigen Unternehmen ihre Mitarbeitenden sichere Entscheidungen zu treffen. Dabei kommt es darauf an, dass verwendbare und benutzerfreundliche Werkzeuge ver-

wendet werden, die für die Mitarbeitenden auch nutzbar sind.

KMU müssen sich langfristig strategisch aufstellen. Dabei kommt es oftmals auf die Auswahl eines kompetenten Managed Service Providers an, der die Bedürfnisse der Mitarbeitenden im Unternehmen versteht. Zudem stellt der

Staat Förderungsprogramme zur Verfügung und baut Branchen CERTs auf.

Für die KMU gilt insbesondere, ohne Zusammenarbeit mit Service Providern und offiziellen Stellen wird ein ausreichendes Maß an Cybersicherheit kaum zu erreichen sein.

www.knowbe4.com/de/

Bildquelle: AdobeStock_V_somyuzu

QUALITÄTSMÄNGEL IN HARD- UND SOFTWARE

VERGRÖSSERN DIE

ANGRIFFSFLÄCHE FÜR CYBERKRIMINELLE.

SECURITY BY DESIGN STEUERT DAGEGEN UND IST MEHR ALS EINE

COMPLIANCE-FORDERUNG.

DIE ZAHL DER SICHERHEITSLÜCKEN WIRD DADURCH MINIMIERT, SICHERHEIT WIRD INTEGRALER BESTANDTEIL DER DIGITALISIERUNG. DEVSECOPS-TECHNOLOGIEN ENTWICKELN SICH WEITER UND GEHÖREN ZUM „BETRIEBSSYSTEM“ DER DIGITALEN TRANSFORMATION.

DIGITALE TRANSFORMATION MIT EINGEBAUTER SICHERHEIT

AUTOR: Oliver Schonschek

Security by Design ist die Antwort auf die wachsenden Angriffsflächen, vor denen zum Beispiel der Bericht zur Lage der IT-Sicherheit in Deutschland warnt.

Bildquelle: BSI

Erneut wuchs die Anzahl täglich bekannt gewordener Schwachstellen im Vergleich zum Vorjahr, so findet man es seit Jahren in fast jedem Bericht zur Lage der IT-Sicherheit in Deutschland. Die stetige Zunahme verwundbarer IT-Systeme ist aber nichts, an das man sich gewöhnen sollte, aber auch nicht gewöhnen muss. Es gibt ein Gegenmittel, das nicht Schwachstellen- und Patchmanagement heißt, sondern Security by Design.

IT-Sicherheitsbehörden wie die EU-Agentur für Cybersicherheit ENISA und das Bundesamt für Sicherheit in der Informationstechnik (BSI) appellieren regelmäßig an Hersteller von IT-Produkten, Sicherheitsaspekte bereits bei der Entwicklung stärker zu berücksichtigen und die Geräte und Softwarelösungen in einer sicheren Konfiguration auszuliefern.

Mit Appellen lässt es das BSI aber nicht bewenden, vielmehr hat das Bundesamt zum Beispiel die Technische Richtlinie BSI TR-03185 Sicherer Software-Lebenszyklus veröffentlicht, eine Sammlung von Best Practices aus bestehenden Standards und Frameworks für SoftwareEntwicklungsprozesse.

Die beschriebenen Standards und Frameworks bezeichnen insbesondere „Security by Design“ als wichtiges Entwicklungsprinzip.

Nun ist die Forderung nach „Security by Design“ zwar seit Jahren bekannt, aber jetzt kommt bei der Umsetzung dieses zentralen Prinzips der Sicherheit spürbar Fahrt auf. Daran haben auch neue gesetzliche Vorgaben ihren Anteil.

SECURITY BY DESIGN: INTEGRIERTE SICHERHEIT FÜR IT, IOT UND OT

Die rechtliche Forderung nach „Security by Design“ betrifft nicht nur die IT-Abteilung. Organisatorisch sind alle an neuen Lösungen beteiligten Unternehmensbereiche gefragt, wie Produktmanagement, Entwicklung, Beschaffung, Fertigung, Vertrieb, Logistik, Service sowie die Sicherheits- und Datenschutzverantwortlichen.

Technisch beschränkt sich Security by Design auch nicht auf die IT, sondern umfasst alle Felder der Digitalisierung, insbesondere auch IoT (Internet der Dinge) und OT (Betriebstechnologie). Das macht auch zum Beispiel das neue Cyberresilienzgesetz ( CRA ) deutlich, das die Cybersicherheitsstandards aller Produkte verbessern soll, die eine digitale Komponente enthalten, und entsprechend Hersteller und Einzelhändler verpflichtet, die Cybersicherheit während des gesamten Lebenszyklus ihrer Produkte sicherzustellen.

Der Cyber Recilience Act ist ein Beispiel von vielen, wenn es um Vorgaben und Leitlinien geht. Anfang 2025 hat unter anderem die US-amerikanische Cybersicherheitsbehörde CISA einen Leitfaden zur Beschaffung sicherer Betriebstechnologie (OT) herausgegeben mitgewirkt an dieser Publikation haben elf internationale Partnerbehörden, darunter auch das Bundesamt für Sicherheit in der Informationstechnik. Auch dieser Leitfaden betont die Bedeutung von „Security by Design“. Industrieunternehmen und Betreiber Kritischer Infrastrukturen (KRITIS) sollen dieses Prinzip so früh wie möglich berücksichtigen - und zwar bereits in Einkaufs- und Beschaffungsprozessen.

Die vielfältigen Impulse und Vorgaben für Security by Design haben ihren Grund, denn wenn Hard- und Software bereits von Beginn an

Bildquelle: Adobe / Stock / Topaz Gigapixel AI

DevSecOps zielt darauf ab, bewährte Sicherheitsmethoden in den DevOps-Workflow zu integrieren, um sicherzustellen, dass jeder Code beim Commit getestet wird. Bildquelle: GitLab

Sicherheit integriert haben, hat dies viele Vorteile.

DARUM IST SECURITY BY DESIGN VON ZENTRALER BEDEUTUNG

Wenn Security by Design umgesetzt wird, senkt dies aktiv die Zahl der ansonsten ausufernden Sicherheitslücken und Schwachstellen. Gleichzeitig wird Security stärker in das Bewusstsein gerückt, in der Entwicklung, aber auch in allen anderen beteiligten Unternehmensbereichen. Während das Risiko für Cybervorfälle sinkt, erhöht sich die Effizienz in den Entwicklungsprozessen: Mögliche Fehler werden nicht nachträglich beseitigt, sondern im Voraus bereits vermieden.

Neben der Qualität der entwickelten Lösungen steigen auch die Fähigkeiten und Kenntnisse bei den beteiligten Teams. Compliance-Vorgaben werden eingehalten, imageschädigende Sicherheitslücken vermieden. Dank Security by Design erhöht sich die Resilienz der Systeme bei sinkenden Entwicklungsaufwänden, also eine Win-Win-Situation nicht nur für die Security.

Offensichtlich gibt es gute Argumente, mit denen sich Führungskräfte in den Unternehmen davon überzeugen lassen, Sicherheit als integralen Bestandteil ihrer digitalen Strategie zu verankern. Viele Unternehmen sind bereits auf einem guten Weg.

DEVSECOPS TRANSFORMIERT SICH UND FÜHRT SCHNELLER ZU SECURITY BY DESIGN

Die Umsetzung von Security by Design mit DevSecOps integriert Development, Security und Operation und ist der wesentliche Ansatz, um Security als Teil aller Phasen der Entwicklung und des Betriebs zu implementieren. Der Gitlab 2024 Global DevSecOps Report zeigt, dass die Mehrheit der befragten Unternehmen ihre Entwicklungsprozesse bereits optimiert: 67 Prozent der Befragten gaben an, dass ihr Softwareentwicklungslebenszyklus weitgehend oder vollständig automatisiert sei, 64 Prozent erklärten, dass sie die eingesetzten Entwicklungswerkzeuge konsolidieren möchten.

Entscheidend ist dabei, dass bei der zunehmenden Automatisierung die Security „automatisch“ integriert wird und bei der Konsolidierung der Tools auch immer dazu gehört. Dabei ist Security kein Mittel zum Zweck, sondern gehört zur Kundenorientierung eines Unternehmens. Man könnte auch sagen, DevSecOps sollte als Teil des Kundenservice und auch des Vertriebs gesehen werden, denn es gehört zum unternehmerischen Erfolg. So besagt zum Beispiel die „Secure by Design Pledge“ von CISA: „Produkte, die nach den Secure by Design-Prinzipien entwickelt wurden, priorisieren die Sicherheit der Kunden als zentrale Geschäftsanforderung und behandeln sie nicht nur als technisches Merkmal“.

VIELE BEST PRACTICES FÜR SECURITY BY DESIGN SIND BEREITS VERFÜGBAR

Um Security by Design immer mehr Realität werden zu lassen, stehen schon heute eine Reihe von DevSecOps-Technologien zur Verfügung:

Viele Sicherheitslücken entstehen aktuell durch fehlerhafte Konfigurationen. Mit Werkzeugen aus dem Bereich Infrastructure as Code (IaC) wie Terraform lassen sich Infrastrukturen sicher, konsistent und automatisch vorkonfigurieren und bei Bedarf anpassen.

Bildquelle: Adobe / Stock / KI generiert

„Bei der Sicherheit geht es nicht nur um das Endprodukt, sondern auch um die Prozesse, die bei der Entwicklung des Produkts befolgt werden müssen“, Juhan Lepassaar, Executive Director der EU-Agentur für Cybersicherheit ENISA.

Bildquelle: ENISA

Schwachstellen lassen sich bereits während der Entwicklung automatisiert aufspüren, indem automatische Sicherheitstests wie Static Application Security Testing (SAST), Interactive Application Security Testing (IAST), Dynamic Application Security Testing (DAST) und Software Composition Analysis (SCA) in Continuous Integration/Continuous Delivery (CI/CD)-Pipelines integriert werden. Die Sicherheitstests finden dann nicht am Ende der Entwicklung statt, sondern fortlaufend währenddessen.

CI/CD-Pipelines reichen von der Entwicklerumgebung bis zur Produktion und beziehen Feedback aus den Security-Tests in Echtzeit ein in die weitere Entwicklung, um Fehler frühzeitig zu beseitigen und nicht etwa erst in der Produktion. Im Ergebnis steigt die Produktqualität und die Entwicklungszeiten sinken. Dadurch lassen sich auch neue Anforderungen der Anwender schneller umsetzen, zusätzlich zur Steigerung von Qualität und Sicherheit.

DEVSECOPS ENTWICKELT SICH MIT KI WEITER UND STÄRKT

SECURITY BY DESIGN

Neben den Security-Tests lassen sich bei DevSecOps mit Continuous Compliance Monitoring auch fortlaufende Compliance-Prüfungen in die Pipelines von Entwicklung bis zur Produktion integrieren und automatisieren. Compliance Policies lassen sich zudem ebenso wie Security Policies als Code integrieren, also als definierte, sichere und Compliance-konforme Konfigurationen einfügen, im Sinne von Security as Code und Compliance as Code.

Die Security-Konfigurationen müssen sich dabei nicht an statische Regelwerke halten, sondern sie können aktuelle und prognostizierte Bedrohungen (Threat Modelling) berücksichtigen und die Sicherheitsfunktionen und -einstellungen darauf abstimmen. Erkannte und erwar-

tete Bedrohungen fließen dann bereits während der Entwicklung in die Sicherheitsarchitektur ein. Hierbei spielen Verfahren auf Basis von KI (Künstliche Intelligenz) eine zentrale Rolle.

Wie in anderen Bereichen der Security hilft KI auch bei DevSecOps zunehmend dabei, Aufgaben in der Pipeline zu automatisieren und große Mengen an Daten in kurzer Zeit zu analysieren, um auf dieser Basis Pipelines und Regeln anzupassen oder Änderungen vorzuschlagen. Nicht zuletzt hilft KI dabei, aus vergangenen Fehlern und Angriffen zu lernen und diese in Zukunft zu verhindern. KI optimiert und automatisiert die Security- und Compliance-Tests und berücksichtigt dabei aktiv neue Bedrohungen (Threat Intelligence) und mögliche Veränderungen in der Compliance. KI kann nicht nur Code prüfen, sondern sicheren und konformen Code erstellen, aber auch Schwachstellen aufspüren, erklären und beseitigen.

Neben KI sind aber auch die menschlichen Expertinnen und Experten gefragt, um DevSecOps weiterzuentwickeln. Kenntnisse in Secure Coding, Expertise in Security und KI und Fortbildungen in DevSecOps werden zu wichtigen Anforderungen an die Teams bestehend aus Entwicklung, Security und Betrieb. Das Analystenhaus Forrester Research erwartet eine neue Rolle „Security Designer“, diese Fachleute werden demnach Produkte sowohl aus Sicherheits- als auch aus Designsicht verbessern.

Nicht zuletzt müssen Unternehmen aber DevSecOps als geschäftlichen Erfolgsfaktor sehen und nicht etwa als Security-Technologien und -Verfahren. Sichere, zuverlässige und konforme Produkte sind mehr als ein Wettbewerbsvorteil, sie sind letztlich die Voraussetzung, um in Zukunft am Markt bestehen zu können. Security by Design ist damit kein Ziel mehr, sondern die Basis des Geschäfts. Entweder Produkte und Lösungen sind von Beginn an sicher, oder sie werden am Markt keine Chance mehr haben.

Autor: Oliver Schonschek

„CYBERRESILIENZ IST KEIN TECHNISCHES PROBLEM.“

Mit der HYPERSECURE Platform bleiben Angriffe auf IT-Systeme da, wo sie hingehören: außen vor Damit sind alle Zugangswege zu Ihren sensiblen Daten verbaut – und Sie sicher im Zentrum.

KI IN DER CYBERSICHERHEIT: GAMECHANGER ODER

SICHERHEITSRISIKO FÜR UNTERNEHMEN?

KÜNSTLICHE INTELLIGENZ HAT DEN STATUS

EINER EXPERIMENTELLEN TECHNOLOGIE

LÄNGST HINTER SICH GELASSEN. HEUTE STEHT SIE

IM ZENTRUM INNOVATIVER

ARBEITSWEISEN UND MODERNER

STRATEGIEN ZUM DATENSCHUTZ.

BEREITS SEIT MEHR ALS ZEHN JAHREN

WERDEN KI-BASIERTE LÖSUNGEN FÜR

DIE SICHERHEIT VERWENDET. MODERNE

IT-ARCHITEKTUREN BAUEN SIE ALS

ZENTRALES ELEMENT EIN UND ERMÖGLICHEN UNTERNEHMEN EINE

PRÄZISERE BEDROHUNGSERKENNUNG

SOWIE SCHNELLERE UND WIRKSAMERE

REAKTIONSMASSNAHMEN.

Ein Blick auf die aktuellen Zahlen verdeutlicht das Ausmaß dieser Entwicklung: 2024 verzeichnete der Datenverkehr mit generativer KI einen Anstieg von mehr als 890 Prozent, parallel dazu stiegen sicherheitskritische Zwischenfälle um das 2,5-fache. Diese Erkenntnisse stammen aus dem aktuellen „State of Generative AI Report“ von Palo Alto Networks, der Daten von über 7.000 Kundenumgebungen weltweit ausgewertet hat. Im Durchschnitt setzen Unternehmen 66 unterschiedliche Anwendungen auf der Grundlage generativer KI ein, doch davon gelten etwa zehn Prozent als risikobehaftet. Worauf müssen Unternehmen also heutzutage achten?

CHANCEN UND POTENZIALE

Sicherheitsteams profitieren von KI-gestützten Lösungen: Sie können Bedrohungen automatisiert identifizieren, ihre Reaktionsgeschwindigkeit steigern und flexible Sicherheitsarchitekturen in großem Tempo implementieren. Bei der Analyse verdächtiger Aktivitäten verschafft KI den Verteidigern entscheidende Vorteile. Angreifer können ihre Spuren schwerer verwischen, da auffällige Muster und Anomalien schneller aufgedeckt werden als durch traditionelle Analysemethoden.

Besonders kritische Infrastrukturen wie Energienetze und Gesundheitseinrichtungen setzen verstärkt auf KI-basierte Schutzkonzepte für ihre OT-Systeme (Operational Technology). Eine Studie von Palo Alto Networks belegt, dass bereits 75 Prozent der Unternehmen Cyberattacken auf ihre OT-Infrastrukturen verzeichnet haben. Ebenso wird der Bereich Edge Computing immer wichtiger, in dem vernetzte IoT-Geräte neue

Sicherheitsanforderungen schaffen. KI-Systeme erweisen sich dort als essenziell, da sie Echtzeitanalysen in dezentralen Netzwerken ermöglichen und Bedrohungen direkt am Entstehungsort neutralisieren können.

Der Fachkräftemangel in der IT-Sicherheit beschleunigt zudem den Wandel hin zu Security Operations Centers (SOCs), die auf Grundlage von KI automatisiert arbeiten. Dort übernehmen intelligente Systeme einen Großteil der Überwachungs- und Abwehraufgaben. Parallel dazu stärkt KI die Verteidigung gegen E-Mail-basierte Angriffe wie Phishing und den sogenannten Business Email Compromise –Methoden, die nach wie vor zu den bevorzugten Einfallstoren für Cyberkriminelle zählen.

SCHATTEN-KI UND

NEUE SICHERHEITSRISIKEN

Doch generative KI bringt auch neue Risiken mit sich. Gerade die unkontrollierte und oft unsichtbare oder nicht genehmigte Nutzung durch Mitarbeiter – oft als Schatten-KI bezeichnet –entwickelt sich zu einem großen Sicherheitsproblem. Analysen zeigen, dass Unternehmen im Schnitt mehr als sechs hochriskante Anwendungen mit generativer KI in ihren Netzwerken identifizieren, ohne deren Einsatz explizit genehmigt zu haben. Alarmierend ist auch das Ergebnis umfassender Sicherheitsprüfungen: Über 70 Prozent der untersuchten Tools mit generativer KI weisen bedenkliche Inhalte oder Funktionen auf.

Die Netzwerke deutscher Unternehmen zeigen besonders problematische Nutzungsmuster bei Anwendungen mit erhöhtem Datenleck-Potenzial. Ein unterschätztes Risiko liegt in der wachsenden Sorglosigkeit vieler Organisationen. Bei zahlreichen Firmen kam es zu Sicherheitsvorfällen, nachdem sie ihre KI-gestützten Abwehrsysteme für unüberwindbar hielten.

Dabei sollte nicht vergessen werden: Cyberkriminelle agieren hochprofessionell, kreativ und arbeiten zunehmend in vernetzten Strukturen zusammen.

Parallel dazu werden die regulatorischen Anforderungen verschärft. Verbraucherschützer und Gesetzgeber erhöhen den Druck auf Unternehmen. Neue Datenschutzbestimmungen fordern im Rahmen von GDPR, CCPA, NIS2 und dem EU AI Act auch strengere ComplianceStandards. Damit müssen Organisationen ihre KI-Strategien nicht nur sicherheitstechnisch, sondern auch rechtlich wasserdicht gestalten.

EMPFEHLUNGEN FÜR

DIE PRAXIS

Erfolgreiche KI-Integration erfordert einen ganzheitlichen Ansatz. Anstatt KI als isoliertes Werkzeug zu betrachten, sollten Unternehmen sie systematisch in ihre gesamte Sicherheitsarchitektur integrieren. Dabei ist es entscheidend, dass KI-Kompetenz nicht nur bei Spezialisten, sondern im gesamten Sicherheitsteam aufgebaut wird.

Notwendig ist daher eine Strategie, die sämtliche Schritte der Integration bereits im Voraus durchdenkt.

Optimistische Zukunft mit Verantwortung

Der Erfolg KI-basierter Sicherheitslösungen steht und fällt mit der Datenqualität. Firmen sollten auf umfangreiche Trainingsdaten setzen, die das gesamte Spektrum möglicher Bedrohungsszenarien und Angriffsmuster abbilden. Diese Datenbasis ermöglicht es, KI-Systeme zu entwickeln, die sowohl präzise Vorhersagen treffen als auch effektive Abwehrmaßnahmen einleiten können.

Da sich die KI-Landschaft in rasantem Tempo weiterentwickelt – von bewährten Praktiken über ethische Standards und rechtlichen Rahmenbedingungen bis hin zu Erkennungstechnologien – ist eine aktive Teilnahme an Fachdiskussionen unverzichtbar. Regelmäßige Lektüre von Branchenstudien,

Zitat: „Ein Risiko ist oftmals, dass die Einführung von generativer KI schneller erfolgt als die sichere Integration“, erklärt Andy Schneider, Chief Security Officer für Zentraleuropa (DACH und Osteuropa) bei Palo Alto Networks.

Besuch relevanter Online -Seminare und Engagement in Cybersecurity-Communities helfen dabei, den Anschluss an aktuelle Entwicklungen zu halten. Die Perspektiven für KI in der Cybersicherheit stimmen zuversichtlich. Durch die stetige Weiterentwicklung der innovativen Technologie erhalten Unternehmen zunehmend ausgereifte Instrumente, mit denen sie Bedrohungen proaktiv begegnen

und ihre Schutzmaßnahmen nachhaltig ausbauen können. Sicherheitsexperten empfehlen für einen verantwortungsvollen KI-Einsatz bewährte Konzepte wie Zero-Trust-Architekturen, fein abgestimmte Zugriffskontrollsysteme und kontinuierliche Inhaltsanalysen in Echtzeit. Diese Maßnahmen ermöglichen es, Risiken bereits frühzeitig zu identifizieren und gezielt zu neutralisieren. Dabei gilt es, eine zentrale Erkenntnis zu verinnerlichen: Innovation und Sicherheit stehen nicht im Widerspruch zueinander, sondern ergänzen sich zu einem gemeinsamen strategischen Ziel.

https://www.paloaltonetworks.de

CYBERRESILIENZ IN UNTERNEHMEN

SICHERHEIT AUF DIE GALLISCHE ART

Autor: Dr. Wilhelm Greiner

N MODERNEN UNTERNEHMEN SCHEINT CYBERSICHERHEIT SO FLÜCHTIG WIE BEI ASTERIX UND DEN GALLIERN DIE RUHE. KAUM IST EIN ANGRIFF DER RÖMER ABGEWEHRT LÄSST SICH CÄSAR SCHON WIEDER DEN NÄCHSTEN TRICK EINFALLEN. ANGESICHTS PERMANENTER BEDROHUNGEN IST DIE ENTSCHEIDENDE FRAGE NICHT MEHR, OB SCHUTZMASSNAHMEN DURCHBROCHEN WERDEN, SONDERN: WIE BLEIBT MEINE ORGANISATION TROTZ ANGRIFF HANDLUNGSFÄHIG?

WIE KANN DAS KERNGESCHÄFT OHNE ALLZU GROSSE REIBUNGSVERLUSTE WEITERLAUFEN UND WIE KEHREN WIR SCHNELLSTMÖGLICH ZUM NORMALBETRIEB ZURÜCK?

„Cyberresilienz ist kein technisches Problem“, so Dietmar Hilke, Leader Security Sales Strategic Enterprise bei Cisco.

Bildquelle: Cisco

„Wir befinden uns im Jahr 50 v.Chr. Ganz Gallien ist von den Römern besetzt ...“ Wir alle wissen, wie dieser Satz weitergeht: Nicht ganz Gallien ist besetzt, weil bekanntlich ein „von unbeugsamen Galliern bevölkertes Dorf nicht aufhört, dem Eindringling Widerstand zu leisten.“ Die Dorfbewohner rund um den schlauen Krieger Asterix und den Hinkelsteinmetz Obelix sind ebenso renitent wie resilient. Kein noch so perfider Plan der römischen Besatzer, das Dorf in den Griff zu bekommen, funktioniert: weder rohe Legionärsgewalt noch die Entführung des Druiden Miraculix, weder das Einschleusen eines professionellen Störenfrieds noch die Entsendung eines Sehers, der den Widerständlern eine glückliche Zukunft weitab des Dorfes prophezeit.

RESILIENZ RUSTIKALER RABAUKEN

Denn die Gallier haben alles, was man für Resilienz braucht: technische Maßnahmen (eine Holzpalisade ums Dorf, vor allem aber Miraculix’ Zaubertrank, der übermenschliche Kräfte verlieht), organisatorische Maßnahmen (Dauerbewaffnung, direkte Kommunikation, klare Kommandostruktur durch Häuptling Majestix) sowie eine ausgeprägte Sicherheitskultur: Die wachsamen Rabauken sind jederzeit bereit, die Römer zu verdreschen – vor allem aber sind sie, trotz häufiger Raufereien untereinander, eine eingeschworene Dorfgemeinschaft.

Dies ist das nostalgische Versprechen der Asterix-Comics: Ein Dorf, das zusammenhält, ist resilient gegen alle Anfeindungen der Moderne, vom römisch-verlotterten „Way of Life“ über den Bau einer benachbarten Hochhaus-„Trabantenstadt“ bis zu den Verlockungen des Kapitalismus. Denn auch der Plan der Römer, die Gallier durch massenweises Aufkaufen überteuerter Hinkelsteine in das Imperium von Produktion und Konsum einzubinden, scheitert – und treibt Rom an den Rand des Ruins.

DIGITALE DAUERBELAGERUNG

Wir befinden uns im Jahr 2025 n.Chr. Das Asterix-Projekt ist gescheitert, die Moderne hat sich gegen das rustikale Retro-Idyll durchgesetzt. Alles ist digitalisiert, funktioniert IT- und zunehmend auch KI-gestützt und die Unternehmen kämpfen damit, sich gegen die Dauerbelagerung cyberkrimineller Legionen und die APT-Gruppierungen (Advanced Persistent Threat) fremder Imperien zur Wehr zu setzen. Denn über einen mirakulösen Zaubertrank gegen cyberkriminelle Umtriebe verfügen sie leider nicht.

So wies die des Bundeskriminalamts (BKA) für das Jahr 2024 n.Chr. rund 330.000 CybercrimeFälle aus, darunter mehr als 200.000 „Auslandstaten“, also Straftaten, die vom Ausland oder einem unbekannten Ort aus verübt wurden. Schließlich ist Cyberkriminalität heute nicht nur ein hochprofessionell organisiertes, sondern auch ein internationales Imperium.

Den Schaden durch Angriffe auf IT-Ausstattung und Daten deutscher Unternehmen bezifferte der Branchenverband Bitkom letztes Jahr auf 266,6 Milliarden Euro. Ganze 81 Prozent der hiesigen Unternehmen sind Opfer von Datendiebstahl, Spionage oder Sabotage geworden, so das Ergebnis der Bitkom-Umfrage. Allerdings wirft diese Zahl, wenig nützlich, alles vom gestohlenen Notebook bis zur Millionenerpressung per Ransomware in einen Topf.

RUINÖSE RANSOMWARE

Deutsche Unternehmen erlitten 2024 einen Schaden von 267 Milliarden Euro durch Angriffe auf IT-Ausstattung und Daten, ermittelte der Branchenverband Bitkom.

Bildquelle: Adobe / Stock / KI generiert

Bundesweit gab es laut BKA letztes Jahr 950 Anzeigen wegen Ransomware-Angriffen. Solche Zwangsverschlüsselung von Daten (oft mit vorheriger Exfiltration der Unternehmensinterna zwecks doppelter Erpressung) ist für Betroffene bestenfalls aufwendig, da Datenbestände aus Backups wiederherzustellen und kompromittierte Endgeräte neu aufzusetzen sind. Viele Unternehmen sehen sich aber entgegen aller Empfehlungen von Fachleuten dazu genötigt, das geforderte Lösegeld zu zahlen – oft ohne den gewünschten Erfolg. Schlimmsten -

Das Ökosystem Regenwald ist bemerkenswert resilient, so lange der Mensch nicht eingreift.

Bildquelle: Adobe / Stock / KI generiert

falls endet der Vorfall, etwa wegen anhaltender Lieferunfähigkeit, im Konkurs, so geschehen beim Serviettenproduzenten Fasana oder der Recycling- und Entsorgungsfirma Eu-Rec.

Angesichts verbreitet lückenhafter Security-Infrastrukturen genügt bekanntlich ein einziger leichtfertiger Klick auf den Link in einer Phishing-Mail, um den Cyberbesatzern das Tor zu öffnen. Menschliches Fehlverhalten bleibt so eine Dauerbaustelle im Security-Umfeld. Doch auch Unternehmen mit robuster Security-Infrastruktur und wohletablierter Sicherheitskultur finden mitunter plötzlich offene Hintertüren vor, etwa wenn Zero-Day-Sicherheitslücken auftreten. Die Schwachstelle „ToolShell“ zum Beispiel betraf kürzlich lokal installierte Microsoft SharePoint Server vieler deutscher Unternehmen, zudem Server von US-Bundesbehörden.

Cybersicherheit ist und bleibt Sisyphusarbeit. Der logische Schluss: Wenn ich erfolgreiche Angriffe schon nicht konsequent verhindern kann, dann sorge ich wenigstens dafür, während einer Kompromittierung im Kern handlungsfähig zu bleiben und nach dem Vorfall den Regelbetrieb schnell wiederaufnehmen zu können. Der Fokus verschiebt sich von der Abschottung zur Widerstandsfähigkeit im Krisenfall, also zur Resilienz.

Ein paar interessante Zahlen dazu: Bei einer Umfrage von Zscaler gaben fast alle (97 Prozent) der Befragten aus Deutschland an, ihre aktuellen Cyberresilienz-Maßnahmen seien wirkungsvoll. Aber nicht mal die Hälfte (44 Prozent) teilte die Einschätzung, ihre IT-Infrastruktur sei hochgradig widerstandsfähig aufgestellt.

VARIANTEN VON RESILIENZ

Beispiele für Resilienz finden sich auch jenseits fiktiver gallischer Dorfidylle in breiter Vielfalt: in der Natur das Ökosystem Regenwald (solange niemand aus Profitgründen den Wald komplett wegsägt); im Schiffsbau die abgeschotteten Kammern des Rumpfs (OK, hat bei der Titanic nur so mittelgut funktioniert, ist aber generell eine prima Idee); und im Digitalen natürlich das Internet, das seit Kindheits- bzw. ARPANETTagen Datenpakete resilient weiter- und umleitet (solange ein Regime sein Land nicht komplett vom globalen Netz trennt). Man sieht: Irgendwann stößt Resilienz an Kipppunkte. Bis dahin aber ist sie wertvoll, damit der Betrieb weiterläuft.

STÖRUNG, KRISE ODER KATASTROPHE

Wie aber lassen sich IT-gestützte Unternehmensumgebungen resilient gestalten? Hier gilt es, zunächst das Konzept zu verstehen: „Resilienz heißt: Es gibt ein Ereignis, das eine Störung, eine Katastrophe oder eine Krise bewirken kann, indem es zu einer Bedrohung oder einer konkreten Gefährdung wird“, erläutert Manuel Atug, Experte für die Sicherheit kritischer Infrastruktur (KRITIS) sowie Gründer und Sprecher der unabhängigen Arbeitsgruppe (AG) KRITIS. „Ich muss dann schauen: Wie kann ich dieses Ereignis so mit Gegenmaßnahmen adressieren, dass es keine Krise oder Katastrophe wird, sondern maximal eine Störung, die bis zu einem gewissen Grad akzeptabel ist?“ Eine Organisation ist resilient, wenn bedrohliche Ereignisse so wirkungslos verpuffen wie eine Römerattacke auf Asterix’ Dorf.

„Cyberresilienz ist kein technisches Problem“, konstatiert Dietmar Hilke, Leader Security Sales Strategic Enterprise bei Cisco, und meint damit: IT-Sicherheit als zentrales Element der Cyberresilienz gilt in der Regel immer noch als technisches Thema mit langfristigen Abschreibungszeiträumen. Dabei sind aber von der Produktion bis zur Kundeninteraktion kaum noch Abläufe ohne IT-Unterstützung denkbar. Deshalb ist Cyberresilienz ein unternehmenskritischer Prozess, der als solcher finanziert und gesteuert sein will.

HÜRDEN FÜR EINE RESILIENZSTRATEGIE

Das Problem: „Die meisten Unternehmer haben keine Ahnung, was im digitalen Maschinenraum passiert“, sagt Prof. Dr. Dennis-Kenji Kipker, Forschungsdirektor am Cyberintelligence Institute (CII). „Hinzu kommt, dass die Digitalisierung noch nicht richtig durchdrungen wird.“ Als Beispiel verweist er auf den aktuellen KI-Hype. Kipker fordert deshalb von der Unternehmens- und IT-Leitung einen kritischeren Umgang mit digitaler Technik.

Als kurzfristige Maßnahme rät KRITIS-Fachmann Atug allen Betrieben, das umsetzen, was NIS 2 (Network and Information Security 2) von den 29.000 Unternehmen fordert, die unter diese EU-Richtlinie fallen: „Alle in der Geschäftsleitung müssen Schulungen zum Informationssicherheits-Risikomanagement bekommen“, so Atug. Nur so kann die Führungsebene verstehen: Was sind die Risiken? Was sind die Maßnahmen, um diesen Risiken zu begegnen? Und wie wirken sie auf das eigene Geschäft?

Die meisten Unternehmer haben keine Ahnung, was im digitalen Maschinenraum passiert“, sagt Prof. Dr. Dennis-Kenji Kipker, Foschungsdirektor am CII. Bildquelle: Cyberintelligence Institute

„ Wir müssen das Wissen über IT-Sicherheit und Resilienz in die Breite und in die Masse bringen“, fordert Manuel Atug, Gründer und Sprecher der AG KRITIS.

Bildquelle: Manuel Atug / (c) Katrin Chodor Photography

„NIS 2 gehört unters Kopfkissen der Verantwortlichen in jedem Unternehmen“, meint auch Axel Simon, Field CTO bei HPE Networking. Denn es braucht ein Grundverständnis, dass es hier Widerstandsfähigkeit geht, nicht nur um Compliance. „Cyberresilienz ist nicht fakultativ“, betont er, also keine Frage des eigenen Ermessens.

Über die zähe NIS-2-Umsetzung in Deutschland ist Simon entsetzt: „Es fehlt das Bewusstsein, wie angreifbar die Gesellschaft ist“, mahnt er und warnt, dass Wissen allein nicht genügen könnte, um diesen Missstand zu beheben: „Wenn man von einem schweren Skiunfall liest, führt das nicht zwangsläufig dazu, dass man beim Skifahren einen Helm aufsetzt. Diese Kluft zwischen Wahrnehmung und Handeln ist zutiefst menschlich“, so Simon. „Das müssen CISOs bei strategischen Entscheidungen berücksichtigen.“

Wissen über IT ist somit die Basis, um die Notwendigkeit von Cyberresilienz in den Köpfen der Verantwortlichen zu verankern. Dann aber ist es dringend nötig, vom Wissen zum Handeln zu kommen, also Cyberresilienz zu priorisieren, notwendige Maßnahmen zu ermitteln – und sie mit angemessenem Budget zu unterfüttern.

Kathrin Redlich, AVP EMEA bei Rubrik, erachtet es deshalb als entscheidend, Cyberresilienz als strategischen Teil der organisatorischen Sicherheit zu betrachten und von Anfang an in alle Prozesse zu integrieren: „Wir müssen weg von reiner IT-Security und Prävention und stärker hin zur aktiven Vorbereitung auf eine Attacke“, betont sie.

Security-Verantwortliche müssen also bei der Führungsebene darauf drängen, Cyberresilienz als Aufgabe der Unternehmensspitze selbst zu positionieren. Hier hilft ein wichtiger Hinweis: Verantwortung kann ein Chef nicht delegieren – und wenn es an Cyberresilienz mangelt, kann schnell die Wirtschaftlichkeit des gesamten Unternehmens kippen.

UMSETZUNG EINER RESILIENZSTRATEGIE

Nützliche Anhaltspunkte, wie man eine Cyberresilienz-Strategie umsetzt, liefert das US-amerikanische NIST (National Institute of Standards and Technology). In der „Special Publication 800-160“ von 2021 beschreibt die US-Behörde ein Rahmenwerk (Framework) für die Implementierung von Resilienz-Best-Practices. Sie nennt vier Grundpfeiler: antizipieren, widerstehen, wiederherstellen und adaptieren. Das heißt, ein Unternehmen muss:

• in informierter Bereitschaft auf einen Notfall vorbereitet sein,

• trotz eines Notfalls wichtige Geschäftsfunktionen aufrechterhalten können,

• seine Geschäftsfunktionen während und im Nachfeld des Notfalls wiederherstellen können und

• sich mit seinen Geschäftsfunktionen und zugrunde liegenden Fähigkeiten an Veränderungen in der Bedrohungslage anpassen können.

Das umfangreiche NIST-Papier nennt unter anderem 14 Techniken, um die Resilienz zu stärken. Diese reichen von „Adaptive Response“ (also anpassungsfähigen Vorgehensweisen zur Risikominimierung) über analytisches Monitoring, heterogene Infrastrukturen (statt digitaler Monokultur), Redundanz, Segmentierung und Begrenzung von Zugriffsprivilegien bis zu „Unvorhersagbarkeit“, also unerwarteten Schutzmechanismen, die Angreifern das Leben schwer machen.

Die Empfehlungen des NIST richten sich offenkundig an größere Unternehmen und Organisationen mit eigenem SOC (Security Operations Center) und etablierter Security-Infrastruktur. Für ein resilientes Deutschland darf Cyberresilienz aber nicht auf wenige Konzerne begrenzt bleiben. Manuel Atug vergleicht dies mit dem Katastrophenschutz: Wenn nur wenige Menschen Notvorräte haben, hilft das im Krisenfall wenig – wenn die gesamte Bevölkerung Notvorräte hat, können sich alle versorgen und sind somit resilient.

Wissen über IT ist wichtige Grundlage, um die Notwendigkeit von Cyberresilienz in den Köpfen der Verantwortlichen zu verankern.

Bildquelle: Adobe / Stock / KI generiert

Atug drängt deshalb darauf, Wissen über IT-Sicherheit und Resilienz in die Breite und in die Masse zu bringen. Wie aber kann ein deutscher Mittelständler, der nicht über die üppigen Ressourcen eines Konzerns verfügt, Cyberresilienz erzielen? Welche Maßnahmen sind die wichtigsten?

GRUNDLEGENDE TECHNISCHE MASSNAHMEN

Auf die Frage nach der wichtigsten technischen Resilienzmaßnahme hört man von Fachleuten stets drei Wörter: Backup, Backup, Backup! Dies möglichst nach der 3-2-1-Regel: drei Backups auf zwei verschiede -

„NIS 2 gehört unters Kopfkissen der Verantwortlichen in jedem Unternehmen“, sagt Axel Simon, Field CTO bei HPE Networking. Bildquelle: HPE

nen Medientypen, eines davon zum Schutz vor Naturkatastrophen außerhalb des Firmengeländes (offsite). Letzthin sprechen Fachleute sogar oft von der 3-2-1-1-Regel. Hinzugekommen ist neben dem Offsite- auch noch ein Offline-Backup. Denn Ransomware verschlüsselt alle Daten, die im Zugriff sind, somit auch Online-Backups.

Eigentlich selbstverständlich, aber laut Experten dennoch längst nicht überall gelebte Praxis: Bestandteil des Resilienzkonzepts sollten unveränderliche, also manipulationssichere Backups („Data Vaults“) sein. Denn auch diese sind für Ransomware nicht erreichbar. Und natürlich sollte man die Wiederherstellung der Daten regelmäßig testen.

Rubrik-Managerin Redlich merkt an, dass im Ernstfall auch Forensikanforderungen zu erfüllen sind. Denn nach einem Cybervorfall führen die Behörden forensische Untersuchungen durch. Die Folgen können bis zur vollständigen Quarantäne der IT-Infrastruktur reichen. Wichtig für einen reibungslosen Ablauf ist es deshalb laut Redlich, die Forensik direkt, schnell und nativ im Backup durchführen zu können und bei der Wiederherstellung die Schadsoftware unter Quarantäne zu stellen.

Als zweite wichtige Säule technischer Resilienz gilt ein Zero-Trust-Modell für Identitäten und Zugriffe. Beim Zero-Trust-Ansatz vertrauen Unternehmen nicht nur auf Perimeter-Verteidigung, sondern überwachen, dass jeder Zugriff jedes Nutzers in jedem Teil des Netzwerks autorisiert und verifiziert ist. „Es ist, als würde man von der Denkweise einer mittelalterlichen Burg mit hohen Außenmauern zu einem modernen Bürogebäude wechseln, in dem jede Tür und jedes Büro eigene Schlösser hat und man einen Ausweis benötigt, um einzutreten“, erläutert Albert Estevez Polo, Field CTO Global bei Zero Networks.

Der Zero-Trust-Gedanke hilft insbesondere beim Fernzugriff. „Wir würden schon eine hohe Resilienz bewirken, wenn wir alle Fernwartungsund Fernadministrationszugriffe nach Grundschutz-Baustein ‚Fernwartung’ oder ‚Fernwartung für industrielle Umgebungen’ [des Bundesamts für Sicherheit in der Informationstechnik (BSI), Anm. d. Red.] absichern würden“, kommentiert KRITIS-Experte Atug. „Jede der dort genannten Maßnahmen liest man und denkt sich: Ja, klar, macht Sinn, wieso diskutieren wir darüber?“ Dennoch fehlen diese Basismaßnahmen der Fernadministration seiner Erfahrung nach oft. „So bewirkt man echte Resilienz: Indem man tatsächlich erst mal den Grundschutz umsetzt“, mahnt er.

Zu den Basismaßnahmen zählen Fachleute zudem ein konsequentes Identitätsmanagement mit Mehr-Faktor-Authentifizierung und Biometrie, eine (Mikro-)Segmentierung des Netzwerks sowie die laufende Überwachung des Datenverkehrs. Viele dieser Maßnahmen greifen auf Netzwerkebene und sind in moderne Netzwerklösungen bereits eingebettet. Deshalb plädieren die namhaften Ausrüster dafür, Netzwerkund Security-Management zu verzahnen, statt auf fragmentierte Infrastruktur und operative Silos zu setzen, nur weil das eben „schon immer“ so war.

DIE BEDEUTUNG DES NETZWERKS

„Die Netzwerkebene ist das Rückgrat der Cyberresilienz“, sagt zum Beispiel Phil Swain, CISO bei Extreme Networks. Echtzeit-Transparenz über alle Endpunkte, segmentierte Zugriffskontrollen, automatisierte Anomalieerkennung und Rapid Response – also schnelle Reaktion im Ernstfall – sieht er als essenzielle technische Maßnahmen. Sein Rat: Sicherheits- und Netzwerkteams sollten eng zusammenarbeiten, idealerweise gestützt durch ein zentrales Cloud-natives Management, Analysesoftware und integrierte Plattformlösungen, die alle Prozesse vereinen.

Bestandteil eines Resilienzkonzepts sollten unveränderliche, also manipulationssichere Backups („Data Vaults“) sein.

Bildquelle: Adobe / Stock / max / KI generiert

Auch die Netzwerkgrößen Cisco oder HPE würden hier wohl nicht widersprechen. HPE-Mann Axel Simon bringt es auf den Punkt: „Was ist bei Formel-1-Rennen entscheidend: das Fahrzeug oder die Rennstrecke? Es ist beides! Ebenso müssen Infrastruktur und Security zueinanderpassen.“

Zu den grundlegenden technischen Resilienzmaßnahmen zählen zudem System- und Georedundanz sowie eine frühzeitig auf Security ausgerichtete Softwareentwicklung. Die Kür sind dann Initiativen wie Pentesting, Red-Teaming oder auch Stresstests der Software und ITSysteme per Chaos Engineering, also das Provozieren von Fehlern in (Vor-)Produktionsumgebungen.

„Der entscheidende Schritt ist, Cyberresilienz nicht nur als IT-Thema zu betrachten“, so Kathrin Redlich, AVP EMEA bei Rubrik. Bildquelle: Rubrik

ORGANISATORISCHE MASSNAHMEN FÜR CYBERRESILIENZ

„Time-to-Recovery [die Zeit zwischen Vorfall und Wiederherstellung, Anm. d. Red.] ist das neue Maß für Resilienz. Wer Systeme schnell und sauber wiederherstellen kann, begrenzt wirtschaftliche Schäden und behält die Kontrolle“, sagt Rubrik-Managerin Kathrin Redlich. „Das kann über Marktposition, Vertrauen und sogar Existenz entscheiden und ist ein strategischer Vorteil in einer Zeit, in der Angriffe nur eine Frage des Wann und Wie oft sind.“

Neben den technischen kommt deshalb auch den organisatorischen Maßnahmen große Bedeutung zu – und das eben nicht nur in der IT-Abteilung, sondern auch auf Geschäftsführungsebene. Als wichtige Bausteine gelten eine Analyse der Risikolage inklusive Priorisierung individueller Geschäftsrisiken, Notfallpläne mit klar definierten Rollen und Erreichbarkeiten (auf Papier, denn im Angriffsfall sind digitale Pläne oft nicht erreichbar) sowie regelmäßige Krisenübungen, etwa in Form von Tabletop Exercises. Ebenfalls nicht zu unterschätzen sind klare Zuständigkeiten und festgelegte Abläufe für die Krisenkommunikation. Je nach Risikoappetit eines Unternehmens kann zudem eine Cyberversicherung helfen, wirtschaftliche Schäden zu mindern.

DYNAMIK STATT STATIK

Asterix und Obelix verteidigten stets einen unveränderlichen Status quo. Das ist aber nicht mehr zeitgemäß: Die Risikolage ist heute ebenso veränderlich wie die Geschäftsstrategie eines Unternehmens. Ökonomen gilt Agilität sogar als Resilienzmechanismus – hier muss die Cyberresilienz mithalten können.

Laut Dietmar Hilke ist deshalb ein dynamisches Vorgehen notwendig. Die meisten Chefs überprüfen die Unternehmensstrategie jährlich und den Fortschritt beschlossener Maßnahmen monatlich. Dieser Rhythmus sollte laut Hilke auch für die Risikoanalyse Anwendung finden, um Risiken möglichst früh zu identifizieren und zu mitigieren. „Business Continuity Management und Cyberresilienz gehören zusammen“, so der Cisco-Manager.

Nicht zuletzt zählt eine in Security-Dingen geschulte, wachsame Belegschaft zu den wichtigen Faktoren für Cyberresilienz. Wer Verdächtiges beobachtet, muss wissen, dass er es schnell melden muss, an wen er sich dazu wenden kann – und dass er keine Sanktionierung befürchten

muss, sollte er das Verdächtige durch einen leichtfertigen Mausklick selbst verursacht haben (siehe den Beitrag zum Thema Security-Kultur in diesem Heft).

RESILIENZ DER BUNDESRECHENZENTREN

Werfen wir zur Veranschaulichung einen Blick auf ein Praxisbeispiel. Die Rechenzentren (RZs) des Bundes müssten doch eigentlich außerordentlich hohe Resilienz aufweisen, oder? ... Oder? (Pause. Stille. Im Hintergrund krächzt ein Rabe.)

Der Bundesrechnungshof hat im Juli 2025 eine Stellungnahme zum Sicherheitsniveau der über 100 RZs des Bundes verfasst. Dieser zuerst von Politico veröffentlichte Text, schlug hohe Wellen. Denn er erfordert vom Leser ein hohes Maß an psychischer Resilienz: Das Bild, das die Behörde zeichnet, lässt jedes Dorf mit Holzzaun besser dastehen und längst nicht nur das von Asterix und Obelix.

Der Bundesrechnungshof bezeichnet das IT-Sicherheitsniveau der BundesRechenzentren schlicht als „unzureichend“. Er verweist auf Angaben des BSI, wonach weniger als zehn Prozent der untersuchten RZs den Mindeststandard erfüllten, also den BSI-Hochverfügbarkeitsbenchmark HVB-kompakt.

Auf Seite 28 heißt es nüchtern: „Der Bundesrechnungshof befragte elf Behörden, die im Spannungs- und Verteidigungsfall bedeutsame Aufgaben wahrzunehmen haben, um die Staats- und Regierungsfunktionen aufrechtzuerhalten. Danach verfügen deren RZ selbst bei als kritisch bewerteten IT-Diensten über keine Georedundanz, in manchen Fällen noch nicht einmal über eine Betriebsredundanz.“

Nicht minder beunruhigend: „Für den Fall der Zerstörung eines RZ gaben vier der Behörden an, zwar über keine Betriebs- oder Georedundanz zu verfügen, jedoch regelmäßige Backups anzufertigen. Keine der Behörden hatte umfänglich getestet, ob sich die in einem RZ betriebe -

Der Bundesrechnungshof fällte über den Sicherheitsstatus der Bundesrechenzentren ein steinhartes Urteil. Bildquelle: Bundesrechnungshof

nen IT-Dienste basierend auf den angefertigten Backups wiederherstellen lassen.“

Gerade mal ein Drittel der wichtigsten Bundesbehörden verfügt über Sicherungen, und keine hat den Betriebswiederanlauf gründlich getestet? Da erübrigt sich jede weitere Diskussion um Cyberresilienz – und erst recht um die vielbeschworene digitale Souveränität. Das Fazit kann nur lauten: Die spinnen, die Germanen!

DIGITALE DORFGEMEINSCHAFT

Auch wenn es die wichtigsten Rechenzentren des Bundes nicht hinbekommen, so sollten doch wenigstens deutschlandweit möglichst viele Unternehmen versuchen, ein stabiles Maß an Cyberresilienz zu erzielen. Diese Aufgabe darf nicht allein am Security-Team „hängenbleiben“! Vielmehr müssen Geschäftsführung, IT-Abteilung und Belegschaft an einem Strang ziehen. Die gallischen Comic-Helden machen es uns vor: Resilient ist, wer als Gemeinschaft zusammensteht, gut vorbereitet ist und im Notfall weiß, was zu tun ist. Dies erfordert nicht nur Wissen um Risiken und Resilienzmaßnahmen, sondern auch Motivation. Ein Hinweis könnte helfen, die Beteiligten zu motivieren: Um die vom Bund vorgegebene Messlatte zu überspringen, benötigen sie nicht mal einen Zaubertrank.

AUTOR: Dr. Wilhelm Greiner

Nürnberg 07. – 09. Oktober 2025

Fachvorträge – direkt am Puls der Zeit

Diese Vorträge erwarten Sie:

Auf der Bühne

• Sicher verwalten, smart schützen:

Hybrides UEM als Schlüssel zur IT-Security

Speaker: Sebastian Weber, Chief Evangelist

07.10.2025 • 13.45 Uhr • Forum D, Halle 7*

• IT-Sicherheit:

Rückgrat für digitale Souveränität und Resilienz in Europa

Speaker: Fachgruppe des Bundesverbands IT-Mittelstand (BITMi)

08.10.2025 • 13.00 Uhr • Forum C, Halle 7*

An unserem Aagon Stand

Freuen Sie sich auf spannende Kurzvorträge rund um die Themen IT-Security und Unified Endpoint Management (UEM).

Unsere Experten teilen praxisnahe Einblicke und aktuelle Trends – kompakt, verständlich und direkt vor Ort.

*Änderungen der Foren und Halle vorbehalten

Hier finden Sie uns: Unser Aagon-Stand: Halle 7, Stand 7 – 434

Unser Partner-Stand: Halle 6, Stand 6 – 125

Jetzt Gratis-Ticket sichern

Einfach scannen und den Code AagonITSA2025 verwenden:

Weitere Informationen finden Sie unter

www.aagon.com/it-sa2025

SO WIRD CYBERSECURITY PROAKTIV

„DAS BESTE XDR IST DAS, WELCHES ICH GAR NICHT ERST BRAUCHE, WEIL ALLE ANGRIFFSPFADE GESCHLOSSEN SIND.“

Robert Wortmann, Principal Security Strategist, Trend Micro

Ein zentrales Problem bei der Erkennung von Cyberangriffen ist der Unterschied zwischen verhaltensbasierter und intentionsbasierter Detektion. Verhaltensbasierte Erkennung konzentriert sich auf auffällige Aktivitäten und Anomalien im Netzwerk, wie beispielsweise ungewöhnliche Datenbewegungen oder die Verwendung bestimmter Tools. Diese Methode ist effektiv bei der Erkennung von weniger ausgefeilten

DIE ROLLE DER KI

KI-basierte Sicherheitslösungen bieten dafür vielversprechende Ansätze. Durch maschinelles Lernen und Datenanalyse können sie Muster und Anomalien erkennen, die auf einen Angriff hindeuten. Dabei geht es nicht nur um die Erkennung von bekannten Bedrohungen, sondern auch um die Identifikation von bisher unbekannten Angriffsmustern. Ein wichtiger Aspekt ist die Kontextualisierung von Risiken: Einzelne Risikoparameter sind oft schwer zu interpretieren, doch durch die Korrelation und Analyse dieser Parameter kann eine umfassendere Risikoabschätzung erfolgen. KI kann zudem helfen, indem sie analysiert, welche Schwachstellen und Fehlkonfigurationen besonders kritisch sind und wie Angreifer diese ausnutzen könnten.

KI ermöglicht die Vorhersage von wahrscheinlichen Angriffspfaden

Quelle: Trend Micro

Angriffen, die viel “Lärm” erzeugen. Andererseits gibt es hochentwickelte Angreifergruppen, die legitimes Verhalten nachahmen und so schwer zu erkennen sind. Ein gutes Beispiel ist die APTGruppierung “Volt Typhoon”, die sich extrem unauffällig bewegt und tief in kritische Infrastrukturen eindringen kann. Hier stößt die verhaltensbasierte Erkennung an ihre Grenzen, da das Verhalten zunächst legitim erscheint und die Intention dahinter schwer zu identifizieren ist.

Neu hinzu kommt die Fähigkeit großer Sprachmodelle (LLMs), komplexe Zusammenhänge in natürlicher Sprache zu verarbeiten. Ein entscheidender Vorteil, wenn es darum geht, Informationen aus Reports, Foren oder Tickets zu analysieren und verfügbar zu machen. So kann KI nicht nur technische Schwachstellen erkennen, sondern auch Hinweise auf Angriffsabsichten aus Texten ableiten – etwa aus PhishingMails, Playbooks oder Commandand-Control-Kommunikation.

Gleichzeitig senkt die Verarbei-

tung natürlicher Sprache die Einstiegshürde für Analysten, da Bedrohungsinformationen verständlicher dargestellt werden können. Damit leisten LLMs einen wichtigen Beitrag zur Demokratisierung von Wissen und Fähigkeiten in der Cybersicherheit.

PROAKTIVE CYBERSICHERHEIT

Die zunehmende Komplexität der Cyberbedrohungen erfordert einen proaktiven Ansatz. Unternehmen müssen wissen, welche digitalen Ressourcen sie haben und wie diese geschützt sind. Dazu gehört auch die regelmäßige Überprüfung und Aktualisierung von Sicherheitsmaßnahmen. KI kann dabei unterstützen, indem sie potenzielle Angriffswege aufzeigt und vorhersagt, wie Angreifer vorgehen könnten.

Diese Vorhersagen ermöglichen es, gezielte Maßnahmen zu ergreifen, um die Angriffsfläche zu reduzieren und potenzielle Schwachstellen zu schließen.

Durch die Kontextualisierung und Vorhersage von Risiken können Unternehmen ihre Sicherheitsmaßnahmen gezielt verbessern und so die Angriffsfläche reduzieren. Gleichzeitig entlastet KI die Mitarbeiter und ermöglicht es ihnen, sich auf die wirklich kritischen Bedrohungen zu konzentrieren.

Autor: Oliver Schonschek

Vulnerable Lieferketten müssen besser geschützt werden, macht zum Beispiel

Sinan Selen, Vizepräsident des Bundesamtes für Verfassungsschutz, deutlich.

Bildquelle: Bundesamt für Verfassungsschutz

Im digitalen Zeitalter bilden Supply-Chain-Dienste die Eckpfeiler des globalen Handels und der globalen Wirtschaft, erklärte die EU-Kommission bereits 2019. Die wertvollen, miteinander verbundenen physischen und Cyber-Ressourcen der Lieferketten seien zum Ziel terroristischer Angriffe geworden. Diese führten nicht nur zu Störungen der Lieferketten, sondern schädigten auch den Geschäftsbetrieb in der EU, die nationale und europäische Sicherheit, die Wirtschaft, die Gesellschaft und die Umwelt erheblich.

Diese Bedrohung besteht heute mehr denn je. „Durch Globalisierung und Digitalisierung ist in den vergangenen Jahrzehnten unsere Verwundbarkeit genauso gewachsen wie die Anzahl der Akteure von Spionage und Sabotage – und deren Werkzeugkasten ist größer und der Inhalt gefährlicher geworden“, kommentierte Sinan Selen, Vizepräsident des Bundesamtes für Verfassungsschutz.

Lieferketten abzusichern ist zukünftig nicht nur ein Best Practice, sondern wird zunehmend zur gesetzlichen Pflicht für Unternehmen, erklärte auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Management-Blitzlicht zum Lieferkettenschutz.

Die entsprechenden rechtlichen Pflichten zum Schutz der Supply Chain findet man in der NIS2-Richtlinie genauso wie im Cyber Resilience Act (CRA). So gehört Lieferkettenschutz zu den nach NIS2 geforderten Risikomanagement-Maßnahmen, und nach CRA müssen Sicherheitsanforderungen in allen Komponenten von Produkten mit digitalen Elementen umgesetzt werden.

Es wäre jedoch zu kurz gegriffen, die Supply Chain Security allein als Maßnahmen für die Compliance zu sehen. Vielmehr sind sichere Lieferketten ein Fundament für die weitere, globale Vernetzung und fortschreitende digitale Transformation auch in kritischen Bereichen.

LIEFERKETTENSCHUTZ VERRINGERT DIE FOLGESCHÄDEN

Attacken auf Zulieferer haben Auswirkungen auf das eigene Unternehmen, etwa Produktionsausfälle, Lieferengpässe oder auch Reputationsschäden, so der Bericht Wirtschaftsschutz 2024 des Digitalverbands Bitkom. Bestimmte Sicherheitsmaßnahmen für die Supply Chain finden bereits statt, müssen aber noch weiter ausgedehnt werden.

37 Prozent der Unternehmen, die mit Zulieferern arbeiten, haben demnach einen Notfallplan, wie sie auf Sicherheitsvorfälle in der Lie -

ferkette reagieren. 33 Prozent stehen in engem Austausch mit Zulieferern, um das Risiko von Angriffen in der Lieferkette zu minimieren. 19 Prozent führen bereits regelmäßig Sicherheitsbewertungen bei Zulieferern durch, um das Risiko von Angriffen zu minimieren.

Strenge Sicherheitsanforderungen an die eigenen Lieferanten und Dienstleister, regelmäßige, unabhängige Audits der Lieferanten-Security gehören ebenso zu einem umfassenden Lieferkettenschutz wie der fortlaufende Austausch über die Cyberbedrohungslage (Threat Intelligence) in der eigenen Branche, um Risiken für die eigene Lieferkette früher erkennen zu können. Dabei müssen die Compliance-Forderungen, denen sich Unternehmen stellen müssen, auch an die eigenen Dienstleister und Lieferanten „weitergegeben“ werden. Cybersicherheit wird deshalb zunehmend Teil der Lieferverträge und Einkaufsbedingungen.

SICHERHEIT IN LIEFERKETTEN BEGINNT MIT VISIBILITÄT

Die Vielzahl von Systemen, Anwendungen und Daten in einer digitalen Lieferkette lässt die Supply Chain Security sehr komplex erscheinen, entsprechend wichtig ist es für Transparenz in der Lieferkette zu sorgen. Geht es zum Beispiel um die Sicherheit von Software, müssen alle in der Software integrierten Komponenten bekannt und der Sicherheitsstatus bestimmt werden, um mögliche Schwachstellen finden und beheben zu können. Möglich wird dies mit SBOM.

Software Bills of Materials (SBOM), also Software-Stücklisten, liefern eine detaillierte Auflistung der in einem Gerät, einer Software oder einem Dienst verwendeten Software-Komponenten und erhöhen so die Transparenz der Supply Chain. „Software Bills of Materials (SBOMs) sorgen für Transparenz in der IT-Supply-Chain“, erläutert Oliver Dehning, Leiter der AG „Cloud Security“ im IT-Sicherheitsverband TeleTrusT. „Ohne sie ist eine angemessene Einschätzung von Risiken aus IT-Diensten praktisch unmöglich“.

Wie sich SBOM nutzen lässt, um die Lieferkette sicherer und die eigene Cyber-Resilienz stärker werden zu lassen, beschreibt das BSI auch in Richtlinien wie BSI TR-03183 Cyber-Resilienz-Anforderungen Teil 2.

„Sicherheitsmaßnahmen und insbesondere Maßnahmen zur IT-Sicherheit sind immer nur so gut wie für das schwächste Glied in der Kette. Unternehmen sollten deshalb unbedingt ihre gesamte Lieferkette in den Blick nehmen“, Bitkom-Präsident Dr. Ralf Wintergerst. Bildquelle: Bitkom

„Unternehmen sollten die Bereitstellung von SBOMs konsequent von ihren IT-Lieferanten fordern und auf allen Ebenen der IT im Rahmen von Sicherheitsüberwachung und Risikomanagement nutzen“, Oliver Dehning, eco Sicherheitsexperte und Leiter der TeleTrusTAG „Cloud Security“. Bildquelle: eco

AUTOMATISIERUNG UND KI HALTEN IN LIEFERKETTENSICHERHEIT EINZUG

Sichere Lieferketten sind ein Fundament für die globale Vernetzung und fortschreitende digitale Transformation. Bildquelle: Adobe / Stock / FRANKLIN / KI generiert

Lieferkettensicherheit betrifft aber natürlich nicht nur Unternehmen, sondern auch die Verwaltung. Mit einer gemeinsamen Initiative haben das Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) und das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Bedeutung sicherer und souveräner Softwarelieferketten weiter in den Fokus gerückt.

Eine vollständige Prüfung von Softwarelieferketten ist bislang angesichts ihrer Komplexität für einzelne Softwareanbieter kaum realisierbar, so das BSI. Dies erfordere einen grundlegend neuen Ansatz, der über die Möglichkeiten einzelner Organisationen hinausgeht und die Fachkenntnisse von Sicherheitsexperten, Entwicklern und Behörden gezielt bündelt, standardisierte Prüfverfahren etabliert und gemeinsame Sicherheitsanalysen ermöglicht.

Zentraler Baustein hierbei ist die Plattform openCode . Sie etabliert verbindliche Sicherheitsstandards, macht Abhängigkeiten transparent und schafft nachvollziehbare Herkunftsnachweise für kritische Softwarekomponenten. Dank der Transparenz von Open-Source können so viele der bisherigen, manuellen Prüfprozesse automatisiert und damit die Skalierbarkeit von Sicherheitsüberprüfungen der Softwarelieferkette erheblich verbessert werden, wie das BSI darlegte.

Automatisierte Prüfungen von Komponenten der Software-Lieferkette sind ein wichtiger Schritt, damit Unternehmen ihre Lieferkette transparenter machen und ihr gesamtes Partner- und Ökosystem sicher nutzen

können. Auch KI (Künstliche Intelligenz) kann und wird maßgeblich dazu beitragen, die Lieferkettensicherheit in Komplexität und Aufwand senken zu können. So lassen sich Schwachstellen und Risiken in der Lieferkette mit Hilfe von KI aufspüren, bewerten und priorisieren, das Schwachstellenmanagement kann weitgehend automatisiert werden, wobei die jeweils bereitgestellten Updates ebenso mit KI-Unterstützung getestet und ausgerollt werden können.

Damit das aber zuverlässig möglich ist, müssen auch KI-Lösungen als Ergebnis einer Lieferkette verstanden werden. Auch die Sicherheit und Vertrauenswürdigkeit von KI hängt von den dafür genutzten Komponenten und der ganzen KI-Lieferkette ab. Doch auch hier tut sich bereits etwas.

Im Rahmen des G7-Arbeitstreffens in Ottawa im Mai 2025 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit den internationalen G7-Partnern ein gemeinsames Konzept für eine SBOM für KI-Systeme veröffentlicht. SBOM, erweitert auf KI-Systeme, soll künftig auch Informationen über das verwendete KI-Modell sowie Art, Quelle und mögliche Biases in den Trainingsdaten enthalten. Ziel ist, den gesamten Lebenszyklus der KI-Anwendung zu betrachten und transparent zu machen.

Eine vollständige Prüfung von Softwarelieferketten ist bislang angesichts ihrer Komplexität für einzelne Softwareanbieter kaum realisierbar.

Bildquelle: Adobe / Stock / Victor / KI generiert

Mit einer vertrauenswürdigen Lieferkette kann KI dann dabei helfen, weitere Supply Chains möglichst automatisiert abzusichern und eine geschützte Basis für weitere, digitale Zusammenarbeit entlang der Lieferkette zu schaffen. Lieferkettenschutz wird so grundlegender Teil der Cybersicherheit und verliert den Schrecken, den jetzt noch so manches Unternehmen verspürt, wenn es an die verpflichtende Umsetzung entsprechender Vorgaben aus NIS 2 denkt.

Autor: Oliver Schonschek

ZWISCHEN GESCHWINDIGKEIT UND PRÄZISION:

Die Rolle von Datenqualität im KI-gestützen SOC

Künstliche Intelligenz gilt im Security Operations Center (SOC) als Schlüssel zur Effizienzsteigerung. Doch wie zuverlässig Entscheidungen ausfallen, hängt maßgeblich von der Qualität der eingespeisten Daten ab. Das NIST Artificial Intelligence Risk Management Framework (AI RMF 1.0) beschreibt Datenqualität als einen zentralen Risikofaktor für den Einsatz von KI-Systemen. Überträgt man dieses Prinzip auf den SOC-Kontext, wird deutlich: Auch hier sind KI-gestützte Prävention, Detektion, Reaktion und Vorhersage von Angriffen nur so zuverlässig wie die Daten, auf denen sie beruhen.

qualitative Daten bei. Die Betonung liegt dabei auf “kuratiert”: Die Feeds müssen frei von irrelevanten, redundanten und überalterten Indikatoren sein und zusätzlichen Kontext liefern, etwa Hinweise auf Angreifergruppen, regionales Auftreten oder auf sektorspezifische Aktivität.

High-Fidelity-Daten spielen sowohl während der Trainingsphase von Modellen als auch im operativen Betrieb eine Rolle. Sie sind auf zwei Ebenen nutzbareinerseits als Input für die lang -

VOM INPUT ZUM OUTCOME

Gegen das häufig genannte Argument, Qualität koste zu viel Zeit, sprechen Verfahren, die qualitativ hochwertige Daten automatisiert und mit vertretbarem Aufwand bereitstellen:

• Automatisierte Malware-Analyseverfahren mithilfe einer modernen, evasionsresistenten Sandbox liefern hochauflösende Telemetriedaten wie APIAufrufe, Persistenzmethoden, C2-Kommunikation oder mehrstufigen URL-Redirect-Ketten.

• Kuratierte Threat Intelligence Feeds steuern weitere hoch -

fristige Verbesserung der Modelle, andererseits als unmittelbarer Datenstrom für KI-gestützte Entscheidungen im Tagesgeschäft.

Der Mehrwert hochwertiger Daten zeigt sich in ihrem Einfluss auf konkrete SOC-Kennzahlenetwa die mittlere Lebensdauer von Indikatoren, die mittlere Triage-Zeit (MTTT), die False-Positive-Rate, die Abdeckung von Angriffstechniken im MITREATT&CK-Modell oder die Analystenzeit pro Incident.

FAZIT

Die Wirksamkeit von AI-gestützten SOC-Funktionen ist kein Selbstläufer. Sie steht und fällt mit der Qualität der Bedrohungsdaten. Wer Datenquellen prüft, pflegt und bewertet, schafft die Grundlage dafür, dass KI nicht nur schneller, sondern auch sicherer entscheidet.

„Wir müssen weg von reiner IT-Security und Prävention und stärker hin zur aktiven Vorbereitung auf eine Attacke.“
Kathrin Redlich Rubrik

DER MENSCHLICHE FAKTOR IN DER IT-SICHERHEIT

FLÜGEL VERLEIHEN

Autor: Dr. Wilhelm Greiner

KULTUR IST EIN BUNTER VOGEL MIT FARBENFROHEM GEFIEDER UND ÜPPIGER ARTENVIELFALT. ES GIBT SIE ALS HOCHKULTUR, EBENSO DEREN GEGENSTÜCK (NEIN, NICHT „NIEDRIG-“, SONDERN „POPULÄRKULTUR“), POLITISCHE KULTUR, DEBATTEN-, WOHN- UND ESSKULTUR SOWIE IN FIRMEN ALS UNTERNEHMENSKULTUR. DIESE MUSS ZUGLEICH EINE SICHERHEITSKULTUR SEIN. ANDERNFALLS MUSS DIE FIRMA BEIM NÄCHSTEN PHISHING-ANGRIFF WOHL FEDERN LASSEN.

Die Unternehmenskultur glänzt mal im schillernden Pfauenkleid aus Grundsätzen und Werten, die alle im Unternehmen von der Chefetage bis zum Pförtnerhäuschen verinnerlicht haben, mal kommt sie als unscheinbare Amsel daher: als „Leitbild“, das eine Managementberatung dem Chef einst für teures Geld aufgeschwatzt hat und das seither in Schubladen verstaubt. Welche Art von Kulturvogel über den Firmencampus flattert, hängt davon ab, ob das Management eine Unternehmenskultur etablieren kann, die den Namen auch verdient, also den Alltag prägt.

Ob mit Leitbild-Leiche oder lebendiger Kultur: Unternehmen hängen heute praktisch vollständig von einer reibungslos – nein, bleiben wir realistisch: möglichst reibungsarm – funktionierenden IT ab. Neben technischen Störungen torpedieren vor allem Cyberangriffe dieses Ziel. Auffällig: Ein großer Teil der Cyberangriffe auf Unternehmen beruht zumindest zum Teil auf dem Zutun der Belegschaft, also auf menschlichem Versagen oder gar auf böswilligem Vorsatz.

MENSCHLICHER ANTEIL AN SICHERHEITSVORFÄLLEN

Verizons Data Breach Investigations Report (DBIR) 2025 stellt fest: „Der Anteil des menschlichen Elements bei Sicherheitsvorfällen lag, wie auch schon im Vorjahr, bei ungefähr 60 Prozent.“ Bei drei von fünf Vorfällen mit Datenverlust hat also ein Mitarbeiter – ob fahrlässig oder bewusst – an irgendeiner Stelle mitgeholfen. In Zeiten großangelegter Phishing-Kampagnen, Deepfakes und Ransomware sollte das niemanden verwundern, zumal dieser Anteil früher sogar höher lag.

Das zeigt: Eine Unternehmenskultur muss immer auch eine SecurityKultur sein. Der sicherheitsbewusste Umgang mit IT und gegebenenfalls vernetzter Betriebstechnik (OT) muss für die Belegschaft ebenso selbstverständlich sein, wie im Auto den Sicherheitsgurt anzulegen oder am Werkstor den Firmenausweis vorzuzeigen.

VON SECURITY AWARENESS ZUR SECURITY-KULTUR

Dieses Ziel ist nicht neu. Seit Jahrzehnten bemühen sich Unternehmen, IT-Security im Alltag zu verankern. Früher sprach man von „Security Awareness“, also IT-Sicherheitsbewusstsein. Heute hingegen ist das Schlagwort „Security-Kultur“ in den Fokus gerückt. Ist diese also nur altbackene Awareness-Arbeit im farbenfrohen Floskelgefieder?

„Sicherheitskultur ist keineswegs alter Security-AwarenessWein in neuen Schläuchen“, betont Dr. Martin Krämer, Security Awareness Advocate beim Online-Trainingsanbieter KnowBe4. „Vielmehr ist sie Ausdruck eines viel höheren Reifegrads des Verständnisses, wie man das menschliche Risiko adressiert.“ Denn wer auf eine Sicherheitskultur setzt, erkennt laut Krämer an, dass reine Wissensvermittlung nicht ausreicht, um Verhaltensweisen zu beeinflussen. Zugleich treten neue Akteure auf. Denn Awareness-Kampagnen waren in der Regel bei der IT-Abteilung aufgehängt. „Eine Sicherheitskultur hingegen ist Teil der Unternehmenskultur“, sagt Krämer. „Die Unternehmensleitung selbst ist damit gefordert, die Sicherheitskultur zu etablieren – und auch vorzuleben.“

„Sicherheitskultur ist keineswegs alter Security-AwarenessWein in neuen Schläuchen“, sagt Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4. Bildquelle: KnowBe4

Für Awareness-Kampagnen gibt es längst eine Fülle nützlicher Schulungsinhalte. Ergänzend aber braucht es laut Krämer gute Werkzeuge zur Umsetzung und eine Sicherheitskultur als Nährboden, der die Bereitschaft der Beschäftigten fördert, sicheres Verhalten zu verinnerlichen.

Inwieweit, aber hebt sich eine Security-Kultur von der bloßen Durchführung regelmäßiger Awareness-Kampagnen ab? Laut Matt Cooke, Cybersecurity Strategist beim US-Anbieter Proofpoint, liegt der Unterschied vor allem in der Nachhaltigkeit und der Tiefe der Verankerung: „Während Awareness-Maßnahmen meist punktuell Wissen vermitteln oder auf bestimmte Risiken aufmerksam machen, durchdringt eine tatsächliche Security-Kultur sämtliche Unternehmensbereiche“, so Cooke. „Sie beeinflusst die Einstellungen, Überzeugungen und täglichen Routinen der Mitarbeitenden.“

Gerade in Deutschland, wo man großen Wert auf Zertifizierungen und Nachweispflichten legt, droht allerdings immer das Risiko, dass Awa -

„Sicherheitsmaßnahmen und insbesondere Maßnahmen zur IT-Sicherheit sind immer nur so gut wie für das schwächste Glied in der Kette. Unternehmen sollten deshalb unbedingt ihre gesamte Lieferkette in den Blick nehmen“, Bitkom-Präsident Dr. Ralf Wintergerst. Bildquelle: Bitkom

reness-Programme zur reinen Compliance-Übung verkommen. Eine Security-Kultur sorgt laut Cooke dafür, dass Beschäftigte sich auch jenseits von Schulungen eigenverantwortlich und sicherheitsbewusst verhalten. „Dies ist ein qualitativer Unterschied, der sich langfristig auszahlt“, betont er.

„GELEBTE“ KULTUR

Eine oft gehörte Forderung: Eine Security-Kultur müsse nicht nur propagiert, sondern auch „gelebt“ werden. Da stellt sich die Frage, wie das aussehen soll. Security-Fachleute betonen hier regelmäßig die wichtige Vorbildfunktion der Geschäftsführung. Diese müsse das gewünschte SecurityVerhalten vorleben. „Das fängt schon beim Onboarding neuer Kolleginnen und Kollegen an“, sagt Matthias Koll, Business Owner der G DATA Academy beim Bochumer Security-Spezialisten G DATA CyberDefense, „indem aufgezeigt wird, dass die IT-Sicherheitsregeln für alle gelten – ohne Ausnahme.“

Ein weiterer oft genannter Aspekt ist das Thema Fehlerkultur: Das Unternehmen muss offen über Risiken sprechen, darf aber versehentliche Fehler nicht sanktionieren. „Ein Mitarbeiter, der auf einen Phishing-Versuch hereingefallen ist, sollte dies offen ansprechen können“, rät Koll.

Der dritte Aspekt: Beharrlichkeit. Eine Security-Kultur zu etablieren, ist ein langer, steiniger Pfad mit zahllosen Schlaglöchern. „Starke Egos stehen einer Sicherheitskultur oft im Weg“, sagt Dror-John Röcher, Gründer und CEO des Berliner Security-Beratungshauses Intcube. Er nennt ein Beispiel: Bekommt die oberste Führungsriege alle Zugänge, einfach weil sie die Chefs sind? Oder wird der Zugang zu Systemen und Informationen auch hier sinnvoll gesteuert, also gemäß dem Least-Privilege-Prinzip?

KULTURLANDSCHAFT MIT STOLPERFALLEN

Der größte Fehler ist laut Röcher die Annahme, dass Security-Kultur etwas „Technisches“ sei. Ihre Einführung ist vielmehr – der Name deutet es an – ein Kulturwandel im Unternehmen. „Die Veränderung einer Kultur muss erklärt, vorgelebt, gehegt und mit langem Atem gepflegt werden“, so Röcher. „Betroffene müssen zu Beteiligten werden.“

Ein zweiter Fehler liege im Versuch, eine Security-Kultur mittels Angstmarketing zu etablieren – das Standardvorgehen der Security-Branche. Doch Angst, betont Röcher, löst archaische Reaktionen aus – Flucht oder Kampf – und verhindert so nachhaltige positive Veränderung. „Wir müssen mit positiven Botschaften einen emotionalen Raum der zuversichtlichen Sicherheit schaffen“, sagt der Intcube-Chef. „Nur dann können wir die Kultur positiv beeinflussen.“

Stolperfallen lauern nicht nur beim Projekt, eine Security-Kultur anzustoßen, sondern auch beim Vorhaben, sie anschließend dauerhaft aufrechtzuerhalten. „Das Etablieren einer Security-Kultur ist ein Marathon und kein Sprint“, sagt G-DATA-Mann Koll. „Wer Angestellte zwingt, zu viele Kurse in kurzer Zeit zu absolvieren, überfordert sie.“

Es gehe also um bedarfsgerechte Schulungen und Kursinhalte.

Dabei sind laut Koll zwei Dinge zu beachten: Erstens braucht man das passende Umfeld. Wer beispielsweise Mitarbeitende in der Produktion schulen will, braucht dafür eine geeignete, ruhige Lernumgebung. Der zweite wichtige Faktor ist die Lernmotivation. Hier raten Fachleute stets zu Maßnahmen wie Storytelling und Gamification (spielerische Elemente), um die intrinsische Motivation der Beschäftigten zu steigern und ihnen zu helfen, Lerninhalte zu verinnerlichen.

Nach dem Verizon DBIR lag der Anteil des menschlichen Elements bei Sicherheitsvorfällen 2025 bei ungefähr 60 Prozent

Bildquelle: Adobe / Stock / neiros / KI generiert

Als abträglich erachtet es Koll, Stakeholder wie den Betriebsrat oder Führungskräfte auszugrenzen. „Gerade diese Gruppen sind wichtige Botschafter, die man von Beginn an einbeziehen sollte“, sagt er.

ÜBERRASCHENDER PROBLEMBÄR

Ironischerweise schadet oft die Security-Branche selbst dem Vorhaben, eine Sicherheitskultur zu etablieren, warnt Intcube-Chef Röcher: „Leider ist die Cybersecurity-Branche in Teilen von einer patriarchalen Arroganz geprägt und arbeitet mit Macht, Angst und Schuldumkehr.“ Das offensichtlichste Beispiel sei die oft gehörte Aussage: „Kein Backup, kein Mitleid!” Dies sei „Victim-Blaming“ in Reinform. Ja, man brau -

„Eine tatsächliche Security-Kultur durchdringt sämtliche Unternehmensbereiche“, so Matt Cooke, Cybersecurity Strategist bei Proofpoint.

Bildquelle: Proofpoint

che Backups. Aber selbst bei Unternehmen mit funktionierenden Sicherungen richte Cybercrime massive wirtschaftliche Schäden an. „Diese Kombination aus mangelnder Empathie, Angst, Druck und Victim-Blaming ist toxisch und deswegen kontraproduktiv“, mahnt Röcher. „Solange wir uns nicht ändern, werden wir wenig Veränderung bewirken können.“ Seine Forderung: Das IT-Sicherheitsteam sollte als Partner auftreten, zuhören, Zusammenhänge erklären und gemeinsam mit den Fachabteilungen an der IT-Sicherheit arbeiten.

BEST PRACTICES EINER SECURITY-KULTUR

Wie aber schafft man den Sprung zu einer lebendigen Security-Kultur? „Zunächst“, so Proofpoint-Stratege Cooke, „sollten Führungskräfte eine ehrliche Bestandsaufnahme durchführen: Wo steht das Unternehmen tatsächlich in puncto Sicherheitskultur?“ Der wichtigste Folgeschritt – da ist sich Cooke mit allen Fachleuten einig, die ich zum Thema interviewt habe – bestehe dann im erwähnten Vorgehen, das Thema sichtbar zur Chefsache zu machen, also die Führungsebene als Vorbild zu positionieren.

„Eine nicht zu unterschätzende Rolle spielt die Identifikation des Mitarbeiters mit seinem Unternehmen, ebenso sein persönliches Verhältnis zu Vorgesetzten und Kollegen“, sagt Martin Krämer. In KnowBe4Umfragen zur Security-Kultur schneiden kleine und mittlere Unternehmen (KMU) laut Krämer besser ab als große. Das führt er darauf zurück, dass man sich im KMU persönlich kennt, hilft, gegenseitig unterstützt.

Größeren Unternehmen rät der Awareness-Fachmann deshalb zu einem Security-Champions-Programm. Security Champions – Laien, die sich stark für Sicherheit interessieren – dienen dann als Multiplikatoren der Security-Message und zeitgleich als Ohr und Sprachrohr des Sicherheitsbeauftragten in den Fachabteilungen. Für diese Rolle kommen laut Krämer zum Beispiel Beschäftigte in Frage, die bei PhishingSimulationen besonders gut abschneiden, oder schlicht Freiwillige, die sich weiterbilden und Erlerntes weitergeben wollen – im Unternehmen, aber auch im privaten Umfeld.

Hilfreich ist es zudem laut Fachleuten, die Sicherheitskultur im Unternehmen als starke Marke zu etablieren, inklusive Maskottchen, Logo und griffigem Motto. Dabei sollte man laut KnowBe4-Evangelist Krä -

mer die Marketing-Abteilung involvieren. Schließlich sitzen hier die Profis für solche Angelegenheiten.

DIE VERMESSUNG DER WELT

Ein vertrackter Aspekt: Wie misst ein Unternehmen den Erfolg des Vorhabens, eine Security-Kultur zu etablieren? „Sofern man eine Kultur überhaupt messen kann, geschieht dies in der Regel über Umfragen“, erläutert Martin Krämer. Das Awareness-Team frage hier verschiedene Dimensionen ab: Wie gut ist das Sicherheitsverständnis, das Verantwortungsgefühl, das Wissen, die Kommunikation, das eigene Rollenverständnis etc.?

Es gebe aber auch andere aufschlussreiche Parameter, darunter das Reporting-Verhalten bei verdächtigen E-Mails, die Teilnehmerzahlen bei Phishing-Simulationen, die Trainigsraten etc. „Wenn sich die Einstellung von Mitarbeitern zu Sicherheit ändert, spiegelt sich das in solchen alltäglichen Dingen wider“, so Krämer.

UMGANG MIT PROBLEMFÄLLEN

Trotz aller Bemühungen, selbst in der schönsten SicherheitskulturVolière gibt es schräge Vögel: Beschäftigte, die sich eisern um Security-Trainings drücken und/oder bei Phishing-Simulationen immer wieder den Köder-Button anklicken. Wie sollten Unternehmen damit umgehen?

Cybersicherheit muss in Unternehmen Chefsache sein und die Führungsebene muss das als Vorbild vorleben. Bildquelle: Adobe / Stock / RRomin / KI generiert

Martin Krämer von KnowBe4 rät hier, zunächst per Umfrage Risikoprofile zu erstellen: Wo drückt der Schuh, wo mangelt es an Wissen? Erweise sich eine Mitarbeitergruppe bei Phishing-Simulationen oder Ähnlichem als „schwarze Schafe“, helfe es oft, andere Vermittlungsformate auszuprobieren: Vielleicht nehmen die Controller in der Finanzabteilung die Sicherheitshinweise ja einfach nicht ernst, wenn diese

Das AwarenessTeam von Siemens Energy nutzt vorschriftsmäßig die Unternehmens-CI, hat aber die Erlaubnis erwirkt, das Logo abzuändern: Statt mehrerer sphärischer Bögen gibt es nur zwei, die sich scheinbar schützend um die Personen in den Bildern der AwarenessKampagne legen.

Bildquelle: Siemens Energy

per Comics vermittelt werden? Bei hartnäckigen Fällen bestehe zudem immer die Möglichkeit, auf technische Maßnahmen zurückzugreifen, z.B. Browser-Isolation zu nutzen. Auch könne man leichtfertigen Kollegen den Internetzugriff entziehen, wenn sie diesen für ihre Aufgaben gar nicht benötigen.

„Hilfreich sind insbesondere persönliche Gespräche“, betont G-DATA-Mann Koll. Hier sollten die Verantwortlichen den positiven Einfluss von Security Awareness verdeutlichen und aufzeigen, wie relevant sicheres Verhalten auch für das Privatleben ist. Dabei gelte es, stets transparent zu kommunizieren. „Verantwortliche können etwa den Fortschritt aufzeigen und auch feiern“, sagt Koll. „Sichtbarkeit und Anerkennung lassen viele Skeptiker umdenken.“ Lob hilft eben meist mehr, als dem Betreffenden den Vogel zu zeigen.

PRAXISBEISPIEL: SIEMENS ENERGY

In freier Wildbahn kann man eine lebendige Security-Kultur bei Siemens Energy in Erlangen begutachten. Der weltweit tätige Hersteller von Energieanlagentechnik mit über 100.000 Beschäftigten muss großen Wert auf Cybersicherheit legen – und auf Sicherheitsbewusstsein. Für ihre Awareness-Aktivitäten hat die Siemens-Tochter schon zwei Branchenpreise erhalten.

Grundpfeiler der Awareness-Arbeit ist das jährliche verpflichtende Web-based Training. Das Team von Johannes Hackstette, Head of Digital Enablement bei Siemens Energy, nutzt dabei einen bemerkenswerten Hebel, um schwarzen Schafe zu sanktionieren: „Wer das Training versäumt, dessen Microsoft-Teams-Zugang wird vorübergehend gesperrt, bis das Training absolviert wurde“, erklärt Hackstette. Sein Team informiert natürlich die jeweiligen Vorgesetzten. Die Sanktion ist auf vier Wochen limitiert. Schließlich soll sie zwar spürbar an die Teilnahmepflicht erinnern, nicht aber Arbeitsabläufe dauerhaft behindern.

Für den Kontakt mit der Belegschaft nutzt Hackstettes Team das Intranet, Social Intranet und das hauseigene Newsletter-Tool. Den Takt gibt

Bei Siemens Energy reichen die Security-Awareness-Materialien von generischen Giveaways wie einer Brotzeitdose bis zu rollenspezifischen – im Bild: IT-spezifischen – Aufklebern. Bildquelle: Siemens Energy

die Abteilung für interne Kommunikation vor. „Wir befinden uns im internen Wettbewerb um die Aufmerksamkeit der Mitarbeitenden mit vielen anderen Themen“, erläutert

Hackstettes Kollege Thomas Bleuel, Senior Cybersecurity Awareness Manager, mit Blick auf E-Mails der Geschäftsführung, der natio nalen, europäischen und internationalen Teams oder auch der Personalabteilung. „Da müssen wir hervorstechen und zugleich intern gut abgestimmt sein“, so Bleuel.

Um sich abzuheben, nutzt das Awareness-Team zwar vorschriftsmäßig die Unternehmens-CI (Corporate Identity), hat aber die Erlaubnis erwirkt, das CI-Logo abzuändern: Statt mehrerer sphärischer Bögen gibt es nur noch zwei, die sich scheinbar schützend um die Personen in den Bildern der Awareness-Kampagne legen – Security-Branding auf Weltklasse-Niveau. Darunter steht stets der Awareness-Slogan „Defend. Together. Cybersec*****“ – dank der „geheimnisvollen“ fünf Sternchen thematisch passend und mit hohem Wiedererkennungswert.

HERAUSSTECHEN AUS DER KOMMUNIKATIONSFLUT

Auch inhaltlich versucht das Awareness-Team, sich vom Vogelschwarm hausinterner Messages abzuheben: „Unser Anspruch ist es, das Thema Cybersecurity breit zu bespielen und etwa auch Themen wie digitale Gewalt oder Cybergrooming aufzugreifen“, sagt Hackstette. „Wir wollen die Leute auch da erreichen, wo sie als Privatpersonen betroffen sein könnten.“

Neben der Online-Kommunikation gibt es, wie bei AwarenessKampagnen üblich, diverse, mal generische, mal zielgruppenspezifische Offline-Maßnahmen. Diese reichen von Giveaways wie einer Brotzeitdose mit Sicherheitsmotto über Glückskekse mit Awareness-Sprüchlein bis zum Aufkleber „I’d tell you a joke about UDP, but you might not get it“, den wohl nur IT’ler verstehen.

Nicht zuletzt ist es für das Awareness-Team wichtig, auch die Arbeiterschaft in den Werkshallen zu erreichen. Dazu gibt es den Vorgesetzten sogenannte „Cybermoments“ an die Hand: niedrigschwellige Materialien, mit denen die Führungskräfte Sicherheitsthemen allgemeinverständlich in ihre Abteilungen tragen können.

Die Aufschrift „You’re looking at our best cyberdefense“ soll Beschäftigte auf ihre Rolle für die Cybersicherheit hinweisen – und im Idealfall zum Selfie fürs Social Intranet animieren. Bildquelle: Siemens Energy

Diesen Sommer belohnte das Awareness-Team von Siemens Energy die spontane Teilnahme an einem Security-Quiz mit Gratis-Eis. Die Aktion fand auch an anderen Standorten großen Widerhall.

Bildquelle: Siemens Energy

Wichtig sind natürlich Humor und Originalität. So tragen Toilettenspiegel die Aufschrift: „You’re looking at our best cyberdefense“. Und im Hochsommer gab es auf dem Weg zur Kantine einen Eiswagen in Begleitung eines Cybersecurity-Officers, den die Belegschaft aus den AwarenessTrainingsvideos kennt. Bei Teilnahme an einem kurzen CybersecurityQuiz gab es ein kostenloses Eis. Dieser Pilotversuch findet laut

Bleuel bereits Nachahmer: „Cybersecurity-Officer von anderen Standorten haben schon angefragt, wie man das organisiert, welche Vorlaufzeiten das hat usw.“

Hin und wieder testet das Team die Awareness der Belegschaft. „Wir verschicken nur noch Phishing-Simulationen, die moderat bis schwer zu erkennen sind“, sagt Bleuel. So ermittelt das Team die Klickrate und Meldequote und stellt zugleich sicher, dass die Meldewege im Ernstfall bekannt und erprobt sind.

ERFOLGSPARAMETER: FOLLOWER-ZAHL

Neben niedriger Klick- und hoher (obschon noch steigerungsfähiger) Melderate bei Phishing-Simulationen kann das Awareness-Team den Erfolg seiner Arbeit auch mit anderen Zahlen belegen: „Unser Team hat in unserem Social Intranet über 6.000 Follower, darunter auch Mitarbeitende, die diese Inhalte wiederum selbst teilen“, sagt Hackstette. „Deshalb achten wir darauf, hier ‚Shareable Content‘ [für die Weiterverbreitung auf Social Media gut geeignete Inhalte, Anm. d. Red.] zu posten.“

Er betont den Wert zielgruppengerechter Angebote: „Nach dem Start unserer neuen Trainingsplattform haben Mitarbeitende aus verschiedenen Zielgruppen innerhalb von neun Monaten bereits über 1.500 Stunden freiwillige rollenspezifische Online-Trainings absolviert“, berichtet er stolz.

Und natürlich steht die Awareness-Arbeit unter der Schirmherrschaft der Führungsebene, nämlich von Dr. Judith Wunschik, Chief Cybersecurity Officer bei Siemens Energy. Sie lenkt den Blick auf die internationale Dimension der Awareness-Arbeit, denn es gebe kulturelle Unterschiede zu berücksichtigen: „Es gibt beispielsweise Regionen, in denen Smartphones und Notebooks tendenziell häufiger unbeaufsichtigt am Arbeitsplatz liegen gelassen werden – einfach, weil dort kaum jemand Diebstahl befürchtet.“

SECURITY-KULTUR IST EIN MUSS

Der Blick aus der Vogelperspektive verrät: Technische IT-Sicherheitsmaßnahmen allein haben noch nie gereicht, um IT-Umgebungen und sensible Daten zu schützen. Das wusste schon der 2023 verstorbene Kevin Mitnick, als er 1979 bei DEC (für die Jüngeren: DEC war damals eine große Nummer in der Computerbranche) anrief und den Quellcode schlicht per Social Engineering ergaunerte. In Zeiten groß angelegter Phishing-Kampagnen, KI-generierter Deepfakes und professionell organisierter Angreiferbanden sollte umso klarer sein: Ohne wachsame Beschäftigte ist Cybersicherheit unmöglich.

Die Zeiten dröger, gelangweilt durchgeklickter Awareness-Onlinefragebögen ist damit endgültig vorbei. Eine lebendige SecurityKultur muss Teil der Unternehmenskulturlandschaft sein. Wer hier in Vogel-Strauß-Politik verharrt, pflegt eine allzu lebendige Fehlerkultur – und erlebt früher oder später einen Kulturschock.

AUTOR: Dr. Wilhelm Greiner

Technische IT-Sicherheitsmaßnahmen allein haben noch nie gereicht, um IT-Umgebungen und sensible Daten zu schützen. Bildquelle: Adobe /Stock / Autralia1 / KI generiert

DIE ZAHL DER BEDROHUNGEN NIMMT WEITER ZU, DER DRUCK, KRITISCHE ANLAGEN ZU SCHÜTZEN, WIRD NICHT WENIGER UND UNTERNEHMEN SIND MITTLERWEILE MIT EINER FLUT AN IT-SICHERHEITSRELEVANTEN WARNMELDUNGEN KONFRONTIERT, DIE

SELBST ERFAHRENE IT-VERANTWORTLICHE KAUM NOCH VOLLSTÄNDIG IM BLICK BEHALTEN KÖNNEN. IN DEN STROM MISCHEN SICH NICHT ZULETZT ZAHLREICHE FEHLWARNUNGEN, DIE NICHT NUR DRINGEND ERFORDERLICHE ZEIT ZUR PRIORISIE-

RUNG VON KRITISCHEN SCHWACHSTELLEN RAUBEN, SONDERN VOR ALLEM AUCH EINEN WEITEREN, NICHT ZU

UNTERSCHÄTZENDEN EFFEKT HABEN: ALARMMÜDIGKEIT.

Im Schnitt verschlingt jeder Fehlalarm 15 Minuten zur Überprüfung – Zeit, die zu Lasten der Reaktion auf wirklich kritische Vorfälle geht. Zudem besteht die Gefahr, dass gerade der entscheidende Hinweis auf eine solche, ernstzunehmende Verletzung in der Masse irrelevanter Benachrichtigungen untergeht.

Die Herausforderung besteht nicht länger darin, mehr zu erkennen, sondern intelligenter vorzugehen. Und das ist wichtiger denn je, denn auch die Angreifer setzen inzwischen vermehrt auf den Einsatz künstlicher Intelligenz – von der Automatisierung von Phishing-E-Mails mit nahezu perfekter Sprache bis hin zur Bereitstellung polymorpher Malware, die sich im Handumdrehen verändert. Laut IBM überwachen nur neun Prozent der Unternehmen 100 Prozent ihrer Angriffsfläche. Hier bleibt also viel Luft nach oben, gerade in Zeiten, in denen es sowohl für Unternehmen als auch MSP mehr denn je gilt, Ressourcen zu optimieren, Abläufe zu skalieren und kontinuierlichen Schutz aufrechtzuerhalten.

Genau hier schafft Managed Detection and Response (MDR) mit KI-basierter Triage und Expertenüberwachung souverän Abhilfe. Bisher nutzen nur verhältnismäßig wenige Cybersicherheitsexperten KI, um Fehl- alarme zu reduzieren – dabei liegt der operative Mehrwert der Kombination von künstlicher Intelligenz bzw. maschinellem Lernen (KI/ML) mit menschlichem Fachwissen auf der Hand: Dank dieser Synergie werden irrelevante Alarme herausgefil- tert, echte Bedrohungen genauer erkannt und die Alarmmüdigkeit lässt sich drastisch reduzieren. Best Practice ist dabei der KI-Einsatz auf mehreren Ebenen – beispielsweise im Zuge der verhaltensbasierten Erkennung von Anomalien, der Prüfung vielfältiger Verhaltenssignale auf Endgeräten und Microsoft 365 und der automatisierten Reaktion auf Vorfälle.

Die Zukunft gehört MDR und insbesondere Konzepten, die SOC-Prozesse integrieren und Unternehmen und MSP fortschrittliche Erkennungstechnologien, künstliche Intelligenz und 24/7-Überwachung bieten, haben gegenüber rein reaktiven oder präventiven Modellen die Nase vorn.

Diese gewährleisten nicht nur proaktiven, maßgeschneiderten Schutz, sondern sorgen gleichzeitig für deutliche Entlastung im betrieblichen Alltag. Unternehmen erhalten Zugang zu fachkundiger Security-Expertise, ohne dass sie ihre internen Teams erweitern müssen. Für MSP ist es eine Möglichkeit, ihre Dienste zu skalieren, ohne die betriebliche Komplexität zu erhöhen. KI und Expertenüberwachung konkurrieren dabei nicht miteinander, sondern verstärken sich gegenseitig –für moderne Absicherung, die den heutigen Herausforderungen gerecht wird.

AUTOREN:FilipeMartinsundAnnaKobylinska

SICHERHEITSORGANISATION & LEADERSHIP

SECURITY

ALS TEIL DER

UNTERNEHMENSSTRATEGIE

CYBERSICHERHEIT, BISLANG VIELERORTS KAUM MEHR ALS EINE

LEIDIGE PFLICHTÜBUNG, RÜCKT NUN ALS STRATEGISCHE

PRIORITÄT IN DIE VORSTANDSETAGEN AUF. VON EINEM

TECHNISCHEN RANDTHEMA AVANCIERT SIE ZU EINEM ZENTRALEN

ECKPFEILER DER ZUKUNFTSAGENDA UND SCHAFFT DIE GRUNDLAGE FÜR EINE IM WAHRSTEN SINNE DIGITALTRANSFORMIERTE WERTSCHÖPFUNG.

Für deutsche Unternehmen sind Cyberrisiken weiterhin das dominierende Risk-Management-Thema .“ Bildquelle: PwC

Vor dem Hintergrund der anhaltenden Bedrohungslage ist dieser Wandel nicht weiter verwunderlich. 65 Prozent der deutschen Unternehmen sehen sich durch Cyberattacken existenziell bedroht, offenbarte im vergangenen Jahr (2024) eine Bitkom-Umfrage. Nahezu genauso viele — nämlich 63 Prozent der befragten Organisationen in Deutschland — erwarten noch im laufenden Jahr (2025) ein signifikantes Ausfallszenario, enthüllte eine Umfrage von Sapio Research im Auftrag von Zscaler.

Cybersicherheit wird in den Unternehmen zunehmend als strategische Führungsaufgabe verstanden, doch nicht überall bekommt sie die gleiche Gewichtung. Laut Zscaler glauben nur 35 Prozent der europäischen IT-Leiter, dass Cybersicherheit zu den obersten Prioritäten ihrer Unternehmensführung zählt.

Zwei Drittel der Unternehmen in Deutschland sehen sich durch Cyberangriffe in ihrer Existenz bedroht — ein drastischer Anstieg gegenüber 2021.“

Bildquelle: Bitkom Research

In den meisten deutschen Unternehmen liegt die Verantwortung laut Zscaler noch nach wie vor bei den IT-Leitern und ihren Teams. Erst in 42 Prozent der Organisationen ist der/die CISO in die Entwicklung der Resilienz-Strategie eingebunden. Diese Phase der Transformation steht den betroffenen Firmen erst noch bevor.

Eine gewisse kognitive Dissonanz ist dennoch nicht zu übersehen, schlussfolgern die Analysten von Zscaler. Die Ergebnisse weisen zwar auf eine zunehmende Anerkennung des geschäftskritischen Werts von Cyber-Resilienz hin, offenbaren jedoch auch gleichzeitig eine „besorgniserregende Lücke zwischen dem Vertrauen in die eigene Wider-

standsfähigkeit und der tatsächlichen Wirksamkeit“ der Sicherheitsstrategien der Unternehmen — weltweit.

CYBERRESILIENZ ALS GEBOT DER STUNDE

Der Cyber Resilience Act (CRA) der EU institutionalisiert einen Kulturwandel: Statt lückenloser Abwehr stehen Ausfalltoleranz und schnelle Recovery im Fokus.

In Deutschland glauben 44 Prozent der IT-Leiter, dass ihre IT-Infrastruktur hochgradig resilient sei. Satte 94 Prozent halten ihre aktuellen Maßnahmen zur Cyberresilienz für effektiv. 40 Prozent haben ihre Cyberresilienzstrategie in den letzten sechs Monaten jedoch nicht überprüft.

Cyberresilienz ist die Fähigkeit einer Organisation, während eines Cybervorfalls die betriebliche Kontinuität aufrechtzuerhalten und wirksame Maßnahmen zur Eindämmung einzuleiten.

Die Diskrepanz zwischen der optimistischen Selbsteinschätzung und dem tatsächlichen Sicherheitsniveau schlägt sich in der gelebten Realität nieder.

Lediglich eines von zwanzig der befragten deutschen Unternehmen (5 Prozent) war nach dem eigenen Kenntnisstand in den vergangenen drei Jahren von den Folgen von Cybervorfällen nicht betroffen, enthüllt die aktuelle PwC-Studie Global Digital Trust Insights 2025. Neun von zehn deutschen Unternehmen (91 Prozent, um genau zu sein) haben in diesem Zeitraum durch Datenmissbrauch einen Schaden erlitten; acht Prozent haben dabei mehr als zehn Millionen Dollar eingebüßt.

„Viele der [von PwC] befragten Unternehmen planen, GenAI zugunsten ihrer Cyberabwehr einzusetzen“, kommentiert Grant Waterfall, CyberSecurity & Privacy Leader bei PwC Deutschland und EMEA. Bildquelle: PwC Deutschland

„EU-weite Vorschriften wie die NIS2-Richtlinie oder DORA zielen darauf ab, die Koordination und Widerstandsfähigkeit zu verbessern, doch viele Unternehmen scheinen nicht ausreichend auf die wachsenden Anforderungen vorbereitet zu sein,“ kommentierte James Tucker, Head of CISO, EMEA bei Zscaler.

Knapp mehr als jedes fünfte der deutschen Unternehmen (21 Prozent, um genau zu sein) sieht im häufigen Aufkommen bahnbrechender Cybersecurity-Regulierungen eine Herausforderung für die Gewährleistung der eigenen Compliance, fand PwC heraus. Dies führe zu unerwarteten Kosten und Störungen. Dennoch werden diese Vorgaben mehrheitlich als Chance für mehr Resilienz bewertet.

„In den kommenden Jahren müssen Unternehmen ihre Cyberstrategien und -investitionen proaktiv anpassen, um den steigenden Herausforderungen durch neue Technologien und wachsende Regulierung gerecht zu werden,“ warnt Grant Waterfall, CyberSecurity & Privacy Leader bei PwC Deutschland und EMEA.

Doch wie kann die Führungsebene die heikle Problematik der Cybersicherheit mit Ausfalltoleranz in der Unternehmensstrategie verankern? Noch nie zuvor war die Herausforderung der Cyberresilienz so verzwickt.

Die IT-Fachkräftelücke in Deutschland dürfte sich in den nächsten 16 Jahren (zwischen 2024 und 2040) vervielfachen. Bildquelle: Bitkom

BEISPIELLOSE KOMPLEXITÄT

Laut ISC2 fehlen allein in Deutschland über 100.000 Security-Experten, Tendenz steigend. Der eklatante Mangel an qualifizierten Fachkräften zieht sich durch alle Branchen. Er hindert sowohl den Aufbau resilienter Sicherheitsstrukturen als auch die korrekte Einschätzung der Bedrohungslage.

So klafft zwischen der Realität und dem subjektiven Lagebild laut PwC eine Lücke: Während gerade einmal 30 Prozent der deutschen Unternehmen den Prozess der Dokumentation

ihrer technologischen Abhängigkeiten als vollständig abgeschlossen einstufen, geben 63 Prozent offen zu, dass sie den Gesamtüberblick längst verloren hätten. Die verbleibenden 7 Prozent bewegen sich im blinden Fleck – irgendwo zwischen unterlassenem Versuch einer Bestandsaufnahme und einem mehr oder weniger ausgeprägten Bauchgefühl — und es nicht offen zugeben wollen.

Zscaler sieht die Komplexität der Problematik als ein noch größeres Problem als den Fachkräftemangel an sich. 43 Prozent der IT-Leiter beklagen die Komplexität der Materie als einen gravierenden Bremsklotz.

Die PwC-Studie bestätigt dies ausdrücklich, und zwar auch im globalen Maßstab. Der Wille zur Resilienz ist da – doch es fehlt an menschlicher Expertise. Die Teams sind operativ unterfinanziert, unterbesetzt und überfordert.

Konkrete vorbeugende Maßnahmen wie die Dokumentation technologischer Abhängigkeiten, den Aufbau funktionsübergreifender Resilienz-Teams oder das Durchspielen von Krisenszenarien haben deutsche Unternehmen bislang eher lückenhaft umgesetzt – jeweils nur rund ein Drittel hat diese Schritte abgeschlossen. Lediglich Vorkehrungen zur Wiederherstellung aus einem Cybervorfall haben 47 Prozent der deutschen Firmen laut PwC unter Dach und Fach – ein Indiz dafür, dass deutsche Unternehmen die operative Verfügbarkeit im Ernstfall stärker priorisieren als die vorbereitende Planung. Sieben von zehn (72 Prozent) der befragten Organisationen sind aber zumindest bereit, ihre Ausgaben für Cybersicherheit deutlich anzuheben, so PwC. Solange die betroffenen Unternehmen die strukturellen Engpässe — Fachkräftemangel und Komplexität — nicht adressieren können, bleiben wohlwollende regulatorische Vorgaben zur Stärkung der Cyberresilienz ein Papiertiger.

Geschäftliche Erfordernisse an den Datenschutz, technologische Modernisierung und kontinuierliches IT-Sicherheitstraining zählen zu den zentralen Treibern für Cybersecurity-Investitionen in deutschen Unternehmen –stärker als akute Angriffserfahrungen oder regulatorische Vorgaben. Bildquelle: PwC Deutschland

Noch vor einem Jahr war Generative KI ein großer Hoffnungsträger. Heute ist die Ernüchterung greifbar.

Im internationalen Vergleich zeigt sich: Deutschland hat in mehreren Kategorien der Cyberabwehr Nachholbedarf –insbesondere bei Ransomware, Zero-Day-Exploits und Angriffen über Dritte. Bildquelle: PwC Deutschland

Die Investitionsbereitschaft für Cybersicherheit wächst: Unternehmen geben im Schnitt 17 Prozent ihres IT-Budgets für Sicherheitsmaßnahmen aus – Tendenz steigend.

Bildquelle: Bitkom Research

Generative KI verändert IT-Landschaften– und erhöht dabei in vielen Unternehmen die Komplexität der Sicherheitsmaßnahmen.

Bildquelle: PwC Deutschland

Künstliche Intelligenz ist nicht die eierlegende Wollmilchsau, sie entwickelt sich stattdessen zum zentralen Schlachtfeld. Denn während Angreifer generative KI für hyperrealistische Deepfakes und adaptive Malware-Attacken nutzen, besteht in der privaten Wirtschaft überwiegend Nachholbedarf.

Laut PwC geben 67 Prozent der deutschen Sicherheitsverantwortlichen zu, dass generative KI die Angriffsfläche für Cyberattacken in den vergangenen zwölf Monaten vergrößert hat. Ein Jahr zuvor (2024) wollten fast genauso viele Unternehmen (64 Prozent) generative KI zur Cyberabwehr einsetzen. Konkrete Anwendungsfelder wie Threat Intelligence (17 Prozent) oder Endpoint Security (15 Prozent) sind im Jahre 2025 jeweils bei nur einem Bruchteil der Befragten auf der Agenda.

Mehr als die Hälfte (52 Prozent) der deutschen Teilnehmer der Zscaler-Umfrage geben zu, dass die Höhe der Investitionen in Cyberresilienzstrategien dem steigenden Bedarf aktuell nicht gerecht wird (Zscaler). Satte 72 Prozent der deutschen Unternehmen haben gegenüber PwC die Absicht bestätigt, ihr Budget für Cybersicherheit im kommenden Jahr zu erhöhen.

Das neue Paradigma in der Unternehmensführung lautet: Wertschöpfung durch Sicherheit.

WERTSCHÖPFUNG DURCH SICHERHEIT MIT SECURITY BY DESIGN

Die Cybersicherheit, einst ein Schutzschild gegen Angriffe, avanciert bei den Technologieführern zum Wachstumstreiber und strategischen Erfolgsfaktor. Diese Entwicklung verändert die Sicherheitsorganisation grundlegend. Die Rolle des Chief Information Security Officer (CISO) gewinnt an Prominenz und reicht bisweilen bis in die Vorstandsebene – mit direkter Einflussnahme auf die Geschäftsagenda.

Trotz dieses Fortschritts ist der Wandel noch nicht überall vollzogen: Laut PwC sind bislang weniger als die Hälfte der CISOs in Deutschland umfassend in strategische Planungen, Vorstandskommunikation und die Überwachung von Technologieprojekte eingebunden. Die Integration von Sicherheitsverantwortlichen auf Führungsebene ist somit ausbaufähig. Dies stellt aus Sicht der PwC-Analysten ein wesentliches Hindernis für die Steigerung der Cyberresilienz in Unternehmen dar (Global Digital Trust Insights 2025).

Der Druck auf Unternehmen, ihre Sicherheitsstrategien nicht nur technisch, sondern auch organisatorisch und kulturell an die Geschäftsziele anzupassen, steigt.

Unternehmen wie Siemens, Bosch und SAP setzen auf „Security by Design“: Sie integrieren Sicherheitsanforderungen bereits von Anfang an in ihre Produkte und Prozesse, nicht erst als einen abschließenden Gedanken.

Siemens hat als erstes Unternehmen weltweit eine TÜV SÜD-Zertifizierung für einen interdisziplinären Entwicklungsprozess erhalten, der Industrielle Automatisierungs- und Antriebsprodukte nach dem internationalen Standard IEC 62443-4-1 absichert. Dieser Standard umfasst u.a. Qualitätssicherung für Open-Source-Komponenten, Architekturund Designprüfungen, Schwachstellenmanagement sowie Patch- und Change-Management. Alle Siemens-Software- und Firmware-Releases durchlaufen eine Threat & Risk Analysis (TRA), Vulnerability Scans sowie Robustheits- und Penetrationstests, bevor sie auf den Markt kommen.

Siemens verpflichtet auch alle Zulieferer vertraglich zur Einhaltung der eigenen Sicherheitsstandards. Dies betrifft insbesondere kritische Komponenten wie Software, Prozessoren und Elektronik für industrielle Steuerungssysteme.

GEFAHRENZONE IT/OT ABSICHERN: DIE UMSTELLUNG AUF

ZERO-TRUST UND MIKROSEGMENTIERUNG

Die Landschaft der Cybersicherheit befindet sich im Umbruch. Angetrieben wird dieser Wandel von zwei Kräften: dem Aufkommen neuartiger Bedrohungen und der Verfügbarkeit bahnbrechender Technologien. So werden Cyberangriffe immer raffinierter, immer besser organisiert und immer weniger vorhersehbar. Ransomware-as-a-Service, Supply-Chain-Angriffe und KI-basierte PhishingAttacken machen deutlich: Angreifer denken längst in Geschäftsmodellen – und agieren mit industrieller Präzision.

Im Mittelpunkt der Zielscheibe stehen sowohl IT- (Information Technology) als auch OT-Infrastrukturen (Operations Technology): verteilt und drumherum exponiert. Die Transformation spielt sich dabei in einem beispiellosen Tempo ab.

Sicherheitsarchitekturen wie Zero Trust mit KI-gestützten Bedrohungsanalysen und verhaltensbasierter Anomalienerkennung eröffnen neue Wege, um Angriffe frühzeitig zu erkennen und zu neutralisieren. Das Zero-Trust-Modell macht keine impliziten Annahmen, was die Vertrauenswürdigkeit von Zugriffen angeht. Jede Zugriffsanforderung wird dynamisch überprüft.

Maßnahmen wie Mikrosegmentierung, kontextbasierte Nutzeranalyse und kontinuierliche Sitzungsüberwachung gelten als bewährte Standardpraktiken. Mikrosegmentierung dient zur Isolierung von sensiblen Systemkomponenten. Eine adaptive Nutzerkontextanalyse erlaubt das Verifizieren von Zugriffsmustern in Echtzeit. Eine fortlaufende Sitzungsüberwachung soll frühzeitige Erkennung von Verhaltensanomalien ermöglichen. Eine proaktive Sicherheitsarchitektur stützt sich auf all diese Maßnahmen.

Doch je vernetzter die IT wird, desto größer fällt auch die potenzielle Angriffsfläche aus. Der Wettlauf ist offen.

FIRMENPOLITIK DER CYBERSICHERHEIT

Immer mehr Unternehmen erkennen, dass Cybersicherheit weit mehr ist als eine reine Schutzmaßnahme – sie entwickelt sich zum strategischen Erfolgsfaktor, der nachhaltigen geschäftlichen Mehrwert schafft. Diese Neuausrichtung der Sicherheitspolitik geht mit tiefgreifenden strukturellen Veränderungen in der Sicherheitsorganisation einher. Eine robuste Sicherheitsarchitektur ist dabei Katalysator für Effizienz und Widerstandsfähigkeit: Sie beschleunigt sichere Innovationen, erschließt neue Geschäftsfelder und reduziert das Risiko von Vorfällen und Compliance-Verstößen. Die operative Sicherheitsarbeit, von der Risikoanalyse über das Zugriffsmanagement bis zur Incident Response, bleibt zentraler Bestandteil der Cyberagenda, wird aber zunehmend als integraler Baustein der Unternehmensstrategie verstanden.

Den Brückenschlag zwischen operativer Praxis und strategischer Ausrichtung übernimmt ein Information Security Management System (ISMS). Die internationale Norm ISO/IEC 27001 definiert hierfür die Anforderungen und stellt mit ihrem Anhang A einen umfassenden Maßnahmenkatalog bereit. Dieser umfasst unter anderem Richtlinien zur Informationssicherheit, physische und personelle Schutzmaßnahmen, Kommunikationssicherheit, Zugriffskontrollen sowie Kryptografie. So schafft das ISMS eine stabile Verbindung zwischen Richtlinien, Alltagsprozessen und Geschäftslogik – und bildet das Fundament für eine ganzheitliche Sicherheitsarchitektur.

Im Zuge dieser Entwicklung rückt die Rolle des Chief Information Security Officer (CISO) immer stärker in den Vordergrund. Mit direktem Zugang zur Vorstandsebene sorgt er dafür, dass Sicherheitsziele systematisch in die Unternehmensstrategie eingebettet werden. Immer häufiger erfolgt dies über OKRs (Objectives and Key Results), die mit klassischen Leistungskennzahlen wie Umsatz, Time-to-Market oder Kundenbindung verknüpft werden.

Dadurch wird Sicherheit nicht mehr isoliert betrachtet. Sie entwickelt sich vielmehr zum integralen Bestandteil der Unternehmensstrategie

– insbesondere in technologieorientierten Branchen. Hier wird Cyberresilienz zunehmend als entscheidender Faktor für nachhaltige Wettbewerbsfähigkeit betrachtet.

Selbst klassische Business-Strategen sprechen heute von Cyberresilienz als einem zentralen Treiber von Wettbewerbsfähigkeit und Innovationsfähigkeit. Trotzdem sind laut der PwC-Studie „Global Digital Trust Insights 2024“ erst rund 50 Prozent der CISOs in Deutschland umfassend in strategische Planungsprozesse, die Vorstandsberichterstattung oder die Überwachung von Technologieimplementierungen eingebunden.

„Steigende regulatorische Anforderungen, neue technologische Entwicklungen und zunehmende geopolitische Unsicherheiten verlangen von Unternehmen eine strategische Neuausrichtung,“ bestätigen die Analysten von PwC.

FAZIT

Digitale Vorreiter haben die Cybersicherheit bereits auf Vorstandsebene erhoben. Dort ist sie zur strategischen Führungsaufgabe avanciert und gilt als ein integraler Faktor der Wertschöpfung. Immer mehr Unternehmen etablieren CISO-Rollen mit direktem Draht zur Geschäftsführung und verankern Sicherheitsziele in ihren strategischen Roadmaps. Der Sicherheitsbegriff selbst hat sich gewandelt: Weg vom reaktiven Schutzschild, hin zum proaktiven Gestaltungsinstrument.

Bei dem Erfolg der Cyberagenda geht es erstmals nicht mehr „nur“ um Abwehr, sondern um handfesten Geschäftswert. Unternehmen müssen hierzu in ihrer Sicherheitsarchitektur Effizienz und Widerstandsfähigkeit unter einen Hut bringen. Eine solche Sicherheitsarchitektur schafft eine sichere Plattform für Innovationen, indem sie das Risiko von Zwischenfällen und Compliance-Verstößen im Sinne der Geschäftskontinuität. Die operative Umsetzung – von der Risikoanalyse über das Zugriffsmanagement bis hin zur Reaktion auf Sicherheitspannen – wird immer stärker als integraler Bestandteil der Gesamtstrategie verstanden.

So entwickelt sich die Cybersicherheit von einem Nebenschauplatz zum wirkungsvollen Hebel für übergeordnete Geschäftsziele — na endlich.

AUTOREN: Filipe Martins und Anna Kobylinska

„Obwohl bereits viel zu KI geforscht wird, sind die Möglichkeiten und Risiken einer offensiven Anwendung fast völlig unbekannt!“
Prof. Dr. Konrad Rieck

TU Berlin

AUTOR: KEVIN SCHWARZ

VIELE EUROPÄISCHE ORGANISATIONEN HABEN IHRE CYBERSICHERHEIT BEREITS AN DEN ZERO-TRUST-PRINZIPIEN AUSGERICHTET. FÜR USER, ANWENDUNGEN UND WORKLOADS KOMMT DEMENTSPRECHEND BEIM

ZUGRIFF DAS PRINZIP DER GERINGSTEN

PRIVILEGIEN ZUM EINSATZ. OBWOHL DIESE MASSNAHMEN WICHTIG SIND, UM SICH DER AKTUELLEN BEDROHUNGSLAGE ANZUPASSEN, BESTEHEN NACH WIE VOR SCHUTZLÜCKEN, WENN ZERO TRUST NICHT FÜR ALLE DATENSTRÖME ANGEWENDET WIRD. ES GILT DARÜBER HINAUS, BEREICHE DES NETZWERKS WIE REMOTE-STANDORTE, BETRIEBSTECHNOLOGIEN (OT) UND INTERNET OF THINGS-GERÄTE ODER MOBILE DINGE SOWIE VERBINDUNGEN IN DER LIEFERKETTE ZU BERÜCKSICHTIGEN.

Zero Trust basiert auf der Grundidee, dass keinem Gerät, User oder keiner Anwendung von Natur aus vertraut wird – unabhängig davon, ob sie sich innerhalb oder außerhalb des Unternehmensnetzes befinden. Stattdessen erfordert dieses Sicherheitsmodell, dass jede Interaktion authentifiziert, autorisiert und kontinuierlich überwacht wird. Mit seiner Sicherheitsplattform erweitert Zscaler nun Zero Trust Everywhere und dehnt damit die Prinzipien des Zero Trust-Ansatzes auf neue Bereiche der digitalen Infrastruktur aus.

In der Realität entwickeln sich Cyberbedrohungen schneller als die Modernisierung von Sicherheitsinfrastrukturen. Angreifer nutzen veraltete Systeme wie Firewalls oder VPNs mit Sicherheitslücken, um Zugriff auf sensible Systeme zu erhalten. Einmal ins Netzwerk gelangt, bewegen sich Malware-Akteure lateral durch Systeme, um Informationen auszuspähen, Störungen zu verursachen oder Daten zu exfiltrieren. Um diese Lücken zu schließen und moderne Bedrohungen umfassend in der Abwehr abzudecken, müssen Organisationen den Übergang zu Zero Trust Everywhere schaffen und damit ein implizites Vertrauen eliminieren. Es gilt Zero Trust-Prinzipien auf jede Ebene der IT-Infrastruktur anzuwenden.

LÜCKENLOSE SICHERHEIT DURCH ZERO TRUST EVERYWHERE

Zero Trust gilt als Goldstandard der modernen Cybersicherheit. Viele Organisationen haben dieses Prinzip zur Sicherung von Cloud-Workloads und Benutzerzugriffen bereits übernommen. Dennoch bestehen in einigen Teilen des Netzwerks weiterhin veraltete Technologien wie Firewalls und VPNs, die die Wirksamkeit des Zero TrustAnsatzes beeinträchtigen. Branchen wie die Automobilfertigung, Pharmaindustrie, Finanzdienstleistungen und Logistik sind zunehmend technologischen Risiken ausgesetzt, die unter anderem von stark vernetzten Lieferketten ausgehen. Zunehmend staatlich initiierte Cyberangriffe und Störungen im globalen Handel verstärken die Wahrscheinlichkeit

https://www.zscaler.com/de

von Angriffen auf kritische Infrastrukturen, darunter Energieversorgungsnetze, Transportnetzwerke und Lieferketten.

Zero Trust Everywhere geht damit einher, Zero Trust-Prinzipien über User, Geräte, Workloads und Anwendungen hinaus auf weitere Risikobereiche auszudehnen. Die Zero Trust Exchange-Plattform von Zscaler ermöglicht es Organisationen, diese Prinzipien auf das gesamte digitale Ökosystem zu erweitern und gleichzeitig den Betrieb zu vereinfachen und Kosten zu senken.

Zero Trust Everywhere lässt sich anwenden auf die folgenden Bereiche:

● Segmentierung von Filialen, Fabriken und Lagerhallen: Remote-Standorte, Produktionsstätten und Logistikzentren können damit als isolierte Einheiten betrachtet werden, anstatt sich auf implizites Vertrauen innerhalb der Netzwerkgrenzen zu verlassen.

● Isolation von IoT- und OT-Geräten: Mit dem exponentiellen Wachstum von IoT- und OT-Geräten nutzen Angreifer diese potenziellen Einfallstore zur Umgehung herkömmlicher Verteidigungsmaßnahmen. Jedes IoT- oder OT-Gerät muss segmentiert und mit Sicherheitsrichtlinien versehen werden.

● Eliminierung des Netzwerkzugriffs durch Drittparteien: Geschäftspartnerschaften und Supply Chains bleiben eine hochriskante Flanke für Angriffe. Die Weiterleitung der Lieferantenkommunikation über die Zero Trust Exchange eliminiert implizites Vertrauen und sichert Lieferketten-Ökosysteme durch granulare Zugriffsrechte auf Ebene der benötigten Anwendung.

● Zero Trust für 5G und mobile Netzwerke: Mit Zscaler Cellular wird die Vision von Zero Trust Everywhere auf den Bereich der Mobilkommunikation erweitert. Diese Ausdehnung des Zero Trust-Ansatzes greift für mobile Netzwerke und alle Arten mobiler Dinge, die über eine SIM-Karte oder eSIMs angebunden werden können. Auf diese Weise kommen auch mobil kommunizierende Dinge – von Handheld-Devices in der Logistik bis hin zu autonomen Fahrzeugen – unter den Schutzschirm der Zero Trust Exchange-Plattform.

Durch die Umsetzung dieser Maßnahmen stärken Organisationen ihre Cybersicherheit und reduzieren ihre Angriffsfläche. Sie verbessern nicht nur die Resilienz einer Organisation, sondern bieten auch betriebliche Vorteile wie vereinfachte Architekturen, leichteres Management und

geringere Wartungskosten. Abgesehen von der Vermeidung von Strafen und rechtlichen Konsequenzen bietet Compliance die Möglichkeit, das Vertrauen von Kunden, Partnern und Stakeholdern zu stärken. Da Lieferketten-Ökosysteme eine zentrale Rolle spielen, stärkt die Einhaltung von Compliance-Anforderungen den Ruf und gewährleistet die fortlaufende Zusammenarbeit über Grenzen hinweg.

Zusätzlich verändert Künstliche Intelligenz (KI) die Art und Weise, wie Unternehmen arbeiten und bringt gleichzeitig neue Sicherheitsherausforderungen mit sich. KI-Anwendungen und KI-Agenten, die große Datenmengen verarbeiten oder damit trainiert werden, erfordern eine präzise Kontrolle über Datenverwendung und Datenintegrität und deshalb auch granulare Zugriffskontrollen. Dementsprechend sollte die Zero Trust-Segmentierung auch hier Anwendung finden, wo es auf den Kern der Datensicherheit ankommt und Einblick geben, wer auf was Zugriff hat.

ZERO TRUST EVERYWHERE IST MEHR ALS EINE VISION

Zero Trust ist nicht nur ein Sicherheitsmodell, sondern eine umfassende Vision, die alle Aspekte der digitalen Infrastruktur eines Unternehmens sichern und nahtlos miteinander verknüpfen soll. Das Ziel ist es, Unternehmen in die Lage zu versetzen, ihre Infrastruktur widerstandsfähiger, agiler und sicherer zu gestalten. Dabei schafft Zscaler die Voraussetzungen für eine sichere und effiziente Durchführung von geschäftlichen Prozessen – unabhängig von Ort, Gerät oder Netzwerk. Mit Zero Trust Everywhere und Zscaler Cellular wird sichergestellt, dass alle Zugriffe und Interaktionen in der digitalen Infrastruktur inklusive mobiler Datenströme konsistent und umfassend geschützt werden, ohne Einschränkungen durch geografische Standorte oder traditionelle Netzwerksicherheitsmodelle.

Mit Lösungen, die auf User, Clouds, IoT-/OT-Geräte und mobile Netzwerke abzielen, sowie Erweiterungen für KI-Anwendungen und SecOps ist die Zero Trust Exchange-Plattform universell aufgestellt, um Unternehmen ganzheitlichen Schutz zu bieten. Organisationen sind damit in der Lage, sicher, flexibel und innovativ zu agieren – unabhängig davon, wie sich die digitale Bedrohungslandschaft weiterentwickelt.

MEHR DAZU AUF DER ITSA IN HALLE 6 STAND 422.

„Digitale Souveränität heißt nicht Autarkie, sondern Wahlfreiheit und Kontrolle!“

Horst Robertz

Nutanix Deutschlan

AUTOREN: FILIPE MARTINS UND ANNA KOBYLINSKA

EIN BLICK IN DIE FERNE ZUKUNFT

WAS

SECURITY-FORSCHER HEUTE FÜR ÜBERMORGEN

ENTWICKELN

WÄHREND UNTERNEHMEN

HEUTE NOCH MIT DEM

FLICKENTEPPICH AUS

LEGACY-SYSTEMEN UND DER

CLOUDIFIZIERUNG IHRER

BETRIEBSPROZESSE RINGEN,

TÜFTELN CYBERSECURITY-FORSCHER BEREITS AN DEN

SCHUTZMECHANISMEN VON ÜBERMORGEN.

DEUTSCHLAND IST GANZ VORNE

MIT DABEI UND WIR

VERSUCHEN EINEN BLICK IN DIE WELT VON ÜBERMORGEN.

Prof. Dr. Mario Fritz hielt den Einführungsvortrag „Bedrohungsszenario KI – was steckt wirklich dahinter?“ auf der Nationalen Konferenz IT-Sicherheitsforschung, die im März 2025 im Berlin Congress Center stattfand. Bildquelle: BMFTR, Laurin Schmid/bundesfoto

Der Wettlauf um die besten Ideen ist offen — selbst wenn der Zielpunkt in der weiten Ferne liegt. Zwei bis drei Jahrzehnte in die Zukunft geblickt, zeichnet sich ein radikal neues Bild der Cybersicherheit ab.

Es ist das Jahr 2045 (oder ist das schon 2055?), das Zeitalter großskalig adaptiver Angriffe. Klassische Schutzmechanismen wie Firewalls, Virenscanner oder manuell gepflegte Zugangskontrollen wirken im Rückblick wie archaische Werkzeuge aus der Cyber-Steinzeit. Das Aufkommen hyperadaptiver Malware hat eine Transformation ausgelöst.

Vordenker der Cybersicherheit, darunter Prof. Dr. Mario Fritz, leitender Wissenschaftler am CISPA Helmholtz-Zentrum für Informationssicherheit in Saarbrücken und Fellow des ELLIS (European Laboratory for Learning and Intelligent Systems), hatten schon lange für mehr Forschung zu systemischer Sicherheit und zur Angriffstoleranz komplexer KI-Systeme plädiert. Diese gewaltige Aufgabe musste auf viele Schultern verteilt werden.

„Obwohl bereits viel zu KI geforscht wird, sind die Möglichkeiten und Risiken einer offensiven Anwendung fast völlig unbekannt,“ kommentierte Prof. Dr. Konrad Rieck, TU Berlin, zum Anlass der Verleihung des begehrten ERC Consolidator Grant des Europäischen Forschungsrats für das Projekt MALFOY (Machine Learning for Offensive Computer Security).

MALFOY, ein Projekt unter der Leitung von Prof. Rieck, Fachgebietsleitung ML und IT-Sicherheit am Berlin Institute for the Foundations of Learning and Data (BIFOLD) der Technischen Universität Berlin und Berlin Institute for the Foundations of Learning and Data, hat sich offensiver Sicherheit unter Einbezug von Methoden des maschinellen Lernens zur Stärkung der Cybersicherheit verschrieben.

Im Projekt „Chancen und Risiken generativer KI“ setzen sich die Forschenden mit bestehenden und zukünftigen Bedrohungen durch generative Modelle wie große Sprachmodelle und Foundation Models in Zusammenarbeit mit dem Unternehmen Aleph Alpha auseinander. Initiiert wurde das Vorhaben vom Bundesministerium für Bildung und Forschung, unterstützt von Fraunhofer AISEC sowie dem CISPA Helmholtz Center for Information Security und geleitet von Prof. Dr.-Ing. habil. Gerhard Wunder.

„Obwohl bereits viel zu KI geforscht wird, sind die Möglichkeiten und Risiken einer offensiven Anwendung fast völlig unbekannt,“ sagt

Prof. Dr. Konrad Rieck. Bildquelle: BMFTR, Laurin Schmid/bundesfoto

Ein Meilenstein nach dem anderen über viele Forschungsprojekte hinweg: Im Jahr 2045 ist Cybersicherheit nicht mehr ein mühsam zusammengestricktes Provisorium von überfälligen Zero-Day-Fixes für neue Exploits, sie ist tief in der DNA jeder digitalen Infrastruktur verankert. Gehört der Mensch noch mit dazu?

Cybersicherheit funktioniert nicht mehr primär über menschliche Eingriffe. Stattdessen agieren autonome, KI-gesteuerte Verteidigungssysteme, Stichwort: KI-Agentik. Diese digitalen Schutzagenten sind lernfähig, vernetzt und operieren in globalen Koalitionen, die miteinander Informationen austauschen und Schwachstellen kollektiv schließen.

Das Geschehen koordiniert eine künstliche Superintelligenz (eine Super-KI, allgemeine KI): wachsam, antizipativ und nahezu unfehlbar. Sie wacht über die Integrität quantensicherer Netzwerke. Quantenkommunikation hat das Sicherheitsniveau von mathematischer Schwierigkeit hin zu physikalischer Unmöglichkeit.

Diese Form der orchestrierten Cyberabwehr markiert einen Paradigmenwechsel, der sich nahezu unbemerkt ereignete: Weg von statischen Regeln und reaktiven Mechanismen, hin zu einem dynamischen, selbstorganisierten Sicherheitssystem — womöglich über Schnittstellen zwischen Mensch und Maschine.

Vertrauen will stets aufs Neue verdient werden; Privilegien werden längst nicht mehr zugewiesen; sie werden berechnet — auf der Basis von Verhalten, Kontext und Reputation.

Wer sich in dieser vernetzten Welt behaupten will, muss sich darin integrieren. Jede Entscheidung hat Konsequenzen.

Datengetriebene Methoden zur Erkennung und Abwehr von Cyberangriffen greifen zurück auf Jahrzehnte Forschung wie jene von Prof. Dr. Haya Shulman vom Fraunhofer-Institut für Sichere Informationstechnologie SIT in Darmstadt, LOEWE-Spitzen-Professorin am Institut für Informatik der Goethe-Universität Frankfurt. Ihre Arbeit hat maßgeblich zur Analyse und Absicherung von Internet-Infrastrukturen beige -

Prof. Dr.-Ing. habil. Gerhard Wunder, Leiter Arbeitsgruppe Cybersicherheit und KI (C-KI) an der Freien Universität Berlin.“ Bildquelle: BMFTR, Laurin Schmid/bundesfoto

Prof. Dr. Haya Shulman leitet die Abteilung Cybersecurity Analytics and Defenses am Fraunhofer-Institut SIT in Darmstadt und koordiniert den Forschungsbereich Analytics Based Cybersecurity am Nationalen Forschungszentrum für angewandte Cybersicherheit ATHENE. Bildquelle: Hessisches Ministerium für Wissenschaft und Kunst

tragen, Stichwort: Analytics Based Cybersecurity. In einer Welt, in der quantenbasierte Sensorik via IoT (Internet of Things), IIoT (Industrial Internet of Things) und IoB (Internet of Bodies) die digitale Sphäre des Metaversums tief in die physische Realität hinein ausdehnen, kommen neue Fragen über Macht, Kontrolle und Verantwortung auf.

Neuro-Interfaces, implantierbare Devices und Gehirn-ComputerSchnittstellen haben neue Angriffsflächen eröffnet, etwa durch gezieltes neuronales Phishing oder die Manipulation kognitiver Prozesse. Die Grenze zwischen digitalem und biologischem Sicherheitsrisiko verschwimmt.

Mit Exascale-Rechnern wie dem Jülich „Jupiter“ und der Initiative zur Stärkung der KI-Infrastruktur, dem Zuse-Institut Berlin (Teil des HLRN), Fraunhofer-An-Instituten und Exzellenzclustern (z. B. CITEC in Bielefeld) hat Deutschland ein solides AGI - Ökosystem hervorgebracht, getragen von führenden Universitäten, renommierten Forschungszentren und ambitionierten Start- ups. Gemeinsam hat man es so weit vorangebracht.

Zwischen Grundlagenforschung, angewandter KI und ethischer Verankerung entstand ein Sicherheitsgewebe, das die Wirtschaft und Gesellschaft gleichermaßen umspannt.

Der Weg bis hierher war lang und mit zahlreichen Stolpersteinen gespickt. Dennoch blieben zahlreiche Probleme ungelöst.

Besichtigung des JUPITER-Supercomputers (v.l.n.r.): Henna Virkkunen (Exekutiv-Vizepräsidentin der Europäischen Kommission), Prof. Thomas Lippert (JSC), Prof. Kristel Michielsen (JSC), Benedikt von St. Vieth (JSC). Bildquelle: Forschungszentrum Jülich

Absolute Sicherheit gibt es auch im Jahre 2045 nicht, aber der Schwerpunkt von Sicherheitsmaßnahmen hat sich hin zur Cyber-Resilienz verlagert. Systeme müssen nicht nur Angriffe erkennen und abwehren, sondern auch schnell wieder in einen stabilen Zustand zurückkehren können. Ausfalltoleranz, Selbstheilung und Adaption sind Standard.

Im Jahre 2045 wird Cybersicherheit nicht nur als technische Herausforderung einer hypervernetzten Welt verstanden, sondern als eine gesamtgesellschaftliche Aufgabe. Ethik, Bildung und Rechtsprechung werden eng mit ihr verflochten sein. Dieses Gewebe durchzieht sämtliche Schichten der digitalen Gesellschaft. So entsteht eine Art „digitaler Vertrauensökonomie“.

Ein Rückblick auf das Jahr 2025 offenbart, wie das globale Wettrennen begonnen hatte.

KÜNSTLICHE SUPERINTELLIGENZ

Tech-Giganten wie Microsoft/OpenAI, Meta, Reflection AI, Anthropic und andere investieren im Jahr 2025 intensiv in Forschung und Entwicklung rund um die Erschaffung der allgemeinen künstlichen Intelligenz. Metas Superintelligence Lab rekrutierte Top-Forscher aus der ganzen Welt, darunter auch den Mitgründer von Scale AI, Alexandr Wang (und holte sich 49 Prozent der Anteile an dem kalifornischen Startup).

Das Stuttgarter KI-Start up Aleph Alpha von Jonas Andrulis zielt explizit auf AGI-Prinzipien, mit einer menschenähnlichen Modellarchitektur für Sprache und Vision. Bereits heute zählt es laut Medien zu den europäischen Vorreitern im globalen Wettlauf zur Superintelligenz.

Die Ära der ASI (kurz für „Artificial Super-Intelligence“) könnte die Cybersicherheit in ein Wettrüsten zwischen autonomen Angriffs- und Abwehrsystemen verwandeln. Sicherheitsforscher fordern neben ethischen Leitplanken für ASI-Entwicklung resiliente, dezentrale Sicherheitsarchitekturen und grenzübergreifende Kooperationen. Fraunhofer-Gesellschaft und Max-Planck-Institute arbeiten an ASISicherheitsframeworks, die Security-by-Design-Prinzipien mit ethischer Regulierung verbinden sollen.

PHYSIK ÜBER MATHE: QUANTEN-COMPUTING, -SENSORIK UND -KOMMUNIKATION

Quantenmechanische Phänomena haben das Potenzial, die Cybersicherheit disruptiv zu verändern.

Das Aufkommen funktionierender kryptografisch relevanter Quantencomputer (CRQC) wird im Jahre 2030 erwartet; Angreifer können jedoch bereits heute Daten abfangen, archivieren und abwarten, bis sie

über die nötige Rechenleistung verfügen, um das digitale Raubgut zu entschlüsseln (Stichwort: Harvest Now Decrypt Later) .

Der bevorstehende „Quantensprung in Rechenleistung“ wird unweigerlich asymmetrische Kryptografieverfahren aushebeln. RSA, das bereits kompromittierte DSA und elliptische Kurvenkryptografie (ECC), das Rückgrat moderner Kryptographie, sind alle durch den Shor-Algorithmus gefährdet, weil sie alle auf dem Problem der Faktorisierung beruhen.

Eine neue Klasse von quantenresistenten kryptografischen Verfahren, die sogenannte Post-Quanten-Kryptographie (PQC), verspricht Abhilfe. Diese Algorithmen stützen sich auf neue mathematische Grundlagen, die sowohl klassischen Supercomputern als auch Quantenangriffen widerstehen, und sich dennoch klassisch — und damit sofort — implementieren lassen (z.B. gitterbasierte Kryptografie wie CRYSTALS-Kyber für Verschlüsselung und CRYSTALS-Dilithium für Signaturen).

In Zukunft wird sich PQC auf hardwarebasierte Vertrauensanker stützen, die tief in Chips, Netzwerke und Identitäten eingebettet sind. In Deutschland untersuchen diese Problematik zahlreiche Forschungsprojekte mit der Beteiligung von akademischen Einrichtungen, Institutionen wie dem Fraunhofer-Institut für Sichere Informationstechnologie (SIT), dem FZI Forschungszentrum Informatik, sowie privatwirtschaftlichen Akteuren, unterstützt vom Bundesministerium für Forschung, Technologie und Raumfahrt, das dabei eine führende Rolle übernimmt.

Im Projekt ALPAKA (kurz und knackig für „Agile Lösungen für Produktionsautomaten mittels Kommunikationsabsicherung“) entstehen hardwarebasierte Netzwerkkarten als Vertrauensanker zur Gewährleistung von Manipulationssicherheit und Integritätsschutz in der Kommunikation von (I)IoT-Systemen. Das Trustpoint-Projekt arbeitet an einer Open-Source-Lösung für digitale Maschinenidentitäten. Im TRUSTnetProjekt entsteht eine Plattform für Industrie 4.0 auf Basis von Trusted Platform Module (TPM)-Komponenten.

Eine der zentralen Herausforderungen der Cybersicherheit besteht in der Wahrung der Vertraulichkeit digitaler Kommunikation. Im Zentrum dieser Aufgabe steht der sichere Schlüsselaustausch. Die Entwicklung quantensicherer Verfahren sowie die Erprobung von Quantenkommunikation für den sicheren Schlüsselaustausch bilden Grundlagen für

Interoperabilität von EuroQCI: Schematische Darstellung einer hochentwickelten Netzwerkarchitektur, bestehend aus sechs QKD-Verbindungen unabhängiger QKD-Hersteller in drei Länderdomänen (Spanien, Deutschland und Österreich).

Bildquelle: LuxQuanta Technologies

eine resiliente Vertrauensinfrastruktur der nächsten Generation und markieren den Übergang zu einem neuen Vertrauensmodell. Die Quantenschlüsselverteilung (engl. Quantum Key Distribution, QKD) macht sich fundamentale Prinzipien der Quantenmechanik zu Nutze — insbesondere Quantenverschränkung und die Heisenbergsche Unschärferelation —, um die Vertraulichkeit kryptografischer Schlüssel physikalisch zu wahren.

Anders als klassische Schlüsselaustauschverfahren, die auf mathematisch schwer lösbaren Problemen basieren, macht QKD jegliche Manipulationen durch Dritte für die legitimen Kommunikationsteilnehmer eindeutig erkennbar. Jeder Versuch, den Quantenzustand zu messen, verändert ihn irreversibel. So wird ein kompromittierter Schlüssel verworfen statt verwendet. Dies stellt einen Durchbruch gegenüber klassischen Schlüsselaustauschverfahren dar, welche die Vertrauenswürdigkeit des Schlüssels nicht nachweisen können.

Kritische Infrastrukturen könnten bald über quantengeschützte Kanäle kommunizieren, etwa im Rahmen des europäischen Quantenkommunikationsnetzwerks EuroQCI.

Forschungseinrichtungen wie das DLR, das Max-PlanckInstitut für Quantenoptik oder die TU München arbeiten an quantenoptischen Bodenstationen, um künftig mit LowEarth-Orbit-Satelliten quantensichere Schlüssel global zu verteilen, unabhängig von Netzwerken am Boden.

Der bisherige Engpass der Quantenkommunikation besteht in der geringen Reichweite in Glasfasern: Bei rund 100–150 km ist definitiv Schluss. Quantenrepeater – aktuell noch im Laborstadium – die Information weiterreichen, ohne den Quantenzustand zu messen. Daran forscht u. a. das QuNET-Projekt (BMBF-finanziert) in Deutschland.

Dieser QKD-Empfänger aus dem NOVA LQ-System des spanischen Anbieters LuxQuanta Technologies, Gewinner von Supernova Pitch Competition auf der GITEX 2025 in Berlin, ermöglicht eine sichere Quantenschlüsselverteilung über Distanzen von bis zu 100 km.Bildquelle: LuxQuanta Technologies Bildquelle: LuxQuanta Technologies

Eröffnung der Glasfaser-Teststrecke am KIT für sichere Quantenkommunikation: (v.l.n.r.) Prof. Sebastian Randel (KIT), Prof. Marc Weber (Bereichsleitung B V, KIT), Prof. Oliver Kraft (Vizepräsident Forschung, KIT), Prof. Mario Ruben (KIT), Prof. David Hunger (KIT) (Foto: Daryoush Djavadi).

Bildquelle: KIT

In Berlin wurde im Rahmen der QuNET-Initiative ein rund 125 Kilometer langes Glasfaser-Quantennetzwerk aufgebaut. Es ermöglicht quantensichere Kommunikation zwischen mehreren Partnern wie der Bundesdruckerei, Fraunhofer HHI und der Deutschen Telekom. In Aachen wurde Anfang 2025 der erste Knotenpunkt für ein regionales Quantennetzwerk installiert, das künftig Aachen, Jülich und Bonn verbinden soll. In Karlsruhe betreibt das KIT eine Glasfaser-Teststrecke zum Zweck der Forschung an Quantenschlüsselverteilung (QKD) und quantensicherer Kommunikation.

Alan Dibos, PhD, Wissenschaftler am Argonne National Laboratory (UChicago Argonne-Universität) führt erste Messungen am Glasfaser-Testfeld durch, in dem der Grundstein für das Quanteninternet gelegt wird.

Bildquelle: Argonne National Laboratory

Eine erhebliche Herausforderung stellt die Integration quantensicherer Übertragung mit klassischer IT und Netzwerktechnik. Hier entstehen hybride Modelle wie Post-Quantum-Kryptografie mit QKD. Dieser Ansatz wird bereits in Testnetzen u.a. in Bonn, Ulm und Berlin erprobt. Quantenmechanik verschiebt die Sicherheitsgarantie von „vermutlich schwer zu knacken“ (klassische Kryptografie) hin zu „physikalisch unmöglich zu belauschen“, basierend auf den Gesetzen der Quantenmechanik. Die Umstellung der Abhörsicherheit auf Gesetze der Physik statt der Mathematik hat weitreichende Folgen für Datenvertraulichkeit, staatliche Sicherheit, Schutz vor Industriespionage und digitale Souveränität.

Bahnbrechende Fortschritte dürften sich nicht zuletzt auch im aufstrebenden Forschungsfeld der Quantensensorik ereignen. Die außergewöhnliche Empfindlichkeit von Quantenzuständen und die fundamentalen Prinzipien der Quantenmechanik, insbesondere Superposition, Verschränkung und Quantendekohärenz, erlauben die Erfassung physikalischer Messwerte mit bisher unerreichter Präzision.

Frühwarnsysteme mit Quantensensoren könnten in Zukunft physische Sicherheitsverletzungen melden. Quantenradare auf Basis von verschränkten Photonen sollen in Zukunft in der Lage sein, getarnte, nicht-funkende Drohnen zu erkennen, Lauschgeräte in gesicherten Bereichen aufspüren und elektromagnetische Tarntechnologien durchdringen.

Quantensensorik soll künftig Manipulationsversuche an kritischen Geräten in Rechenzentren oder Kontrollsystemen melden und damit Missbrauch verhindern. Mit Quantensensorik lassen sich bereits heute minimale Abweichungen in der Struktur oder dem Verhalten von Halbleitern, Chips und Leiterplatten aufdecken und dadurch etwa manipulierte Komponenten in Lieferketten enttarnen.

Eine weitere Anwendung ist die hochpräzise Anomalienerkennung im Netzwerkumfeld. Forscher versuchen, quantenoptische Sensorarrays mit Netzwerkgeräten zu koppeln, um etwa elektromagnetische Störfelder (EMI) zu erkennen, um drahtlose Lauschversuche (z. B. durch IMSICatcher oder aktive MITM-Angriffe) aufzuspüren oder physische Einwirkungen auf Glasfaserverbindungen zu identifizieren (z. B. durch Biege- oder Abzapfversuche).

DEEPFAKES ENTTARNEN

Mit der Content Authenticity Initiative (CAI) wagte Adobe Systems einen entscheidenden Schritt im Kampf gegen digitale Fälschungen und Deepfakes. Die Industrieinitiative, gegründet 2019, verfolgt das Ziel, einen offenen Industriestandard für die Herkunft und Authentizität digitaler Inhalte zu etablieren. Medien erhalten bei der Bearbeitung kryptografisch gesicherte Metadaten über alle relevanten Ereignisse über ihre Entstehung und eventuelle KI-Nutzung. Der Ansatz ist jedoch nicht unfehlbar; die Erkennung von Deepfakes ruft neuerdings Quantentechnik auf den Plan.

Forscher der University of Chicago und des Argonne National Laboratory arbeiten an quantenmechanisch erzeugten, fälschungssicheren „Fingerabdrücken“ für digitale Medien. Die Wissenschaftler erzeugen verschränkte Photonenpaare, die über lange Distanzen wie das 124 Meilen umspannende Quantennetzwerk Chicagos übertragen werden. Diese Photonen tragen einzigartige „Fingerabdrücke“ in Form von quantenmechanischen Zuständen. Durch die Analyse von räumlichzeitlichen Mustern in den Quantensignalen entstehen eindeutige Iden -

Phil Venables (Google), Prof Claudia Eckert (TUM, Fraunhofer Institut für Angewandte und Integrierte Sicherheit AISEC), Wieland Holfelder (Google), Prof. Thomas F. Hofmann (TUM). Bildquelle: Marc Müller/Google

tifikationsmerkmale. In dem Quantennetzwerk von Chicago, welches für die Quantenschlüsselverteilung (QKD) Toshiba-Technologie einsetzt, werden die Fingerabdrücke in Quantenprotokolle eingebettet, um Medienherkunft und -integrität zu verifizieren. In ersten Experimenten erreichte Deepfake-Erkennung anhand der Quanten-Fingerabdrücke eine Genauigkeit von über 95 Prozent.

Ein interdisziplinäres Forschungsprojekt namens AIgenCY unter der Federführung des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit (AISEC) setzt sich mit den Chancen und Risiken generativer Künstlicher Intelligenz in der Cybersicherheit auseinander. Mit der Unterstützung des Bundesministeriums für Forschung, Technologie und Raumfahrt vereint es Partner wie die TU Berlin, CISPA, Fraunhofer AISEC, FU Berlin und Aleph Alpha. Zu den Schlüsselpersonen zählen neben Prof. Dr. Konrad Rieck (TU Berlin) und Prof. Dr. Mario Fritz (CISPA Helmholtz-Zentrum für Informationssicherheit) unter anderem Dr. Lea Schönherr (ebenfalls CISPA) und Prof. Dr. Thorsten Holz (auch CISPA).

SICHERHEITS-FORSCHUNGSHUBS

Mit der Förderung von Google entstand in München ein neues interdisziplinäres Forschungsnetzwerk mit dem Schwerpunkt Cybersicherheit. Geleitet wird es von Prof. Claudia Eckert, einer renommierten Expertin für IT-Sicherheit. Prof. Dr. Claudia Eckert leitet des Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC in Garching und hat den Lehrstuhl für Sicherheit in der Informatik der Technischen Universität München inne. Zu ihren Forschungsschwerpunkten zählen die Entwicklung von Technologien zur Erhöhung der System- und Anwendungs-Sicher-

heit, die Sicherheit eingebetteter Systeme und die Erforschung neuer Techniken zur Erhöhung der Resilienz und Robustheit von Systemen gegen Angriffe.

Die Zusammenarbeit zwischen Google und der Technischen Universität München fruchtete seither in einer ganzen Reihe bahnbrechender Forschungsprojekte rund um Datenschutzrisiken bei General-PurposeAI, Post-Quanten-Kryptografie oder Angriffe auf LLMs. Das Vorhaben ist in ihrer Tiefe und institutionellen Verankerung tatsächlich bemerkenswert, aber nicht völlig einmalig in Deutschland.

Mit ATHENE (Darmstadt) entstand aus dem Zusammenschluss von Fraunhofer SIT, Fraunhofer IGD, TU Darmstadt und der Hochschule Darmstadt Europas größtes Forschungszentrum für Cybersicherheit, ein Gegengewicht zum CISPA Helmholtz-Zentrum für Informationssicherheit (Saarbrücken).

Im Rahmen des „ Digital Europe Cybersecurity Work Programme 2025–2027 “ sind EU-weit vernetzte Hubs geplant, die auch in Deutschland angesiedelt werden dürften. Ziel ist der Aufbau eines europäischen Frühwarnsystems für Cyberbedrohungen.

FAZIT

Die Auswirkungen der Cyber-Revolution liegen aus heutiger Perspektive noch in der fernen Zukunft; die Grundlagen werden aber bereits heute geschaffen.

Deutschland verfügt über ein starkes Forschungsökosystem: von Kryptographie über Systemsicherheitsexpertise bis hin zu Netzwerk-, Protokoll- und Verhaltensanalyse. Institutionen wie CISPA und ATHENE treiben technologische wie gesellschaftliche Aspekte der Cyberabwehr mit Blick auf den weiteren Horizont voran.

Welche neuen Dimensionen die resultierenden Technologien eröffnen werden, steht gewissermaßen noch in den Sternen. Man darf aber gespannt bleiben, was die Zukunft bringt!

AUTOREN: Filipe Martins und Anna Kobylinska

Sophos UTM erreicht am 30.06.2026 sein End-of-Life. Höchste Zeit also für eine neue IT-Security-Lösung! Unsere Experten begleiten Sie gerne beim Wechsel zu OPNsense. Die Open Source Firewall bietet umfassende Sicherheits-Features, unkomplizierte Administration –und lizenzkostenfreie Nutzung. Natürlich beraten wir Sie auch bei der Auswahl der optimalen Hardware für maximale Performance!

Jetzt absichern:

thomas-krenn.com/sichern

+49 (0) 8551.9150-300

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.