Digital Business Cloud 03/2025

Page 49


security insight

QUANTENCOMPUTING

Revolution im Rechenzentrum: Warum Unternehmer und Aufsichtsräte jetzt den Grundstein für die neue technologische Entwicklung legen sollten

DATENMANAGEMENT

Nur wer klare Sicht auf die Daten des Unternehmens hat, kann seine BusinessPotenziale rechtzeitig heben.

HUMAN RESOURCES

Die Förderung von Frauen in der IT ist nicht nur ein Gebot der Stunde, sondern strategische Notwendigkeit.

DIGITAL HEALTH

Intelligente Automatisierungslösungen im Gesundheitswesen erfordern eine speziell entwickelte KI.

Abonnieren Sie den WIN-verlagsübergreifenden

KI Newsletter!

Bleiben Sie auf dem Laufenden mit den neuesten Entwicklungen und Trends aus der Welt der Künstlichen Intelligenz. Unser kostenfreier Newsletter vom WIN-Verlag wird monatlich versendet und bietet Ihnen spannende Einblicke, exklusive Inhalte und Expertenmeinungen der verschiedenen Branchen.

Melden Sie sich jetzt an und verpassen Sie keine Ausgabe!

EDI TOR IAL

sondern auch bestehende Prozesse revolutionieren –von der Finanzmodellierung bis zur Entwicklung nachhaltiger Produkte.

Frühzeitiger Kompetenzaufbau erfoderlich

Liebe Leserin, lieber Leser

Nach KI steht jetzt Quantencomputing an der Schwelle, unsere digitale Welt grundlegend zu verändern. Und weil die Technologie immer hörbarer anklopft, war es höchste Zeit, dazu einen Titel zu machen.

Exponentiell schnellere Lösungen

Anders als klassische Computer nutzen Quantencomputer die Prinzipien der Quantenmechanik, um komplexe Probleme exponentiell schneller zu lösen. Während heutige Supercomputer bereits enorme Rechenleistungen erbringen, stoßen sie bei Aufgaben wie Materialforschung, Medikamentenentwicklung oder Optimierung globaler Lieferketten an ihre Grenzen. Quantencomputer hingegen versprechen, diese Herausforderungen nicht nur schneller, sondern auch deutlich energieeffizienter zu bewältigen – ein entscheidender Faktor angesichts des weltweit rasant steigenden Stromverbrauchs durch IT-Infrastrukturen.

Neue Horizonte bei der Nachhaltigkeit

Gerade im Hinblick auf Nachhaltigkeit eröffnen sich neue Horizonte: Quantenalgorithmen können den Energieverbrauch in Produktionsprozessen, Logistik oder beim Design neuer Materialien drastisch senken und so einen Beitrag zur Bewältigung des Klimawandels leisten. Unternehmen, die frühzeitig das Potenzial dieser Technologie erkennen und in Pilotprojekte investieren, sichern sich entscheidende Wettbewerbsvorteile. Denn die Integration von Quantencomputing wird nicht nur neue Geschäftsmodelle ermöglichen,

Für Aufsichtsräte und Unternehmenslenker ist es daher unerlässlich, sich jetzt mit Quantencomputing auseinanderzusetzen, Kompetenzen aufzubauen und strategische Partnerschaften zu suchen. Wer zu lange zögert, riskiert, von der nächsten Innovationswelle überrollt zu werden und wertvolles Know-how an Wettbewerber zu verlieren. Die Weichen für die digitale und nachhaltige Zukunft werden heute gestellt –Quantencomputing ist dabei ein Schlüssel, wie unsere Interviewpartner und Autoren deutlich machen.

Apropos Kompetenzaufbau: Digital Business ist stolzer Partner zweier richtungsweisender Plattformen zum Thema: Die Veranstaltung LaFutura x QuantumBasel bringt am 10. und 11. Juni 20 25 Vordenker, Futuristen und Innovationsexperten zusammen, um das transformative Potenzial von Quantencomputing und KI der nächsten Generation zu erkunden. Und am 7. und 8. Oktober 2025 dreht sich auf der Quantum Effects in der Messe Stuttgart alles rund um Quantentechnologien und -lösungen. Der von unserem Magazin mit verliehene Quantum Effects Award 2025 zeichnet besondere Innovationen aus. Über die erfahren Sie bei uns natürlich aus erster Hand

Ich wünsche viel Erfolg auf Ihrem Weg in die Zukunft.

Ihr

heiner.sieger@win-verlag.de

20 Die Kampfansage Freshworks will den Kundenservice neu gestalten und fordert CRM-Giganten wie Salesforce und ServiceNow heraus.

30 Erfolgreiche Strategien für eine sichere Cloud Professionelle Cloud-Security ist komplex. Unternehmen sollten sich auf die wichtigsten Aspekte konzentrieren.

TITEL QUANTENCOMPUTING: KOPFÜBER IN DIE ZUKUNFT

Damir Bogdan, anerkannter Quantencomputing-Experte, erklärt im Interview, weshalb Unternehmen bereits jetzt den Grundstein für den technologischen Sprung in die Zukunft legen sollten.

34 Die Evolution der Automatisierung Moderne KI-Agenten ermöglichen eine neue Dimension der Automatisierung.

44 Balanceakt zwischen Innovation und Sicherheit: Gefahren unvorsichtiger KI-Nutzung

46 Fluch und Segen – KI in der Cybersecurity: Expertentalk

50 Mehrschichtiger Ransomware-Schutz : Die richtige Verteidigungsstrategie

51 Automatisierte Compliance: Continuous Compliance im Finanzsektor

52 Schutz der KI: Strategien gegen Daten Poisoning

54 Rolle der KI in der Cybersecurity: Licht und Schatten der künstlichen Intelligenz

40 Docuware-Interview: „Die Zukunft für Frauen in IT-Berufen sieht sehr rosig aus“

Diverse Teams sind oft erfolgreicher, da sie die Stärken aller Mitarbeiter optimal nutzen.

2025

QUANTENCOMPUTING

06 Kopfüber in die Zukunft Chancen und Hürden von Quantentechnologie

12 Vom Labor in die Praxis Quantencomputing-Strategie bei T-Systems

14 Quantenrechner versus Kryptografie Bedrohung für Verschlüsselungsverfahren

DIGITALE TRANSFORMATION

16 Potenzial für mehr Umweltschutz Refurbishment gegen Elektroschrott

18 Fünf Dimensionen verantwortungsvoller Digitalisierung

Transformation der Energieversorgung

20 Die Kampfansage Freshworks fordert CRM-Giganten heraus

22 Milliardengrab Erreichbarkeit

Viele Unternehmen verschenken unnötig Geld

24 Archivierung: Dokumente frisch halten Abläufe und Prozesse besser steuern

26 So druckt und scannt man sicher IT-Sicherheit beginnt beim Drucker

27 Data Culture für das KI-Zeitalter Die richtige Datenstrategie für Analysen

28 In fünf Schritten zur zur e-Invoicing-Compliance Rechtssichere Umsetzung der E-Rechnung

CLOUD COMPUTING

30 Erfolgreiche Strategien für eine sichere Cloud-Nutzung

Wichtige Aspekte der Cloud-Security KI

32 KI-Agenten –nützliche Helferlein im Kundendienst Großer Mehrwert für Unternehmen

34 Die Evolution der Automatisierung KI-Agenten versus klassischer Automatisierung

36 Kollege KI

Sprach-KI stärkt den Kundenservice und Sales

37 KI-Potenziale verstehen und gezielt heben Integrationsstand von KI-Anwendungen

38 Mit KI-Lösungen die Datenresilienz verbessern Microsoft AI für die Bedrohungserkennung

HR

40 Interview mit Docuware: „Die Zukunft für Frauen in IT-Berufen sieht sehr rosig aus“ Diverse Teams sind häufig erfolgreicher

42 Siemens geht neue Wege Employer Branding zur Fachkräftegewinnung

SECURITY INSIGHT

43 Titel

44 Den Balanceakt zwischen Innovation und Sicherheit meistern Gefahren durch den unvorsichtigen KI-Einsatz

46 KI in der Cybersecurity: Der schmale Grat zwischen Fluch und Segen Expertentalk

50 Mehrschichtiger Ansatz schützt vor Ransomware Die richtige Verteidigungsstrategie

51 Automatisierte Einhaltung der Compliance im Finanzsektor Continuous Compliance für weniger Aufwand

52 Immun gegen Datengift: So schützen Unternehmen ihre KI Strategien gegen Data Poisoning

54 Die Rolle der KI in der Cyber-Security Licht und Schatten der künstlichen Intelligenz

NEWS

55 Frisch ausgepackt

DIGITAL HEALTH

56 Künstliche Intelligenz im Gesundheitswesen kommt in Schwung Digitalisierung als Schlüssel zu mehr Effizienz

58 Entlasten, vernetzen, verbessern Entbürokratisierte Digitalisierung ist kein Luxus

RECHT

60 Die Pläne der neuen Koalition: Datenschutz light, Cybersecurity heavy? Ein Blick auf die wichtigsten Punkte

03 Editorial

61 Marketplace

62 Vorschau

62 Impressum

KOPFÜBER in die Zukunft

Damir Bogdan, CEO von Quantum Basel, erklärt wie QuantumBasel die neuen Technologien vorantreibt, welche Rolle die Nachhaltigkeit bei der Revolution der Rechenzentren spielt und warum Unternehmer und Aufsichtsräte bereits jetzt den Grundstein für den technologischen Sprung in die Zukunft legen sollten. /// von Heiner Sieger

Herr Bogdan, Sie haben einen äußerst spannenden Berufsweg genommen. Was ist ihr fachlicher Hintergrund?

Damir Bogdan | Ich begann meine Karriere Ende der 80er Jahre als Wirtschaftsinformatiker. Damals arbeitete ich mit alten Mainframe-Systemen. In den 90er Jahren fokussierte ich mich hauptsächlich auf Informatik in der Finanzbranche. Hier war ich in verschiedenen Rollen tätig, von der Leitung komplexer Netzwerkumstellungen bis zur Softwareentwicklung. Ich half beim Aufbau eines Nearshore Development Centers für Schweizer Banken in Südeuropa. Parallel dazu leitete ich Initiativen, die letztlich zur Gründung der Swisscom IT Services führten. Mit rund

DER GESPRÄCHSPARTNER

Transistoren auf Chips werden immer kleiner, und bei sieben Nanometern war eine Grenze erreicht. Hier begann mein Interesse am Quantencomputing, das sich als potenzielle Ergänzung zu traditionellen Rechnerarchitekturen herausstellte, da es die Problemlösungsfähigkeit in exponentiellen Größendimensionen erweitern könnte. Ein Auftrag eines großen multinationalen Kunden führte mich nach Basel, wo ich in die Entstehung des Innnovationscampus uptownBasel eingebunden wurde. Monique und Dr. Thomas Staehelin, die Investoren von uptownBasel suchten jemanden, der die technologische Strategie entwickeln konnte – insbesondere im Bereich Quan-

Damir Bogdan ist CEO von QuantumBasel und ein anerkannter Experte im Bereich Quantencomputing. Er begann seine Karriere als Wirtschaftsinformatiker und sammelte umfassende Erfahrung in der IT-Branche, insbesondere im Finanzsektor. Mit seinem visionären Ansatz fördert er die Demokratisierung von Quantentechnologien und treibt deren Integration in Industrie und Bildung voran.

3000 Mitarbeitenden übernahm ich eine führende Rolle in der Entwicklung neuer Technologien, insbesondere in der Elektronik und im Mobile Commerce. Diese Dinge führten dazu, dass ich zum CIO und später COO der drittgrößten Bankengruppe in der Schweiz ernannt wurde. Dort war ich über zehn Jahre in der Geschäftsleitung tätig.

Wann und wie sind Sie schließlich in die Welt des Quantencomputings eingetreten?

DB | 2014 entschied ich, meinen Fokus auf Innovation zu verlagern. Ich ging ins Silicon Valley, baute eine Unternehmensberatung auf und engagierte mich in der strategischen Beratung von Technologiekonzernen. Der Kontakt mit Start-ups im Valley brachte mich an den Punkt, an dem ich die Grenzen des Moore‘schen Gesetzes bewusst wahrnahm. Die über 30 Jahre geltende Faustregel, wonach sich die Rechenleistung durch Verdoppelung der Transistorenzahl etwa alle 18 Monate steigert, stieß zunehmend an physikalische und technologische Grenzen. Die

tencomputing -, um die Region als Innovationsstandort zu positionieren. Und so begann vor zweieinhalb Jahren meine Reise als CEO von QuantumBasel – der eigens dafür gegründeten Tochtergesellschaft von uptownBasel.

Was ist Quantum Basel und welche Vision verfolgen Sie mit diesem Technologie-Hub?

DB | Quantum Basel ist ein Kompetenzzentrum für Quantencomputing und künstliche Intelligenz, das Innovationen in diesen Bereichen fördert und demokratisieren will. Unsere Vision ist es, den Zugang zu Quantencomputern für Unternehmen weltweit zu erleichtern und die Anwendungen dieser Technologien zu verbreiten. Die Thematik Quantencomputing mag viele Menschen im ersten Moment abschrecken, weil sie komplex wirkt. Deshalb setzen wir auf Aufklärung und Training.

Wo setzen Sie mit Ihrer Aufklärungsarbeit für Quantencomputing an?

© Jessica/stock.adobe.com

DB | Wir arbeiten eng mit Aufsichtsräten und Unternehmensleitungen zusammen, um ihnen verständlich zu machen, welche Auswirkungen das Quantencomputing auf ihre jeweilige Industrie haben könnte. Dabei helfen wir, die richtigen Fragen zu stellen: Warum und wie ist Quantencomputing für meine Branche relevant? Welche Probleme lassen sich damit lösen?

Dafür bieten wir Trainingsformate und Projekte an, schulen bestehende Teams im Bereich Quantum und AI und bereiten neue Mitarbeitende gezielt auf diese Themen vor. Demokratisierung bedeutet für uns auch, Menschen und Unternehmen eine Brücke zu diesen neuen

Wie positionieren Sie sich mit Quantum Basel gegenüber anderen Zentren für Quantencomputing weltweit? DB | Unser Alleinstellungsmerkmal ist die neutrale Positionierung zwischen den verschiedenen Quantencomputing-Architekturen. Im Gegensatz zu vielen anderen Institutionen sind wir nicht darauf beschränkt, nur eine Architektur oder eine bestimmte Technologieplattform zu unterstützen. QuantumBasel ist das einzige europäische Unternehmen, das sowohl Zugang zu Ionenfallen-Computern als auch supraleitenden Systemen anbietet, und das einzige Unternehmen weltweit, das Zugang zu gate-basierten und annealing-basierten Quantencom-

Der zunehmende Energieverbrauch, der durch den exponentiellen Einsatz von KI-Technologien entsteht, ist alarmierend. Quantenrechner bieten durch ihren deutlichen geringeren Energiebedarf bei komplexen Rechenoperationen das Potenzial nachhaltigerer Lösungen. (Damir Bogdan)

Technologien zu bauen – ohne dass sie selbst immense Erstinvestitionen tätigen müssen. Daher erhalten sie bei uns Zugang zu verschiedenen Quantensystemen und -architekturen, ohne sich auf eine einzelne Lösung oder Anbieter festlegen zu müssen. Wir pflegen aktive Partnerschaften mit führenden Quanten-Technologieanbietern wie IBM, D-Wave und IONQ sowie weiteren spezialisierten Hardwareherstellern.

Was bewirken diese Partnerschaften?

DB | Diese Partnerschaften sollen sicherstellen, dass wir flexibel auf die schnelllebigen technologischen Fortschritte reagieren und die besten Lösungen für unsere Kunden bereitstellen können. Quantum Basel ist mehr als nur ein Technologie-Hub; wir sehen uns als Enabler, der Unternehmen auf ihrem Weg zu nachhaltigen, technologischen Lösungen begleitet und ihnen hilft, Quantentechnologien in praktikable Geschäftsstrategien umzuwandeln.

putern bietet. Wir können so den besten Ansatz für das jeweilige Problem liefern. Damit bieten wir bei Quantum Basel eine einzigartige und unabhängige Beratung an, um die am besten geeignete Technologie für die spezifischen Herausforderungen unserer Kunden zu ermitteln. Unsere Unabhängigkeit ermöglicht es uns zudem, ein Netzwerk von Partnerschaften zu pflegen, das Zugang zu den neuesten Entwicklungen und der gesamten Bandbreite verfügbarer Hardware bietet.

Kollaborieren Sie auch mit anderen Wissenschaftlern zusammen?

DB | Auf akademischer Seite arbeiten wir eng mit Universitätspartnerschaften und Fachhochschulen zusammen, um die nächste Generation an Quantenfachkräften auszubilden. Diese Zusammenarbeit im Bildungsbereich ist entscheidend, denn der Fachkräftemangel stellt eine erhebliche Herausforderung in unserer Branche dar. Durch die Anbindung an lokale, spezialisierte Ausbildungsan-

gebote bleibt unser Näherungsansatz gewährleistet und sichert den Zugang zu einem talentierten, wissensstarken Nachwuchs.

Neben unseren Kooperationen verstehen wir uns auch als Innovatoren beim Aufbau einer nachhaltigen Technologieplattform. Der Energieverbrauch herkömmlicher Rechnerarchitekturen nimmt exponentiell zu, nicht zuletzt durch die zunehmende Verbreitung von KI-Technologien. Quantenrechner bieten durch ihren deutlichen geringeren Energiebedarf bei komplexen Rechenoperationen das Potenzial für ressourcenschonendere Lösungen. Mittelfristig verfolgen wir das Ziel, das Konzept von Quantum Basel auf andere internationale Märkte zu übertragen und weiterzuentwickeln.

Wie gestalten Sie dabei den Wissenstransfer zwischen den beteiligten Stakeholdern?

DB | Wir arbeiten intensiv daran, unser Angebot an hochmodernen Technologieplattformen weiter auszubauen und zu vermarkten. Dazu gehört die Entwicklung von Plänen für den länderübergreifenden Austausch zwischen Forschenden, Ingenieur:innen sowie der direkte Zugang zu unseren Technologien und Projekten.

Durch die Stärkung dieser Netzwerke, fördern wir den Wissenstransfer und machen Quantencomputing einem globalen Publikum zugänglich. Unser langfristiges Ziel ist der Aufbau eines nachhaltigen, interdisziplinären Ökosystems, das Quantum und AI-Technologien rund um den Globus verknüpft. Dabei legen wir Wert auf die strategische Zusammenarbeit mit Unternehmen und Bildungsinstitutionen, um die Entwicklung neuer Geschäftsmodelle und -lösungen zu beschleunigen. Unser internationales Engagement macht deutlich: Quantum Basel bleibt nicht stehen, sondern entwickelt sich dynamisch weiter, um global innovative Ansätze zu etablieren und zu fördern.

Initiativen zu starten. Dies unterstreicht nicht nur unseren Status als Innovationsführer, sondern zeigt auch den internationalen Bedarf und die Anerkennung, die Quantencomputing weltweit erlangt. Wir wollen regionale Unterschiede und Bedürfnisse berücksichtigen und gleichzeitig die Technologie und das Wissen von Quantum Basel zur Nutzung anbieten. Über die nächsten Jahre hinweg planen wir, diese Strategie auf weitere Länder und Städte auszudehnen, um mit der wachsenden Nachfrage nach Quantenlösungen Schritt zu halten.

Welche konkreten Herausforderungen sehen Sie bei der Integration von Quantentechnologie in bestehende Industrieprozesse?

DB | Die grundlegendste Herausforderung besteht darin, die Relevanz und das Verständnis von Quantentechnologien auf allen Hierarchieebenen eines Unternehmens zu etablieren. Das beginnt häufig mit einer großen Kluft zwischen dem, was technisch möglich ist, und dem, was als geschäftlich umsetzbar und vorteilhaft angesehen wird. Viele hochrangige Führungskräfte haben das Konzept noch nicht vollständig integriert – nicht zuletzt deshalb, weil es eine radikale Abkehr von traditionellen IT- und Rechensystemen bedeutet. Quantencomputer allein werden keine Wunder vollbringen; der Schlüssel liegt darin, die richtigen Anwendungsbereiche zu identifizieren, von der Optimierung über die Simulation bis hin zu maschinellen Lernen.

Stoßen Sie auch auf Hürden bei der Weiterentwicklung und praktischen Implementierung der Technologie?

DB | Ein wesentliches Hindernis ist die Verbreitung von Hypes, die unrealistische Erwartungen schüren. In der Vergangenheit haben überzogene Erwartungen zu Enttäuschungen geführt, als die Technologie ihre Verspre-

” Unser langfristiges Ziel ist der Aufbau eines nachhaltigen, interdisziplinären Ökosystems, das Quantum und AI-Technologien rund um den Globus verknüpft und das auf die aktuellen und zukünftigen Bedürfnisse der Industrie zugeschnitten ist.

Wie gehen Sie bei der Globalisierung des Themas vor und mit welchen Nationen gibt es schon nennenswerte Fortschritte?

DB | Wir bauen Partnerschaften mit verschiedenen internationalen Regierungen und Organisationsstrukturen auf, um Quantum Hubs und Technologiezentren auf der ganzen Welt zu entwickeln. Kürzlich haben wir Verträge mit Telangana in Indien abgeschlossen, um ein AI- und Quanten-Technologiezentrum in Hyderabad zu errichten. Ebenso haben wir Gespräche mit der saudischen Regierung und anderen globalen Partnern geführt, um ähnliche

(Damir Bogdan)

chungen nicht sofort gehalten hat. Wir legen großen Wert darauf, realistische Potenziale aufzuzeigen und Geschäftsfelder zu definieren, in denen Quantentechnologie heute bereits einen klaren Mehrwert leisten kann. Ein weiterer Aspekt ist die Integration in bestehende Prozesse. Wir gehen systematisch und strukturiert vor: Zuerst führen wir strategische Analysen durch, um potenzielle Einsatzbereiche zu identifizieren. Im nächsten Schritt priorisieren wir, wo sich der Einsatz von Quantencomputing kurzfristig lohnt. Sobald wir einen Anwendungsfall validiert haben, setzen wir auf kleine, überschaubare Pi-

lotprojekte zur Validierung und Skalierung. Zusammenarbeit mit Innovationsteams ist dabei entscheidend, um Quantenprojekte zu einem integralen Bestandteil der Unternehmensstrategie zu machen. Dies erfordert Investitionen, nicht nur in Technologie, sondern auch in die Ausbildung der Mitarbeiter und die Schaffung einer Kultur des Experimentierens und Lernens. Schließlich ist die Kompatibilität von Quantencomputern mit bestehenden IT-Infrastrukturen eine kritische Frage. Es handelt sich hierbei um eine hybride Technologie, die nicht als Ersatz, sondern als Ergänzung zu bestehenden Architekturen betrachtet werden sollte. Unternehmen müssen bereit sein, ihre bestehenden Systeme entsprechend anzupassen und Brücken zwischen der klassischen und der neuen Technologie zu schlagen.

Welche konkreten Anwendungen und Erfolge können Sie für das Quantencomputing präsentieren?

DB | Ein bemerkenswertes Beispiel ist die Zusammenarbeit mit dem Konzern Vinci Energies: es wurde mittels eines hybriden Ansatzes eine Simulationstechnologie für die Planung und Optimierung von Heizungs-, Lüftungs- und Klimaanlagen in industriellen Umgebungen entwickelt. Traditionelle Rechner sind häufig ineffizient in der optimalen Lagenberechnung solcher komplexen Systeme – ein Quantencomputer hingegen kann eine Vielzahl von Lösungen parallel prüfen, wodurch eine exaktere und schnellere Berechnung der optimalen Lösungen möglich wurde.

Wir konnten signifikante Einsparungen in Materialund Energieverbrauch sowie eine drastische Verkürzung der Planungsprozesse erreichen. Ein weiteres bemerkenswertes Projekt führten wir mit Pfizer durch, bei dem der Produktionsprozess für Medikamente optimiert wird. Nachdem das bestehende Verfahren bereits KI-optimiert war, gelang es, durch den Einsatz von Quantencomputing die Produktion zusätzlich zu beschleunigen. Das führt zu erheblichen Zeit- und Kostenersparnissen und trägt zur strategischen Ressourcenschonung im Unternehmen bei.

ERLÄUTERUNG VON FACHBEGRIFFEN

• Qubits:

Die Grundeinheiten von Quanteninformation. Im Gegensatz zu klassischen Bits, die entweder 0 oder 1 sein können, können Qubits viele Zustände gleichzeitig einnehmen (Superposition).

• Mooresches Gesetz:

Beobachtung, dass sich die Anzahl der Transistoren auf einem Mikrochip etwa alle zwei Jahre verdoppelt. Dieses Gesetz ist zunehmend an seine physikalischen Grenzen gestoßen.

Das Tempo macht also den Unterschied?

DB | Einer der großen Vorteile des Quantencomputings ist die Möglichkeit, Aufgaben mit außergewöhnlich hoher Geschwindigkeit auszuführen. In einer zunehmend wettbewerbsorientierten und kostenbewussten Welt ist jede Optimierung ein entscheidender Wettbewerbsvorteil. In der medizinischen Bildverarbeitung ist es uns beispielsweise gelungen, die Effizienz der Krebsdiagnose deutlich zu steigern. Gemeinsam mit dem Start-up Moonlight AI haben wir Algorithmen für Bildverarbeitungsprozesse entwickelt, welche klinische Tests erheblich beschleunigen können, und damit wichtige Konsequenzen für die Diagnose und Therapieansätze eröffneten. Auch hier zeigt sich, dass Projekte, die traditionell langwierig und ressourcenintensiv sind, durch Quantencomputing dramatisch verbessert werden können. All diese Projekte sind Beispiele dafür, wie Quantencomputing nicht nur theoretische, sondern greifbare Vorteile für die industrielle Anwendung bieten kann. Sie manifestieren sich in signifikanten Verbesserungen sowohl effizienter Nutzung der Ressourcen als auch im Hinblick auf Arbeitsabläufe, die in der Industrie von strategischer Bedeutung sind.

Und wie verankern Sie Nachhaltigkeit in all diesen technologischen Entwicklungen?

DB | Nachhaltigkeit ist ein bedeutender Bestandteil unserer Gesamtstrategie und fließt in alle unsere Aktivitäten und Technologieentscheidungen ein. Unsere Quantencomputer verbrauchen deutlich weniger Energie als traditionelle Supercomputer, insbesondere bei rechenintensiven Anwendungen. Zum Vergleich: Ein Quantencomputer benötigt etwa 17 Kilowatt Stunden für seine Leistung. Moderne Supercomputer wie das Modell in Bologna benötigen im laufenden Betrieb bis zu 10 Megawatt Leistung – ein Vielfaches dessen, was Quantencomputer in vergleichbaren Anwendungen verbrauchen . Solche drastischen Einsparungen sind ein wichtiger Schritt hin zu nachhaltigeren Rechenzentren. Darüber hinaus setzt Quantum Basel auf grüne Energie für den gesamten Campus. Ein direkter Anschluss an ein Wasserkraftwerk

• Supercomputer: Hochleistungsrechner mit enormer Rechenleistung, spezifisch für umfangreiche Datenverarbeitungsprozesse und rechenintensive Aufgaben.

• Superposition: Ein grundlegendes Konzept in der Quantenmechanik, das besagt, dass ein Quantensystem in mehreren Zuständen gleichzeitig existieren kann.

• Quanten-Annealer:

Spezialisierte Quantencomputer, die darauf ausgelegt sind, Optimierungsprobleme zu lösen. Im Gegensatz zu universellen Quantencomputern, die ein breiteres Spektrum an Algorithmen ausführen können, konzentrieren sich Quanten-Annealer auf das Finden von minimalen Energiezuständen in komplexen Systemen.

liefert die benötigte Energie, die unter anderem für die Kühlung und den Betrieb unserer Systeme nötig ist. Ebenso machen wir uns die entstehende Abwärme zunutze: Die am Campus entstehende Abwärme wird in das lokale Wärmenetz eingespeist – damit werden mehrere Tausend Haushalte versorgt.

Ein Quantencomputer ist also auch ein EnergiesparWunder?

DB | Ja, und das ist auch dringend nötig: Der steigende Energieverbrauch, der durch den exponentiellen Einsatz von KI-Technologien entsteht, ist alarmierend. Ohne Gegenmaßnahmen wird allein der Energiebedarf von Rechenzentren weltweit mehr als zehn Prozent des globalen Stromverbrauchs ausmachen. Quantencomputing spielt also eine bedeutende Rolle, um KI-Prozesse energieeffizienter zu gestalten und die Rechenressourcen umweltfreundlicher zu nutzen. Ferenc Krausz, der Energieexperte und Physik-Nobelpreisträger von 2023, kommentierte, dass der eigentliche Nutzen des Quantencomputings in seiner Energieeffizienz liegen könnte. Bei allem technologischen Fortschritt dürfen wir unsere Verantwortung für unseren Planeten. Nachhaltigkeit bedeutet für uns daher nicht nur die Reduzierung von Energieverbrauch, sondern auch die Entwicklung eines ökologisch nachhaltigen Technologieansatzes und die Schaffung sozialer Verantwortung.

Sie sprachen zuvor von der Rolle von Bildung und Förderung des Quantenfachkräfte-Nachwuchses. Wie setzen Sie sich dafür ein?

DB | Bildung ist zweifellos einer der wichtigsten Pfeiler für den Erfolg in der Quantenrevolution. Aus diesem Grund haben wir gemeinsam mit der Universität Basel ein Institut für Quantencomputing gegründet, das QC2 (Quan-

haben, um das Curriculum zum Quantencomputing-Studium zu entwickeln. Dies legt den Grundstein für Bachelor- und Masterprogramme und hilft, mehr Studierende in den Bereich zu führen.

Vermutlich operieren Sie im Bereich Nachwuchsförderung auch grenzüberschreitend?

DB | Da sich der Fachkräftemangel in der Quantenindustrie weltweit spürbar ist, geht es uns ebenso darum, neue Lösungen jenseits des klassischen Bildungswegs zu fördern. Wir arbeiten beispielsweise mit internationalen Universitäten zusammen, um ihnen Zugang zu unseren Hardwaresystemen zu ermöglichen. Studierende können verschiedene Architekturen testen und damit praxisnah lernen und wertvolle Erfahrungen sammeln. Quantum Basel bietet auch regelmäßig Stipendien und projektbezogene Fördergelder an, um studentische Forschungsprojekte zu unterstützen. Ein weiteres spannendes Projekt ist die Zusammenarbeit mit Universitäten weltweit, um die Quantenforschung und den Austausch durch interdisziplinäre Veranstaltungen und Hackathons zu fördern. Ziel unseres Engagements ist es, nicht nur die Fachkräfte von morgen auszubilden, sondern auch den Weg zu einer anerkannten, interdisziplinären Forschungsgemeinschaft zu ebnen. Durch die Verbindung von Bildung, Forschung und Unternehmensinteressen legen wir den Grundstein für ein internationales Quanten-Ökosystem, das auf die aktuellen und zukünftigen Bedürfnisse der Industrie zugeschnitten ist.

Und zuletzt, welchen Ratschlag geben Sie Unternehmensführern und Aufsichtsräten in Bezug auf Quantencomputing?

DB | Angesichts der schnellen technischen Entwicklungen im Quantenbereich sollten Unternehmensführer kei-

” Viele hochrangige Führungskräfte haben das Konzept noch nicht vollständig integriert – nicht zuletzt deshalb, weil es eine radikale Abkehr von traditionellen IT- und Rechensystemen bedeutet. Unternehmen müssen bereit sein, ihre bestehenden Systeme anzupassen. (Damir Bogdan)

tum Computing and Coherence Center). Dieses Institut unterstützt aktiv die Entwicklung von Nachwuchstalenten und bietet eine Plattform für innovative Forschung und Zusammenarbeit. Derzeit forschen acht Professoren an einer Vielzahl von Bereichen von Quantencomputing und Quantenphysik bis hin zu Anwendungen. Unser Engagement in der Förderung von Nachwuchstalenten beschränkt sich jedoch nicht nur auf diese Hochschule. Es besteht eine enge Zusammenarbeit mit der Fachhochschule Nordwestschweiz, bei der wir bereits in den ersten Jahren eine Professur für Quantenphysik finanziert

nesfalls weiter warten. Jetzt ist die Zeit zu handeln und sich aktiv mit Quantencomputing auseinanderzusetzen. Wer den technologischen Wandel verpasst, riskiert, in einigen Jahren hinter der Konkurrenz zurückzufallen. Zwei Schritte sind essenziell: Eine sicherheitstechnische Bewertung der aktuellen Systeme und die Entwicklung von Strategien, um Quantencomputing fortan als integralen Bestandteil ihrer digitalen Transformation zu etablieren. Der frühzeitige Einstieg und die laufende Evaluierung technischer Fortschritte sind dann der Schlüssel, um die Wettbewerbsfähigkeit zu sichern. •

Code mit Wirkung: Mehr Effizienz, weniger Energie

Warum nicht jede Aufgabe KI braucht und Effizienz der Schlüssel zur digitalen, grünen Zukunft ist

KÜNSTLICHE INTELLIGENZ GILT ALS SCHLÜSSELTECHNOLOGIE DER DIGITALISIERUNG.

Doch ihr Einsatz hat Folgen: Vor allem große Sprachmodelle verschlingen enorme Rechenleistung und verursachen einen hohen Energieverbrauch. Unternehmen stehen deshalb vor einer entscheidenden Frage: Wo schafft KI echten Mehrwert und wo treibt sie den Ressourcenverbrauch unnötig in die Höhe? Immer mehr Firmen erkennen, dass Nachhaltigkeit in der IT nicht beim Kauf stromsparender Hardware beginnt, sondern bei der Art und Weise, wie Software entwickelt wird. Denn ohne effiziente, bedarfsgerechte Systeme bleibt jede Digitalstrategie lückenhaft sowohl technisch als auch ökologisch.

CodeCamp:N unterstützt Unternehmen aus der Versicherungs- und Finanzdienstleistungsbranche sowie den Mittelstand beim Aufbau digitaler Lösungen und Anwendungslandschaften. Besonderes Augenmerk liegt auf der individuellen Entwicklung moderner Software, die gezielt auf Effizienz ausgelegt sind. Mit durchdachter Architektur, sauberen Codes und der Wahl passender Technologien lassen sich bei gleichbleibender Funktionalität Energieverbrauch, Betriebskosten und Komplexität deutlich reduzieren.

Jede Lösung wird von uns individuell geprüft: Welche Anforderungen bestehen wirklich? Wann sind kleinere, fokussierte Systeme oder klassische Prozessverbesserungen sinnvoller als der Einsatz umfassender KI-Modelle? Der bewusste Einsatz digitaler Mittel macht Nachhaltigkeit für uns zu einem festen Bestandteil jeder digitalen Strategie.

Nachhaltige IT hat zwei Dimensionen: Zum einen die Reduktion des Ressourcenverbrauchs innerhalb der Systeme, etwa durch reduzierte Datenlast, schlanke Softwarearchitektur und passgenaue Infrastruktur. Dieser Ansatz, der den Kern von Green-Efficiency bildet, verbindet Leistungsfähigkeit und Ressourcenschonung und sorgt so für geringere Betriebskosten und langfristige Wettbewerbsfähigkeit. Zum anderen geht es darum, nachhaltige Prozesse durch digitale Lösungen gezielt zu unterstützen, etwa durch Automatisierung, papierlose Workflows oder datenbasierte Entscheidungsfindung.

Nachhaltigkeit messbar machen:

Der CodeCamp:N-Beipackzettel

CodeCamp:N hat den Einsatz nachhaltiger Softwarelösungen zum Prinzip gemacht und setzt Green-Efficiency in Kundenprojekten konsequent um. Dabei stehen performante, langlebige Anwendungen im Vordergrund.

Ein konkretes Beispiel dafür ist der CodeCamp:N-Beipackzettel für Energieeffizienz : Jede von uns entwickelte Lösung wird automatisch damit ausgestattet. Der Beipackzettel zeigt transparent auf, wie viel Energie eine Anwendung verbraucht und wo Einsparpotenziale liegen. Er schafft Orientierung und unterstützt fundierte Entscheidungen in der digitalen Transformation.

Die Vorteile sind klar: Wer frühzeitig auf Effizienz setzt, spart Kosten, erhöht die Stabilität seiner Systeme und verlängert deren Lebensdauer. Nachhaltige Software wird damit zur wirtschaftlich und ökologisch sinnvollen Entscheidung und zu einer tragfähigen Basis für die digitale Zukunft.

Du möchtest wissen, wie nachhaltige Digitalisierung in Deinem Unternehmen umgesetzt werden kann? Melde Dich gerne bei uns.

Kontakt:

CodeCamp:N GmbH

Solgerstraße 18, 90429 Nürnberg Tel.: +49 175 9723518 hallo@codecamp-n.com www.codecamp-n.com/beipackzettel

Vom Labor in die Praxis

Dr. Christine Knackfuß-Nikolic, CTO von T-Systems, verfolgt mit ihrem Team eine klare Mission: Quantencomputing als Schlüsseltechnologie der Digitalisierung für Unternehmen nutzbar machen. Im Interview gewährt sie Einblicke in Strategie, Use Cases und Zukunftsperspektiven. /// von Heiner Sieger

Frau Dr. Knackfuß-Nikolic, Sie sind als CTO von T-Systems eng mit dem Thema Quantencomputing befasst. Welche Rolle spielt Quantencomputing aktuell in Ihrer Technologie-Strategie und wie ordnen Sie das Thema im Kontext der Digitalisierung ein?

Dr. Christine Knackfuß-Nikolic | Quantentechnologie ist für uns eine Schlüsseldisziplin, die das Potenzial hat, grundlegende Herausforderungen der Digitalisierung zu lösen. In unserer Strategie nimmt das Thema Quanten deshalb einen zentralen Platz ein. Wir sehen die Technologie als einen enormen Innovationstreiber für Wirtschaft und Gesellschaft und arbeiten daran, diese Potenziale auch für unsere Kunden nutzbar zu machen. Wichtig ist mir das Zusammenspiel von Quantencomputing mit cloudbasierten Diensten, KI und Sicherheitsthemen – erst der integrierte Ansatz schafft einen echten Mehrwert für die Digitalisierung.

T-Systems bietet Kunden bereits heute Zugang zu Quantencomputern über die Quantum Cloud. Wie sieht das konkrete Leistungsportfolio aus?

| Unser Leistungsportfolio umfasst den Zugang zu verschiedenen amerikanischen und europäischen Quantencomputern, inklusive Beratungsdienstleistungen, Trainings und Proof-of-Concepts. Unternehmen können damit ihre eigenen Anwendungsfälle direkt am Quantenrechner testen – ohne in eigene Hardware investieren zu müssen.

rung von Mobilfunkantennen und deren Ausrichtung mit Quantum-inspirierten Rechnern – die Rechenzeit können wir damit von mehr als sechs Stunden auf ein paar Minuten verkürzen. Der Test ist so erfolgreich, dass wir dafür ein Patent angemeldet haben. Ein weiteres Beispiel aus den T-Labs: Wir haben gemeinsam Osram eine Methodik entwickelt, um Baugruppen mit Toleranz Unter- oder Überschreitungen so zu kombinieren, dass weniger Ausschuss und dadurch Kosten entstehen. Die T-Systems begleitet Unternehmen von der Potenzialanalyse über die Entwicklung solcher Proof-of-Concepts bis hin zur Integration in bestehende Geschäftsprozesse. Unser Ziel ist es, den Zugang zu Quantencomputing so niedrigschwellig und praxisnah wie möglich zu gestalten.

Viele Unternehmen stehen noch am Anfang beim Thema Quantencomputing. Wie unterstützt T-Systems diese bei der Vorbereitung auf diese tiefgreifende technologische Transformation?

| Besonders profitieren Industrien, die mit hochkomplexen, variablen Prozessen arbeiten oder große Lösungsräume analysieren, etwa die Automobilbranche, Logistik, Chemie oder das Finanzwesen. Hier gibt es teilweise bereits marktreife Fragestellungen, die mit Quantencomputing oder der Brückentechnologie Quantum-inspired Computing effizienter gelöst werden könnten. Um diese Branchen richtig fit für die Quantentransformation zu ma-

” Nur wenn Quantencomputing in die bestehende IT- und CloudLandschaft integriert wird, können Unternehmen langfristig profitieren. Sicherheitsaspekte und Datenschutz müssen dabei

von Anfang an mitgedacht werden.

Quantencomputing gilt als Schlüsseltechnologie für die Zukunft. Welche realen Use Cases sehen Sie schon heute in der Industrie, und wie unterstützt T-Systems Unternehmen dabei, diese Potenziale zu heben?

| Wir sehen heute konkrete Anwendungsfälle im Bereich Optimierung, etwa bei komplexen und dynamischen Lieferketten, Verkehrssteuerung oder im Finanzwesen. Auch die Materialwissenschaften und der Energiesektor profitieren durch neue Möglichkeiten in der Simulation, etwa bei Batterien oder nachhaltigen Werkstoffen. In der Telekom testen wir beispielsweise die optimale Positionie-

(Dr. Christine Knackfuß-Nikolic)

chen, bieten wir neben technischem Zugang umfassende Trainingskonzepte, Workshops und Beratung an. Unsere Experten unterstützen beim Kompetenzaufbau, identifizieren relevante Use Cases und begleiten Unternehmen bei der Entwicklung und Umsetzung erster Pilotprojekte.

T-Systems verfolgt einen ganzheitlichen Ansatz mit einem 360-Grad-Ökosystem rund um Quantencomputing. Was sind aus Ihrer Sicht die wichtigsten Erfolgsfaktoren, damit Unternehmen von dieser Technologie nachhaltig profitieren können?

DIE GESPRÄCHSPARTNERIN

Dr. Christine Knackfuß-Nikolic ist promovierte Wirtschaftswissenschaftlerin und seit März 2024 Chief Technology Officer (CTO) von T-Systems. In ihrer Funktion verantwortet sie technologische Strategie und Innovationen der T-Systems.

| Der wichtigste Erfolgsfaktor ist der Aufbau eines robusten Ökosystems, das Unternehmen partnerschaftlich begleitet. Dazu gehören offene Schnittstellen, Zusammenarbeit mit Forschungseinrichtungen und Start-ups sowie ein niederschwelliger Zugang zu Technologie und Know-how. Ebenso essenziell: kontinuierliche Weiterbildung und Investitionen in die Digitalisierung von Geschäftsprozessen. Nur wenn Quantencomputing in die bestehende IT- und Cloud-Landschaft integriert wird, können Unternehmen langfristig profitieren. Sicherheitsaspekte und Datenschutz müssen dabei von Anfang an mitgedacht werden. Ein Beispiel so eines Ökosystems ist QUTAC – 14 DAX-Konzerne, die Quantumcomputing von der Forschung in die Anwendung bringen.

Wie bewerten Sie den aktuellen Durchbruch der T-Labs bei der Übertragung verschränkter Photonen über kommerzielle Glasfaser?

| Dieser Durchbruch ist ein Meilenstein, weil er zeigt, dass Quantentechnologien die nächste Evolutionsstufe der sicheren Kommunikation einleiten können. Die Fähigkeit, verschränkte Photonen über kommerzielle Infrastruktur –in diesem Fall unsere Glasfaser – zu transportieren, hebt das Thema Quantenkommunikation auf ein industriell nutzbares Niveau. Für uns ist das ein strategischer Vorteil: Wir positionieren uns als Vorreiter im Bereich Quantenkommunikation und arbeiten am sichersten Netz von morgen mit Quantenkryptografie.

Wie sieht Ihre Kooperationsstrategie aus, um Technologien wie den Qunnect-Ansatz in Geschäftsmodelle zu übersetzen?

| Die Deutsche Telekom setzt bewusst auf eine enge Zusammenarbeit mit Start-ups, Universitäten und Forschungsinstituten. Das umfasst gemeinsame Innovationsprojekte, die Entwicklung von Standards und die Überführung von Forschungsideen in marktreife Anwendungen. Mit Partnern wie Qunnect arbeiten wir daran, neue Quantenkommunikationstechnologien aus dem Labor in die Nutzbarkeit für Firmen zu bringen.

Werfen wir noch einen Blick in die Zukunft: Wie schätzen Sie die Entwicklung der Quantenhardware und -software in den nächsten Jahren ein? Welche technologischen Meilensteine erwarten Sie für die breite industrielle Nutzung?

| Die Entwicklungen in Quantenhardware und -software sind rasant. Wir erwarten, dass die nächsten Jahre weitere Leistungssteigerungen und zunehmend fehlerresistente Quantencomputer bringen. Insbesondere hybride Architekturen, die klassische und Quantencomputer kombinieren, werden sich etablieren. Wichtige Meilensteine sind unter anderem neue Algorithmen für industrielle Anwendungsfälle und standardisierte Schnittstellen, sodass Unternehmen Quantenleistung einfach in bestehende Prozesse integrieren können. In der Software erwarten wir einen Innovationsschub durch quelloffene Plattformen und den zunehmenden Einsatz von KI zur Steuerung und Optimierung von Quantenlösungen.

Und was ist Ihre persönliche Vision: Wann und wie wird Quantencomputing aus Sicht von T-Systems vom Labor zur produktiven Unternehmensanwendung – und welche Etappen stehen bis dahin bevor?

| Meine Vision ist, dass Quantencomputing in den nächsten fünf bis zehn Jahren Teil des regulären IT-Werkzeugsatzes vieler Unternehmen wird. Die entscheidenden Etappen sind: weitere Reife der Hardware, Experimentiermöglichkeiten über sichere Cloudplattformen, Kompetenzaufbau bei Unternehmen sowie die Entwicklung industriebezogener Anwendungen. Der Weg führt uns von der Grundlagenforschung zu konkreten, marktfähigen Lösungen. Die Telekom wird als Innovationspartner Unternehmen Schritt für Schritt begleiten und ihnen helfen, Quantencomputing sicher und gewinnbringend zu nutzen. •

Quantenrechner versus Kryptografie

Die überlegene Rechenleistung von Quantencomputern könnte in Zukunft dazu beitragen, spektakuläre Durchbrüche in der Wissenschaft zu erzielen. Gleichzeitig birgt die Möglichkeit, anhand spezieller Algorithmen mathematische Probleme schneller zu lösen, eine Gefährdung aktueller Kryptosysteme. /// von Cindy Provin

BEREITS IN ETWA FÜNF JAHREN KÖNNTE ES SO WEIT SEIN, dass Quantencomputer allgemein verfügbar sind, die so leistungsfähig sind, dass sie heute gängige und als sehr sicher geltende Verschlüsselungsverfahren überwinden könnten. Wenn uns die letzten Jahrzehnte der Digitalisierung eines gelehrt haben, dann dass Technologien, die heute noch als Utopien gelten, sehr schnell sehr real werden können. Als Computer noch ganze Räume füllten, hätte der Gedanke, ein wesentlich leistungsfähigeres Gerät jederzeit in der Hosentasche herumzutragen, mindestens für Irritation gesorgt. Heute nutzen ca. fünf Milliarden Menschen ein Smartphone.

Derart kometenhaft dürfte sich die Verbreitung von Quantenrechnern zwar nicht gestalten, dennoch ist davon auszugehen, dass die Technologie irgendwann auch in die falschen Hände geraten wird. Damit hätten Cyberkriminelle bisher ungeahnte Möglichkeiten.

Realer als man vielleicht denkt

Auf den ersten Blick mag die Bedrohung durch Quantencomputer wie Science-Fiction erscheinen, doch wenn man sich vor Augen führt, wo überall asymmetrische Kryptografie – die besonders gefährdet ist – zum Einsatz kommt, wandelt sich das Bild. Sichere Verbindungen von User zu Website über HTTPS, Ende-zu-Ende-verschlüsselte Messenger-Nachrichten oder digitale Zertifikate, dahinter steckt eine Public-Key-Infrastruktur. Sie kommt auch zum Einsatz, wenn digitale Verträge elektronisch signiert werden. Der Zusammenhang zwischen dem geheimen privaten Schlüssel und dem öffentlichen Schlüssel wird bei der PKI mittels komplexer, schwer umkehrbarer mathematischer Operationen hergestellt. Heute wird dafür gerne die Faktorisierung großer Zahlen genutzt. Die Multiplikation großer Primzahlen ist trivial, während die Primfaktorzerlegung des entstandenen Pro-

” Auf den ersten Blick mag die Bedrohung durch Quantencomputer wie Science-Fiction erscheinen, doch wenn man sich vor Augen führt, wo überall asymmetrische Kryptografie – die besonders gefährdet ist –zum Einsatz kommt, wandelt sich das Bild.

(Cindy Provin)

DIE AUTORIN

Cindy Provin ist CSO bei Utimaco.

Verheerende Angriffe auf digitale Wertschöpfungsketten wären die Konsequenz. Unternehmen müssen also handeln und Vorbereitungen für den sogenannten Q-Day treffen. Damit wird das hypothetische Datum bezeichnet, ab dem kryptografisch relevante Quantenrechner allgemein verfügbar sein könnten.

dukts mit heutiger Technologie nicht in reeller Zeit lösbar ist, sofern man die Zahlen groß genug wählt. Dies könnte sich allerdings durch Quantenrechner ändern. Mit dem Shor-Algorithmus existiert in der Theorie bereits ein spezielles Verfahren, dass sich die Quanteneffekte zunutze macht, um Faktorisierungsprobleme wesentlich schneller zu lösen.

Um auch zukünftig noch Sicherheit im digitalen Raum zu gewährleisten, werden also neue Verfahren benötigt, die so komplex sind, dass sie auch Angriffen mit Quantenrechnern standhalten. Dieses Gebiet wird als Post-Quanten-Kryptografie (PQC) bezeichnet und setzt beispielsweise auf komplexe Vektorprobleme in hochdimensionalen Gittern, um die Verknüpfung zwischen dem öffentlichen und dem privaten Schlüssel herzustellen.

Wie bereitet sich die Wirtschaft vor? Zukünftig werden sich alle Digitalunternehmen mit der PQC-Migration befassen müssen. Tatsächlich damit begonnen hat allerdings lediglich ein Fünftel der Unternehmen, wie eine Umfrage von Utimaco unter mehr als 200 Organisationen in den USA, dem Vereinigten Königreich und Deutschland zeigt. Ein gutes Drittel (34 Prozent) der Teilnehmenden möchte binnen ein bis drei Jahren mit der Umstellung beginnen, 21 Prozent in drei bis fünf Jahren und 8 Prozent in fünf bis zehn Jahren. 17 Prozent der Unternehmen haben noch gar keine Pläne zur Umstellung auf PQC.

Bei diesen Planungen sollten Unternehmen bedenken, dass es sich bei der Umstellung auf PQC um eine großangelegte Transformation handelt. Je nach Situation müssen sie für mehrere kryptografische Anwendungsfälle neue Infrastrukturen etablieren. Unterschiedliche Implementierungen und längere Schlüssel können bestehende Systeme stören. Um keine bösen Überraschungen zu er-

leben, setzt die Mehrheit der Unternehmen (63 Prozent), die aktuell an PQC arbeiten, daher auf einen hybriden Ansatz, der klassische und Post-Quanten-Kryptografie kombiniert. 17 Prozent setzen dagegen vollständig auf PQC.

Post-Quanten-Kryptografie deutlich einfacher in bestehende IT-Infrastrukturen integrieren Nur zwölf Prozent der befragten Unternehmen planen, Quantum Key Distribution (QKD) als zusätzliche Sicherheitsmaßnahme einzusetzen – eine Technologie zum Schlüsselaustausch, die auf quantenphysikalischen Effekten basiert. Mögliche Gründe für die geringe Verbreitung sind der hohe Aufwand für spezialisierte Hardware sowie physikalische Einschränkungen bei der Datenübertragung. Post-Quanten-Kryptografie (PQC) hingegen lässt sich deutlich einfacher in bestehende IT-Infrastrukturen integrieren. Wichtig ist dabei, dass Unternehmen darauf achten, kryptoagile Hardware- oder Kryptografieanbieter zu wählen, damit bei Bedarf problemlos neue, quantensichere Algorithmen implementiert werden können. •

WANDELER PROBT

Potenzial für mehr Umweltschutz

Jedes Jahr gibt es weltweit immer mehr Elektroschrott. Bitter ist das vor allem deshalb, weil es längst eine Lösung dafür gibt: Refurbishment, also die standardisierte Wiederaufbereitung gebrauchter IT-Hardware. Viele Firmen nutzen diese Option aber noch nicht. Dabei wäre es so einfach. /// von Jan Schillinger

LAUT AKTUELLEN ZAHLEN DER EUROPÄISCHEN STATISTIKBEHÖRDE EUROSTAT wanderten 2022 rund fünf Millionen Tonnen ausgedienter Elektro- und Elektronikgeräte aus den 27 EU-Staaten in den Müll. Dazu gehörten alte Waschmaschinen ebenso wie Handys oder Computer. Das sind pro Kopf durchschnittlich 11,2 Kilogramm Elektroschrott pro Jahr. Zum Vergleich: Zehn Jahre zuvor waren es je Person noch 6,7 Kilogramm.

Die Europäische Kommission hat der Wegwerfgesellschaft inzwischen den Kampf angesagt; seit Sommer vergangenen Jahres ist das sogenannte Right to Repair in Kraft. Mit Hilfe der Richtlinie soll es Verbraucherinnen und

DER AUTOR

Recycling vs. Refurbishment Schließlich gibt es in Unternehmen nicht selten alle paar Jahre Hunderte, wenn nicht Tausende Laptops, PCs, Smartphones & Co., die entsorgt und durch neue ersetzt werden. Häufig werden diese Geräte geschreddert und recycelt. Auf den ersten Blick mag das Wort Recycling vielleicht sogar positiv klingen. Tatsächlich gibt es aber eine weitaus nachhaltigere Lösung für eine umweltschonende Entsorgung gebrauchter IT-Hardware.

Die Rede ist vom Refurbishment. Dabei handelt es sich um die standardisierte und zertifizierte Wiederaufbereitung gebrauchter IT-Geräte. Den Assets wird somit ein

Jan Schillinger ist Director Strategy & Corporate Development beim IT-Dienstleister Green IT Solution. Foot: Felix Finger

” Ein Irrglaube, der sich beispielsweise hartnäckig hält, ist die Annahme, Daten könnten von den Geräten nicht revisionssicher gelöscht werden. Dies ist jedoch schlichtweg falsch. (Jan Schillinger)

Verbrauchern leichter gemacht werden, Elektrogeräte reparieren zu lassen. Diese Richtlinie wurde Ende 2024 auch in deutsches Recht überführt – nämlich in Form der Nationalen Kreislaufwirtschaftsstrategie (NKWS).

Diese Maßnahmen sind aus meiner Sicht auf jeden Fall ein Schritt in die richtige Richtung. Was dabei jedoch noch außen vor bleibt, ist, wie auch mehr Unternehmen dazu animiert werden können, umweltschonend mit ihrer gebrauchten IT-Hardware umzugehen. Dieser Aspekt stellt bislang einen blinden Fleck der NKWS dar. Und das, obwohl gerade im Business-Kontext der Hebel für einen ressourcenschonenderen Umgang mit ausrangierten IT-Assets besonders groß ist.

zweites Leben geschenkt, und sie können deutlich länger genutzt werden. Nachhaltig ist das vor allem deshalb, weil der größte Teil der CO2-Emissionen, die mit IT-Hardware einhergeht, bei der Rohstoffgewinnung, der Produktion und dem Transport entsteht. Konkret entfallen auf diese drei Bereiche ganze zwei Drittel der gesamten CO2-Emissionen eines IT-Assets. Sorgt man umgekehrt dafür, dass die Geräte länger im Umlauf sind, müssen automatisch weniger neue Produkte hergestellt werden – was sich wiederum positiv auf die Umwelt auswirkt.

100 Prozent sichere Datenlöschung ist möglich Dennoch schöpfen viele Unternehmen dieses Potenzial

noch nicht aus. Die Gründe dafür sind vielseitig und reichen von Compliance-Gründen bis hin zu mangelndem Wissen über den Refurbishment-Prozess. Ein Irrglaube, der sich beispielsweise hartnäckig hält, ist die Annahme, Daten könnten von den Geräten nicht revisionssicher gelöscht werden. Dies ist jedoch schlichtweg falsch. Ein professionelles Refurbishment ist dazu in der Lage, eine 100 Prozent sichere Datenlöschung zu garantieren und die DSGVO-konforme Datenlöschung auch revisionssicher zu dokumentieren.

Transparenz ist das A und O Gerade im Unternehmensfeld ist diese Verlässlichkeit absolut essenziell, schließlich liegen auf vielen IT-Geräten mitunter vertrauliche Daten vor, die für die weitere Nut-

Jeder einzelne dieser Schritte ist mit viel Arbeit verbunden. Dieser Aufwand ist jedoch notwendig, um Unternehmen ein Maximum an Transparenz zu ermöglichen und so ihr notwendiges Vertrauen zu gewinnen. Denn nur dann werden sich künftig noch mehr Firmen dazu entscheiden, ihre gebrauchte IT-Hardware lieber refurbishen statt recyclen zu lassen. Darüber hinaus sollte es Unternehmen möglich sein, den Refurbishment-Partner vor Ort zu besuchen. Auch diese Maßnahme stärkt letztendlich das Vertrauen und zeigt transparent die zertifizierten Prozesse sowie die Sicherheitsvorkehrungen vor Ort.

Unabhängig davon, dass nach wie vor ein gehöriges Maß an Aufklärung rund um das Refurbishment bei Unternehmen notwendig ist, hat sich der Markt in den vergangenen Jahren stark weiterentwickelt. Damals hatte Refur-

” Den Asstes wird ein zweites Leben geschenkt, und sie können somit deutlich länger genutzt werden.
(Jan Schillinger)

zung der Hardware entfernt werden müssen. Hilfreich ist dabei auf jeden Fall, wenn Firmen den gesamten Prozess des Refurbishments konsequent nachverfolgen können: von der Beauftragung über den Transport zum Refurbishment-Lager bis hin zur Inventarisierung der Ware, einer DSGVO-konformen und revisionssicheren Dokumentation der Datenlöschung sowie einem entsprechenden Reporting.

bished Hardware oftmals noch einen etwas fragwürdigen Ruf – es mangelte an Verlässlichkeit, ob die professionelle Wiederaufbereitung auch tatsächlich funktioniert. Heute hat sich das entscheidend gewandelt und es zeichnet sich bei immer mehr Firmen ab, wie wichtig ihnen das Thema Nachhaltigkeit ist. Daran gilt es anzuknüpfen und noch mehr Unternehmen dazu zu ermutigen, neue Wege mit ihrer gebrauchten IT-Hardware zu beschreiten. •

zuverlässige Messsystem für moderne Rechenzentren

info@pq-plus.de www.pq-plus.de

Fünf Dimensionen verantwortungsvoller Digitalisierung

Ein Kernelement, um die Energieversorgung zu transformieren, ist die Digitalisierung.

Der Gasnetzbetreiber Open Grid Europe erarbeitete anhand eines innovativen Modells, wie er verantwortungsvoll mit Daten und Algorithmen umgehen kann. Herausgekommen sind 84 nachhaltige Initiativen für den Arbeitsalltag im Bereich

Corporate Digital Responsibility. /// von Marcus Schüler

DIE ENERGIEWIRTSCHAFT IST FÜR DEN GRÖSSTEN ANTEIL

DER EMISSIONEN IN DEUTSCHLAND VERANTWORTLICH. Bis 2030 sollen die Treibhausgasemissionen des gesamten Sektors mehr als halbiert werden. Auf dem Weg in eine klimaneutrale Zukunft setzt sich Open Grid Europe (OGE) als einer der führenden Gastransporteure Europas für die Transformation der Energieversorgung ein.

DER AUTOR

Gemeinsame Methode mit messbaren Ergebnissen Basis des sechsmonatigen Projekts war ein von MHP entwickeltes Vorgehensmodell mit den fünf Dimensionen Digital Competence & Inclusion, Green IT, Tech4Good, Privacy und Digital Ethics, die wiederum verschiedene Maßnahmen umfassen. Zu Projektbeginn fand ein Kickoff-Termin bei Open Grid Europe statt, um sich einen

Marcus Schüler ist Associated Partner Artificial Intelligence bei MHP.

„Corporate Digital Resonsibility“ erweitert den traditionellen analogen Ansatz der Corporate Social Responsibility und fokussiert sich auf die sozialen Aspekte in einem digitalen, von künstlicher Intelligenz getriebenen Umfeld. (Marcus Schüler)

Zu den zahlreichen Aktivitäten in den Handlungsfeldern Ökologie, Ökonomie und Soziales gehört das Projekt „Corporate Digital Resonsibility“. Es zielt auf die Digitalisierung als ein Kernelement der Transformation ab und ist integraler Teil der Digitalisierungsstrategie. CDR erweitert den traditionellen analogen Ansatz der Corporate Social Responsibility und fokussiert sich auf die sozialen Aspekte in einem digitalen, von künstlicher Intelligenz getriebenen Umfeld. Ziel ist es, sowohl der nachhaltigen und gesellschaftlichen Verantwortung gerecht zu werden als auch den Ansprüchen von Investoren, im Sinne der ESG zu arbeiten.

Überblick über die Best Practices zu verschaffen und die Basis individuell auf das Unternehmen anzupassen. Für die Dimension Digital Ethics wurde beispielsweise definiert, dass sich OGE mit ethischen Risiken und Nebenwirkungen der Digitalisierung auseinandersetzt. Ziel ist eine vertrauensvolle Umgebung für alle Stakeholder:

Mitarbeitende, Investoren, Gesellschaft, Partner und Politik. Die Dimension Privacy & Self-Determination sieht den Schutz der eigenen digitalen Identität vor – damit Mitarbeitende selbstbestimmt handeln und autonom entscheiden können.

Anschließend erarbeitete das Team Themenkomplexe und Initiativen, die sowohl auf Reifegrad und Komplexität als auch auf Relevanz und Potenzial für SDGs, ESG sowie für Stakeholder überprüft und entsprechend gewichtet wurden. Danach erstellte es für die priorisierten Initiativen eine Roadmap. Im letzten Schritt definierte und etablierte es eine CDR Governance, um das Projekt zu operationalisieren. Zuständig ist ein Core Team, das die verschiedenen Dimensionen betreut, sich vierteljährig über Themen wie Statusupdates, Maßnahmen-, Budget- und Kommunikationsplanungen sowie Synchronisierungen mit der IT-Strategie austauscht. So wird sichergestellt, dass die Dimensionen fest in der Unternehmensstruktur und -kultur verankert sind und langfristig wirken.

Mehr als 80 konkrete Initiativen

Insgesamt kamen 19 Themen und 84 Initiativen zusammen, die das gesamte Spektrum einer verantwortungsvollen Digitalisierung abdecken. Jede Initiative wird im Arbeitsalltag als Programm oder Projekt von einem verantwortlichen Owner oder einer Ownerin gesteuert. Sie bilden das CDR-Kernteam und leiten jeweils ein interdisziplinäres Team. Den Vorsitz hat der Leiter IT-Management. Schwerpunkte bilden die Aufgabengebiete Tech for Good, verbunden mit technischen Innovationen und Innovationen für den Gastransport, Green IT, bezogen auf eine nachhaltige Infrastruktur und Arbeitsorganisation, sowie Digital Conclusion & Competence, welches auf den intensiven Aufbau digitalen Know-hows unter Mitarbeitenden abzielt.

Maßnahmen im Aufgabengebiet Tech for Good sind beispielsweise der Einsatz von Drohnen als effiziente und nachhaltige Unterstützung, etwa für Trassenerkundungen in der Leitungstechnik, für Vermessung und Baustellendokumentation sowie die Entwicklung einer Software, mit der die Netzsteuerung den Maschineneinsatz optimieren kann, um so direkte CO2-Emissionen zu reduzieren. Im Gebiet Green IT geht es unter anderem um das Leasen von refurbished Hardware oder in größeren Dimensionen um ein Modernisierungsprogramm der Netzwerktechnologie

Im Bereich „Tech for good” kommen Drohen zum Einsatz, um zum Beispiel Trassenerkundungen und Baustellendokumentationen zu unterstützen.

mit dem ab dem Jahr 2025 der Stromverbrauch um rund 40 Prozent reduziert werden soll. Die prognostizierte jährliche Einsparung entspricht dem Jahresstromverbrauch von rund 25 Vierpersonenhaushalten.

Direkter Einfluss auf den Unternehmenswert Corporate Digital Responsibility ist seit 2023 fester Bestandteil des OGE Nachhaltigkeitsberichts. Erste Programme und Projekte wurden bereits erfolgreich umgesetzt und dienen der Entwicklung zukünftiger Geschäftsmodelle. Dazu gehört eine mit Low Code, sprich ohne traditionelle Programmiersprache entwickelte App namens Shary, die Fahrgemeinschaften zwischen Kolleginnen und Kollegen vermittelt. Dadurch sollen die Emissionen für den Weg zwischen Wohnort und Arbeit reduziert werden. Seit der Veröffentlichung der App 2023 haben sich bereits 100 User registriert und es sind erste Fahrgemeinschaften entstanden. Im Bereich Green IT konnte beispielsweise eine längere Nutzungsdauer von IT-Equipment und Smartphones erreicht werden. Anklang findet auch die „Hacker School“. Hier engagieren sich Mitarbeitende als sogenannte Inspirer ehrenamtlich für Kinder und Jugendliche, speziell für solche aus einem sozioökonomisch benachteiligten Umfeld, und begeistern sie für die IT und das Programmieren. Weitere Änderungen, zu denen das Projekt beigetragen hat: Das Innovationsmanagement mit Fokus auf Digitalisierung ist seitdem fest in der Unternehmensstruktur und -kultur verankert, um Antworten auf die Herausforderungen des Branchenwandels und zukünftige Fragen rund um die Klimaziele zu finden. Green IT ist ein klarer Bestandteil der CDR-Aktivitäten geworden, um Emissionen und der Ressourcenverbrauch mithilfe von Digitalisierung zu senken. Im Bereich Digital Inclusion and Competence wurden neue Netzwerke erschlossen, etwa mit dem Digitalen Campus Zollverein und der RWTH Business School; gemeinsam bieten mit der HySchool eine Weiterbildung zum Thema Wasserstoff an. Insgesamt zahlen die Initiativen auf acht Sustainable Development Goals und vierzehn ESG-Kennzahlen ein. •

Die Kampfansage

Dennis Woodside, CEO von Freshworks, fordert etablierte Giganten wie Salesforce und ServiceNow im CRM- und ITSM-Markt heraus. Mit dem Fokus auf mittelständische Unternehmen und den europäischen Markt will er weiter Marktanteile gewinnen und die Zukunft des Kundenservice neu gestalten. /// von Heiner Sieger

Seit Ihrem Amtsantritt vor drei Jahren haben Sie Freshworks als Herausforderer im CRM- und ITSM-Markt positioniert. Was ist Ihre Strategie, um mit den etablierten Giganten zu konkurrieren?

Dennis Woodside | Freshworks konzentriert sich auf mittelgroße Unternehmen mit etwa 5000 Mitarbeitern, die oft von größeren Anbietern übersehen werden, aber auch große Konzerne. Wir bieten kostengünstige und benutzerfreundliche Lösungen, die bis zu einem Drittel der üblichen Kosten betragen und unkompliziert sind. Freshworks konkurriert auch mit Zendesk, Salesforce und ServiceNow, indem es AI-gestützte Kundenbetreuung und Software für die Mitarbeitererfahrung anbietet.

Wie unterscheidet sich Ihr Ansatz für KI-gesteuerte Lösungen von dem Ihrer Wettbewerber?

um mit Unternehmensriesen wie Salesforce und ServiceNow zu konkurrieren?

DW | Unsere Produkte bieten eine intuitive Benutzeroberfläche und leistungsstarke Automatisierungsfunktionen, die sowohl für kleine als auch für große Unternehmen geeignet sind. Dies ermöglicht es uns, eine breite Palette von Kunden zu bedienen und gleichzeitig wettbewerbsfähig zu sein.

Sie haben ein beachtliches Umsatzwachstum von 22 Prozent im vierten Quartal 2024 erzielt. Welche Schlüsselfaktoren haben diesen Erfolg angetrieben? Und wie planen Sie, dieses Momentum in den wettbewerbsintensiven CRM- und ITSM-Märkten aufrechtzuerhalten?

DW | Der Erfolg von Freshworks beruht auf der Unzufriedenheit von Unternehmen mit ihren bisherigen Dienst-

DER GESPRÄCHSPARTNER

Dennis Woodside ist seit 2022 President und CEO von Freshworks und hat das Unternehmen erfolgreich als Herausforderer im CRM- und ITSM-Markt positioniert. Vor seiner Tätigkeit bei Freshworks war er Vorstandsmitglied bei ServiceNow, CEO von Dropbox und hatte verschiedene Führungspositionen bei Google inne, darunter als Chief Operating Officer von Motorola Mobility.

DW | Unser Ansatz für KI-gesteuerte Lösungen ist darauf ausgerichtet, sowohl die Mitarbeiter- als auch die Kundenerfahrung zu verbessern. Wir setzen KI ein, um Routineaufgaben zu automatisieren und den Unternehmen zu helfen, schneller und effizienter zu skalieren. Unsere KI-Lösungen sind darauf ausgelegt, sofortigen Mehrwert zu bieten und sind einfach zu implementieren. Wir verfolgen dabei einen dreigleisigen Ansatz: Freddy AI-Agent löst sofort Kundenprobleme. Der Freddy AI Copilot: Verbessert die Fähigkeiten und Produktivität der Mitarbeiter durch Vorschläge für Antworten auf Kundenanfragen. Freddy AI Insights ist ein Produkt für Manager, das Fragen zur Geschäftsentwicklung in der eigenen Serviceumgebung beantwortet, ähnlich wie ChatGPT. Diese Lösungen sind kostengünstig, schnell einsatzbereit und out-of-the-box verfügbar.

Freshworks betont die Erschwinglichkeit und Einfachheit seiner Angebote. Wie balancieren Sie diese Prioritäten mit dem Bedarf an fortschrittlichen Funktionen,

leistern und den schnellen Entwicklungen in den KI-Lösungen. Geschwindigkeit und niedrige Kosten sind die USPs von Freshworks. Wir planen, dieses Momentum durch kontinuierliche Innovation und die Erweiterung unserer Produktpalette aufrechtzuerhalten. Zudem werden wir weiterhin in unsere Vertriebs- und Marketingstrategien investieren, um neue Märkte zu erschließen.

Wie wichtig ist der europäische KMU-Sektor für die Wachstumsstrategie von Freshworks im Rahmen dieser Strategie?

DW | Europa macht bereits 40 Prozent des Umsatzes aus, wobei Deutschland der viertgrößte Markt nach den USA, Großbritannien und Indien ist. Freshworks hat mehr als 3000 Kunden in Deutschland, darunter auch den VfB Stuttgart, der jetzt das Pokalfinale erreicht hat. Diese Unternehmen wollen ihre Effizienz verbessern und ihre Kunden besser bedienen, ohne zusätzliche Berater und Experten bezahlen zu müssen. Der europäische

KMU-Sektor ist von entscheidender Bedeutung für unsere Wachstumsstrategie. Diese Unternehmen sind das Rückgrat der globalen Wirtschaft und bieten enorme Wachstumschancen.

Ihr jüngster AI Workplace Report hat gezeigt, dass 42 Prozent der deutschen Mitarbeiter einen Jobwechsel in Betracht ziehen würden, um in Umgebungen zu arbeiten, die KI besser nutzen. Wie nutzt Freshworks diese Erkenntnis, um Unternehmen dabei zu unterstützen, Top-Talente anzuziehen und zu halten?

DW | Freshworks nutzt KI, um das Training neuer Mitarbeiter zu vereinfachen und zu beschleunigen, sowie um

einfache Probleme löst, ohne dass menschliches Eingreifen erforderlich ist. Dies reduziert die Bearbeitungszeit und verbessert die Kundenzufriedenheit. Ein weiteres Beispiel ist Freshservice, das IT-Prozesse automatisiert und die Effizienz der IT-Teams erhöht. Ein konkretes Firmenbeispiel aus Europa habe ich auch:

DPD BeLux hat innerhalb von weniger als zwei Jahren seine veraltete ITSM-Lösung auf Freshservice umgestellt und 63 Mitarbeitende mit dem neuen System ausgestattet. Dies führte zu einer wesentlichen Verbesserung der Effizienz und Produktivität der Mitarbeitenden. Dies spiegelt sich dann in einer 51-prozentigen Steigerung der Mitarbeiterzufriedenheit wider.

Da die Akzeptanz von KI weltweit wächst, welche Rolle sehen Sie für Europa bei der Gestaltung der Zukunft von KI-gesteuerten Geschäftslösungen?

DW | Europa spielt eine führende Rolle bei der Gestaltung der Zukunft von KI-gesteuerten Geschäftslösungen, insbesondere durch seine fortschrittlichen regulatorischen Rahmenbedingungen und die hohe Akzeptanz von Technologie. Europäische Unternehmen wollen ihre Serviceteams verbessern und sicherstellen, dass Servicemitarbeiter und Kunden zufriedener sind.

” Der Erfolg von Freshworks beruht auf der Unzufriedenheit von Unternehmen mit ihren bisherigen Dienstleistern und den schnellen Entwicklungen in den KI-Lösungen. Geschwindigkeit und niedrige Kosten sind unsere USPs. (Dennis Woodside)

die Anzahl langweiliger und anstrengender Fragen zu reduzieren, die Kundenagenten zu Beginn erhalten. Unsere Produkte sind darauf ausgelegt, den Mitarbeitern mehr Zeit für kreative und strategische Aufgaben zu geben, was zu einer höheren Zufriedenheit und Bindung führt.

Generative KI transformiert Arbeitsabläufe in verschiedenen Branchen. Welche spezifischen Beispiele gibt es dafür, wie die KI-Tools von Freshworks Unternehmen dabei helfen, die Effizienz und Kundenzufriedenheit zu verbessern?

DW | Ein Beispiel ist unsere KI-gesteuerte Lösung Freshdesk, die Kundenanfragen automatisch beantwortet und

Wie sehen Sie die zukünftige Entwicklung von künstlicher Intelligenz bei Freshworks, und welche neuen Anwendungsfälle erwarten Sie in den kommenden Jahren?

DW | KI wird derzeit überwiegend dazu genutzt, um Fragen zu beantworten. In Zukunft wird künstliche Intelligenz jedoch zunehmend in der Lage sein, Aktionen im Namen der Nutzer durchzuführen, wie z.B. das Management von Flügen und Reisen – eine Art persönlicher Butler. Freshworks entwickelt seine KI-Angebote in diese Richtung weiter. Mit der Zeit wird KI weit mehr für unsere Kunden und deren Kunden tun können, als nur Fragen zu beantworten. •

MILLIARDENGRAB Erreichbarkeit

Durch nicht angenommene Anrufe verschenken die meisten deutschen Unternehmen jährlich viel Geld. Frank Froux, Geschäftsführer und Gründer der matelso GmbH, erläutert im Interview, warum die telefonische Erreichbarkeit zudem ein unterschätztes Umsatzgrab ist, wie KI helfen kann, den Zustand zu verbessern, und wie die Zukunft des Vertriebs aussehen könnte. /// von Heiner Sieger

Frank, Du hast in Bezug auf die telefonische Erreichbarkeit von Unternehmen eine Zahl errechnet, die einem fast die Schuhe auszieht: 136 Millionen Euro Schaden jährlich durch verpasste Anrufe allein bei den Kunden Deines Unternehmens. Wie ist diese Zahl zustande gekommen?

Frank Froux | Die Berechnung war keineswegs ein Schnellschuss. Ich habe sie rund 25-mal durchgerechnet, weil sie selbst mir Respekt eingeflößt hat. Wir bei matelso wickeln pro Jahr etwa 15 Millionen Telefonanrufe über unsere Systeme ab – alle im Kontext von Online-Marketing-Kampagnen. Das bedeutet, dass ein Marketingverantwortlicher im Vorfeld viel Arbeit investiert hat: In den Aufbau einer Website, in Traffic-Generierung und Conversion-Optimierung. Wir wissen aus unseren Daten, dass rund 26 Prozent dieser Anrufe nicht entgegengenommen werden. Wenn man konservativ mit einem Wert von 70 Euro pro Lead rechnet – und zur Sicherheit noch 50 Prozent abzieht, um etwaige Streuverluste zu berücksichtigen –, ergibt sich eine gewaltige Summe: 15 Millionen Anrufe x

26 % x 70 Euro x 0,5. Das ergibt jährlich einen „Cashburn“ von 136 Millionen Euro – nur bei unseren Bestandskunden.

Gibt es bestimmte Unternehmensgrößen oder Branchen, die besonders von diesem Problem betroffen sind?

FF | Es wäre naheliegend, das Problem nur bei kleinen oder mittelständischen Unternehmen zu vermuten. Aber das ist ein Trugschluss. Entscheidend ist nicht die Größe, sondern ob in der Organisation ein Customer Care Center, ein Callcenter oder ein Business Development Center strukturell verankert ist. Ist das nicht der Fall, sind Erreichbarkeitsprobleme vorprogrammiert. Selbst große Weltkonzerne mit Tausenden Mitarbeitenden und internationalem Vertrieb sind betroffen – etwa im Maschinenund Anlagenbau. Mir fällt dabei immer wieder auf: In großen wie in kleinen Organisationen gibt es Datenschutz-, Sicherheits- oder Gleichstellungsbeauftragte – aber niemanden, der für Erreichbarkeit verantwortlich ist. Genau dort beginnt das Problem.

DER GESPRÄCHSPARTNER

Frank Froux

ist Gründer und Geschäftsführer der matelso GmbH aus Kaiserslautern. Seit mehr als 25 Jahren ist er als Unternehmer, Entwickler und Vordenker im Tech-Sektor aktiv. Als Pionier im Call Tracking verknüpft er Marketing und Telekommunikation zu messbaren Erfolgslösungen. Mit matelso verwaltet er Millionen von Telefonnummern und setzt auf zukunftsfähige hybride Kommunikationsmodelle.

MEHR ERFAHREN

Hier geht’s zum Podcast mit Frank Froux.

” „Erreichbarkeit ist kein Nice-to-have – sie entscheidet über Umsatz oder Verlust.“ (Frank Froux)

Wie hat sich die telefonische Erreichbarkeit im Zuge der Digitalisierung verändert?

FF | Die Digitalisierung hat uns Flexibilität gebracht –aber auch neue Herausforderungen. Heute arbeiten viele mobil: vom Homeoffice, vom Zug, von wechselnden Standorten. Was sie jedoch selten mitnehmen, ist der klassische Telefonapparat auf dem Schreibtisch. Und viele Unternehmen nutzen immer noch stationäre On-Premise-Telefonanlagen – teils sogar standortübergreifend unterschiedliche Systeme. Diese Systeme liefern keine Echtzeitdaten. Will ein Marketingverantwortlicher wissen, wie viele Anrufe eingegangen und wie viele verloren gegangen sind, stößt er an Grenzen: Man braucht spezielle Administrator-Zugänge, technisches Know-how und oft viel Geduld. Die Folge: schlechte Erreichbarkeit bleibt lange unentdeckt – und teuer.

Was ist aus technologischer Sicht nötig, um das zu ändern?

FF | Zentral ist der Umstieg auf eine Cloud-basierte Lösung. Nur so lassen sich Anrufdaten konsolidieren und über Standorte hinweg analysieren. Cloud-Plattformen ermöglichen modernes Routing, automatische Verteilung von Anrufen und eine klare Sicht auf die Erreichbarkeit. Damit das funktioniert, müssen Daten aus verschiedenen Quellen – Webseiten, Landingpages, Online-Kampagnen – intelligent miteinander verknüpft werden. Das verhindert beispielsweise, dass auf einer Website eine Rufnummer angezeigt wird, obwohl im Callcenter gerade niemand eingeloggt ist.

Wie stark ist das Thema „Daten“ mit der Frage der Erreichbarkeit verbunden?

FF | Ohne eine solide Datengrundlage ist jede Optimierung reines Bauchgefühl. Zwei Silos dominieren aktuell das Marketing: Einerseits die Welt der Webseiten und Kampagnen, andererseits die Welt der Telefonie. Diese Welten sind in vielen Unternehmen strikt getrennt. Das führt zu absurden Situationen: Telefonnummern werden ausgespielt, obwohl niemand erreichbar ist – vergleichbar mit einem Chat, der sofort antwortet: „Wir sind leider nicht da.“ Wir bei matelso setzen uns dafür ein, dass solche Disconnects überwunden werden – mit smarten, datengetriebenen Lösungen, die Öffnungszeiten, Verfügbarkeit und Besucherströme dynamisch berücksichtigen.

Kommen wir zur künstlichen Intelligenz: Welche Rolle spielt sie in der Zukunft der Erreichbarkeit?

FF | Eine entscheidende – aber nicht in allen Bereichen sofort. Wir beschäftigen uns in unserem Labor intensiv mit KI-Telefonbots. Unser Ziel: Ein automatisierter Erstkontakt per Telefon, der ein Grund-Servicelevel sicherstellt. Aber zwei Herausforderungen sind noch ungelöst: die Latenz, also wie schnell eine KI antwortet – im Telefongespräch zählt jede Sekunde – und das domänenspezifische Wissen. Ein Bot muss den „thematischen Fingerabdruck“ eines Unternehmens verstehen – seine Produkte, Preise, Prozesse. Außerdem braucht er Schnittstellen zu Kalen-

dern oder ERP-Systemen, um z.B. Termine buchen oder einen Bestellstatus abfragen zu können. An genau diesen Punkten scheitern viele Lösungen derzeit noch.

Gibt es konkrete Entwicklungen aus Ihrem „Labor“, die schon heute funktionieren?

FF | Ja, wir arbeiten an hybriden Modellen: Mensch und KI im Zusammenspiel. Ein Beispiel: Unsere KI analysiert live den sogenannten Halluzinations-Grad – also wie wahrscheinlich es ist, dass sie gerade Blödsinn erzählt. Sobald ein bestimmter Schwellenwert überschritten wird, wird der Dialog an einen Menschen übergeben. So können wir Qualität und Effizienz miteinander verbinden. Gleichzeitig bieten wir auch klassische Service-Center-Dienstleistungen an – mit echten Mitarbeitenden hier in Kaiserslautern, die im Namen unserer Kunden Telefonate oder Chats übernehmen. Gerade in Spitzenzeiten oder bei fehlendem Personal ist das ein wertvoller Zusatzservice.

Wie lässt sich all das mit dem Marketing verknüpfen –insbesondere in Bezug auf die Customer Journey und den ROI?

FF | Hier kommt unser Kernbereich Call Tracking ins Spiel. Call Tracking liefert nicht nur Transparenz über die Erreichbarkeit, sondern auch über die Performance einzelner Marketingkanäle. Unternehmen investieren viel Geld in Google Ads, Social Media oder Display-Werbung. Mit Call Tracking erkennen sie, welcher Kanal wie viele qualifizierte Leads liefert – auch telefonisch. Das erlaubt eine präzisere Budgetsteuerung und verbessert die Customer Journey.

Wie wird sich die Kommunikation zwischen Unternehmen und Kunden in den nächsten Jahren verändern?

FF | Wir denken Kommunikation nicht mehr kanal-getrennt, sondern als dialogorientierten Prozess. Unsere Plattform entwickelt sich zu einem System, das sogenannte „Dialogmarketing-Strecken“ automatisiert abbildet. Ein Beispiel: Am Monatsanfang wird ein Brief verschickt, wenige Tage später folgt eine E-Mail, dann eine SMS – bis hin zu einem automatisierten Outbound-Call oder einem QR-Code auf einer Weinflasche. Ziel ist immer: einen qualifizierten Termin mit dem Kunden zu generieren. Die Verbindung von KI, klassischer Telekommunikation und generativer Content-Produktion erlaubt es, solche Kampagnen intelligent und individuell zu gestalten. Wir glauben, dass dieser vernetzte, medienübergreifende Ansatz die Zukunft des Vertriebs ist.

Was sollten Unternehmen jetzt tun, um nicht den Anschluss zu verlieren – ganz konkret?

FF | Erstens: Das Thema Erreichbarkeit ernst nehmen und eine zuständige Person benennen – ein „Erreichbarkeitsbeauftragter“. Zweitens: Eine cloudbasierte Plattform einführen, die alle Anrufe erfasst und analysiert. Drittens: Daten und Prozesse so verknüpfen, dass echte Handlungsfähigkeit entsteht. Nur wer weiß, wann und wo Anrufe verloren gehen, kann sinnvoll reagieren – und bares Geld sparen. •

ARCHIVIERUNG: Dokumente frisch halten

Dokumentenaufbewahrung ist mehr als eine Pflicht. Richtig aufgesetzt – digital und in der Cloud – steigert ein Archiv die Effizienz bei Bezahlprozessen und Buchhaltung.

Wie sich dieser Weg Schritt für Schritt gehen lässt, zeigt das Beispiel des Tiefkühl-Spezialisten Bofrost. /// von Christoph Nordmann

DIE DIGITALE TRANSFORMATION BRINGT KOMPLEXE

HERAUSFORDERUNGEN MIT SICH. Historisch gewachsene IT-Strukturen, Datensilos und Insellösungen stehen integrierten Prozessen im Weg. Das betrifft auch das Dokumentenmanagement. Gerade das Archiv wurde lange Zeit stiefmütterlich und als reine Pflichtaufgabe behandelt. Wer Archivsysteme gezielt einsetzt, kann interne Abläufe und Prozesse besser steuern und die Effizienz im laufenden Betrieb kontinuierlich steigern. Gerade Cloud-basierte Lösungen eröffnen hier neue Spielräume, ohne bewährte Strukturen sofort aufgeben zu müssen.

So auch bei Bofrost. Das Unternehmen mit Sitz am Niederrhein ist europäischer Marktführer, wenn es um den Direktvertrieb von Tiefkühlkost geht. Allein in Deutschland zählt der Händler mehr als zwei Millionen Haushalte zu seinen Kunden und liefert Eiscreme, Gemüse, Fleisch, Fisch direkt an die Haustür. In Europa sind es knapp 4 Millionen Kunden. 1966 gegründet, blickt Bofrost heute auf insgesamt 254 Niederlassungen, an denen knapp 11.000 Mitarbeitende in ganz Europa arbeiten. Der jährliche Umsatz beläuft sich auf mehr als 1,47 Milliarden Euro.

einige große Projekte an, wobei Bofrost schon früh in entsprechende Plattformen investiert hat. So führte das Unternehmen 2006 für Deutschland und einige weitere europäische Standorte SAP als ERP-System ein. Die Lösung zielte zunächst hauptsächlich darauf, Aufgaben im Finanzbereich digital aufzustellen und zu optimieren. Schnell wurde das System um eine Archivlösung ergänzt, um die SAP-Belege revisionssicher speichern zu können. Dabei entschied sich Bofrost für Easy archive for SAP des deutschen DMS-Experten Easy Software. Die On-Premises-Version läuft seitdem auf den Firmenservern des Unternehmens und sorgt für eine reibungslose Archivierung bei minimalem Aufwand.

Unterbrechungsfreie Lösung für den Point of Sales Im Jahr 2018 startete Bofrost mit den Planungen, die Point-of-Sale-Geräte (PoS) auszutauschen. Ziel war es, die Systeme in den etwa 3.000 Auslieferfahrzeugen auf den neuesten digitalen Stand zu bringen. Als größte Herausforderung erwies sich dabei die digitale Infrastruktur in Deutschland: Nach wie vor gibt es schwarze Flecken, die nicht ausreichend mit breitbandigem Internet versorgt

” Gerade das Archiv wurde lange Zeit stiefmütterlich und als reine Pflichtaufgabe behandelt. (Christoph Nordmann)

Auf Digitalisierungs-Kurs

Aus IT-Sicht bringt eine solch lange Erfolgsgeschichte spezielle Herausforderungen mit sich. Historisch gewachsene Strukturen und dezentrale Prozesse und Systeme müssen im Zeitalter der digitalen Transformation stärker zusammengezogen werden, um Synergien zu schaffen und die Effizienz zu verbessern. Bei Bofrost zum Beispiel arbeiteten die Gesellschaften in den einzelnen Bundesländern lange Zeit sehr eigenständig, um die jeweiligen Anforderungen auf dem Markt besser erfüllen zu können. Im Zuge der Expansion in Europa und der wachsenden Digitalisierung arbeitete der Direktvertreiber derzeit jedoch daran, die Dienste in Deutschland stärker zu zentralisieren und die Geschäftsentwicklung ganzheitlich voranzutreiben. Auch für die IT stehen damit in den nächsten Jahren

sind und dadurch Konnektivitätsprobleme verursachen. Um einen unterbrechungsfreien Bezahlvorgang an der Haustür sicherzustellen, mussten die neuen Point-of-SaleGeräte auch offline zuverlässig funktionieren. Die Lösung: Alle Transaktionsdaten werden lokal zwischengespeichert und erst dann ans Backend übertragen, wenn eine stabile Verbindung besteht. Das entlastet die Verkaufsfahrer und erhöht die Kundenzufriedenheit. Vom Backend aus gelangen die Daten automatisch ins Archiv, wo Easy archive die revisionssichere Ablage übernimmt.

Zuverlässig in der Cloud Verlässlichkeit hat bei der Aufbewahrung von Dokumenten oberste Priorität. Die GoBD regelt die Aufbewahrungsfristen zu Dokumenten und verlangt je nach Dokumententyp die Archivierung von Lieferscheinen, Rechnungen

©

und Buchungsbelegen zwischen sechs und zehn Jahren. Auch die DSGVO fordert das Einhalten bestimmter Löschfristen, insbesondere wenn sensible oder personenbezogene Daten in den Unterlagen enthalten sind. Gleichzeitig versuchen viele Unternehmen, den Pflegeaufwand für Archivlösungen so gering wie möglich zu halten.

Die IT-Verantwortlichen von Bofrost entschieden sich daher, Easy archive als Cloud-Lösung in den Bezahlprozess zu integrieren. In der Praxis haben sich die Erwar-

lässig und verursacht keinen spürbaren Mehraufwand für die IT. Schließlich gilt es, die Digitalisierung auch unter betriebswirtschaftlichen Gesichtspunkten sinnvoll anzugehen. Das heißt: Bestehende Ressourcen optimal zu nutzen und getätigte Investitionen zu erhalten.

Der graduelle Übergang in die Cloud stellt eine wichtige Strategie für Unternehmen dar, um Geschäftsprozesse ohne Unterbrechungen ins digitale Zeitalter zu überführen und die interne IT-Infrastruktur für kommende tech-

” Schließlich gilt es, die Digitalisierung auch unter betriebswirtschaftlichen Gesichtspunkten sinnvoll anzugehen (Christoph Nordmann)

tungen an das Archiv erfüllt. Letztendlich kommt nur die Buchhaltung damit in Berührung, wenn es darum geht, bestimmte Belege zu überprüfen und nachzuhalten. Derzeit greifen die Mitarbeitenden über eine Weboberfläche auf das Archiv zu. In Kürze soll das bestehende System jedoch durch SAP ersetzt und das Archiv daran angeschlossen werden. Dann können Anwender im Rechnungswesen in SAP einen Bon aufrufen und über diesen Link direkt auf die Weboberfläche ins easy Archiv springen.

Zukunftsfähige IT-Architektur

Die klare Vorgabe von Bofrost lautet: Cloud-first. Doch noch hat sich das Unternehmen nicht von seiner On-Premises-Archivlösung verabschiedet. Das hat zum einen historische Gründe. Zum anderen läuft die Lösung zuver-

DER AUTOR

Christoph Nordmann leitet die Unternehmenskommunikation der Easy Software. Bild: Easy Software

nologische Herausforderungen aufzustellen. Die Integration von künstlicher Intelligenz zählt dabei aktuell zu den größten Aufgaben. Unternehmen, die bereits über eine zukunftsorientierte IT- und Cloud-Architektur verfügen, können KI-Lösungen schneller einführen und gezielt zur Optimierung ihrer Geschäftsprozesse einsetzen – auch im Dokumentenmanagement. •

So druckt und scannt man sicher

Jede Organisation muss heute davon ausgehen, Opfer einer Cyberattacke zu werden. Was oft vernachlässigt wird: IT-Sicherheit beginnt beim Multifunktionssystem (MFP) oder Drucker. Sieben Sicherheitsbausteine, wie die Print-Infrastruktur geschützt werden kann. /// von Philipp Wanner

DIE CYBERGEFAHREN BETREFFEN HEUTZUTAGE ALLE BEREICHE, DIE AUF IRGENDEINE WEISE VERNETZT SIND. Das gilt auch für Multifunktionssystem. Folgende sieben Tipps sorgen für Sicherheit:

1. Verschlüsselung: Ein wichtiger Baustein im Sicherheitskonzept für DIN-A4- und DIN-A3-Geräte ist, dass sie Dokumente und Benutzerdaten automatische überschreiben und verschlüsseln sollten vor Speicherung auf der Festplatte. In einem Sicherheitschip – dem Trusted Platform Module (TPM) – können darüber hinaus sensible Informationen, wie Passwörter oder Zertifikate, geschützt werden.

2. Authentifizierung: Eine Anmeldung per PIN oder Chip stellt sicher, dass nur berechtigte Personen Zugriff auf die Geräte haben. Die Funktion „Follow2Print“ sorgt dafür, dass Druckaufträge erst nach Authentifizierung am System ausgeführt werden, was vor Informationsdiebstahl schützt.

3. Firmwareschutz: Sichere MFP und Drucker verfügen über einen umfassenden Hardwareschutz, der dafür sorgt, dass nur geprüfte Firmware-Versionen installiert werden. Gegen Trojaner haben sich zwei Schutzmechanismen bewährt: Die Funktion „Secure Boot“ prüft bei der Inbetriebnahme, ob autorisierte Firmware ausgeführt wird.

Der „Runtime Integrity Check“ verifiziert im laufenden Betrieb regelmäßig die Gültigkeit.

4. Datenschutz für Kritische Infrastrukturen: Unternehmen mit Kritischen Infrastrukturen (KRITIS) unterliegen strengen Sicherheitsrichtlinien, wie der EU-Richtlinie zur Netzwerk- und Informationssicherheit (NIS-2-Richtlinie). Um die Anforderungen zu erfüllen, sind MFP und Drucker optimalerweise mit einem automatisierten Zertifizierungsmanagement (ACM) ausgestattet, das Risiken durch ungültige Zertifikate eliminiert, indem es Ablaufdaten von Zertifikaten überwacht und diese automatisch erneuert. Darüber hinaus sollten aktuelle Kommunikationsprotokolle (TLS 1.3) für eine sichere Übertragung eingesetzt werden.

5. Regelmäßige Updates: Auch bei Multifunktionssystemen sollten regelmäßige Software-Updates dafür sorgen, dass die Gerätesicherheit auf dem neuesten Stand bleibt. Dies gelingt zum Beispiel durch ein modernes Flottenmanagement, das als digitale Schaltzentrale ein stetiges Monitoring der Druckerflotten leistet und notwendige Updates automatisch durchgeführt.

DER AUTOR

Philipp Wanner ist Produktmanager bei TA Triumph-Adler und für die Fachhandelsmarke Utax. Bild: Utax

6. Monitoring in Echtzeit: Sicherheitsbedrohungen zu erkennen und diese abzuwehren, bevor sie Schaden anrichten, ist eine zentraler Baustein von zeitgemäßen IT-Sicherheitskonzepten. Sichere MFP können hierfür sogenannte Syslog-Protokolle (System Logging Protocol) in Echtzeit erstellen, die mit einem externen SIEM-Server (Security Information and Event Management) kommunizieren. Bei Gefahren wird automatisch eine Nachricht an die IT geschickt. Treten Unregelmäßigkeiten auf, können diese im Nachgang über Log-Protokolle überprüft werden.

7. Zertifizierte Sicherheit: MFP und Drucker sollten Sicherheitsstandards erfüllen, die durch entsprechende Zertifikate, wie etwa den internationalen Sicherheitsstandard der Common Criteria for Information Technology Security Evaluation ISO 15408 EAL2 (Evaluation Assurance Level) verifiziert sind. Dieser stellt objektiv fest, ob Sicherheitsfunktionen korrekt ausgeführt werden. Sinnvoll ist auch der Sicherheitsstandard IEEE 2600.2 des Institute of Electrical and Electronics Engineers (IEEE). •

Data Culture für das KI-Zeitalter

Eine klare Sicht auf die Daten des Unternehmens zu haben, bedeutet Business-Potenziale leichter heben zu können und schafft im KI-Zeitalter die Basis für hochwertige Analyse-Erkenntnisse. Dazu braucht es eine gute Datenstrategie. Wie sie sich erfolgreich umsetzen lässt und warum sie sich gerade auch für Mittelständler lohnt. /// von Karl Abert

FÜR DIE MEISTEN IT-VERANTWORTLICHEN MITTELSTÄNDISCHER UNTERNEHMEN steht im Vordergrund, mit passenden Business-Applikationen für durchgängige Prozesse zu sorgen. Dies hat dann zur Folge, dass Unternehmensdaten der verschiedenen Abteilungen in den jeweiligen Applikationen gespeichert und für die Nutzung im Prozessverlauf optimiert sind. Ergänzend entstehen erhebliche Mehrwerte, sobald mit einer geeigneten Datenstrategie diese Daten aus ihren jeweiligen Applikationskontexten gelöst und unternehmensweit nutzbar gemacht werden.

Was eine gute Datenstrategie ausmacht: Nicht ohne klare Data-Governance

Eine erfolgreiche Datenstrategie betrachtet Daten als Ressource, die im ganzen Unternehmen zur Verfügung steht und abteilungsübergreifend genutzt werden kann. Sie umfasst neben der technologischen, auch die operative und kulturelle Ebene und sollte strategisch auf die Geschäftsziele ausgerichtet sein. Dann kann sie durch eine robuste und skalierbare Infrastruktur effizient umgesetzt und als Quelle für neue Erkenntnisse aus den verfügbaren Daten verankert werden. Eine klare Data Governance darf dabei nicht fehlen: Sie ist das verbindliche Regelwerk, das die Nutzung von Daten im Unternehmen vorgibt sowie Zugriffsrechte, Vorgehensweisen und Verantwortlichkeiten definiert.

wünschte Value Chain für die Datenanalyse erarbeiten, die technische Architektur konzipieren und umsetzen, um dann erste Ergebnisse zu validieren und die Akzeptanz bei wichtigen Nutzern zu etablieren – ein Prozess, der mehrmals durchlaufen werden kann, um zu lernen und Ergebnisse weiter zu verbessern.

So profitieren Mittelständler von einer neuen Data Culture Damit eine Datenstrategie ihren vollen Nutzen entfaltet, gilt es, das datenorientierte Denken und Handeln bei Mitarbeitenden zu etablieren und zu verankern.

Ziel ist, eine sinnvolle Transparenz für alle zu schaffen und gleichzeitig einen verantwortungsvollen Umgang mit Daten zu gewährleisten. Eine solche abteilungs-

DER AUTOR

Karl Abert ist Senior Consultant bei der BTC AG.

” Eine erfolgreiche Datenstrategie betrachtet Daten als Ressource, die im ganzen Unternehmen zur Verfügung steht und

abteilungsübergreifend genutzt werden kann. (Karl Abert)

Der Weg zur Transformation: Pragmatisch einsteigen, kontinuierlich erweitern

Die Transformation zum datengetriebenen Unternehmen ist ein Veränderungsprozess auf vielen Ebenen, der kontinuierlich stattfindet und iterativ gestaltet werden kann. Bewährt hat sich ein Vorgehen, das pragmatisch mit den Use Cases einsteigt, welche die Mehrwerte der neuen datenorientierten Perspektive sichtbar machen. Für diese ersten Leuchtturm-Projekte lässt sich die ge-

übergreifende Nutzung von Unternehmensdaten lohnt sich dann gerade auch für Mittelständler: Sie kann zum Beispiel durch Verbindung von Verkaufszahlen und Lagerstatistiken unmittelbar positive Synergieeffekte in der Einkaufssteuerung und in der Lagerhaltung schaffen. Außerdem sorgt eine konsequente Datenstrategie für die notwendige Basis, damit KI mit hochwertigen Daten valide Ergebnisse für attraktive Business-Szenarien liefern kann. •

In fünf Schritten zur e-Invoicing-Compliance

Die Art, wie Unternehmen Rechnungen erstellen, hat sich in den letzten Jahrzehnten grundlegend verändert. Und seit diesem Jahr gilt in Deutschland in Teilen die E-Rechnungspflicht. So klappt die rechtssichere Umsetzung. /// von Philipp Liegl

DIE VIDA-INITIATIVE (VAT IN THE DIGITAL AGE) MARKIERT einen bedeutenden Schritt in Richtung einer einheitlichen, digitalen Umsatzsteuer-Erhebung in der EU. Ziel der Europäischen Kommission ist es, ein verbindliches Rahmenwerk für E-Invoicing und digitale Meldesysteme zu schaffen, um die Rechnungsstellung europaweit zu harmonisieren. Das deutsche Wachstumschancengesetz greift diese Entwicklung auf und setzt erste nationale Maßnahmen um. Diese regulatorischen Entwicklungen verändern nicht nur den rechtlichen Rahmen, sondern auch die Art und Weise, wie Unternehmen ihre internen Prozesse gestalten müssen. Steuerliche Verpflichtungen galten früher als eigenständige Unternehmensfunktion. Heute sind sie tief in die digitalen Transaktionssysteme eingebettet. Wie herausfordernd der Wandel ist, zeigt eine Vertex-Studie: 75 Prozent der Unternehmen kämpfen intern mit den sich verändernden Steueranforderungen.

Zukunftssichere Steuerprozesse

Um den globalen Steueranforderungen gerecht zu werden, sollten Unter-

DER AUTOR

nehmen die folgenden Maßnahmen als Best Practices beachten:

1. Veränderung vorausdenken: Wer Compliance-Anforderungen zu spät umsetzt, riskiert teure Übergangslösungen, daher sollten Unternehmen IT-Ressourcen und Integrationszeiträume frühzeitig einplanen, um eine nahtlose Anpassung an neue Vorschriften sicherzustellen.

2. Insights durch Austausch: Regelmäßige Updates, Branchendiskussionen und der Austausch mit Behörden, Verbänden und Experten helfen Unternehmen, sich frühzeitig abzusichern. IT-Entscheider sollten zusätzlich Webinare und User-Gruppen ihrer Anbieter nutzen, um über neue Lösungen und Compliance-Anforderungen informiert zu bleiben.

4. Skalierbar denken:

Flexible und skalierbare Lösungen sind essenziell für die nahtlose Umsetzung gesetzlicher Änderungen. E-Invoicing-Plattformen mit konfigurierbaren Regeln, anpassungsfähigen Integrationen und einem skalierbaren steuerlichen Compliance-Rahmen ermöglichen internationalen Unternehmen effizientes Handeln über mehrere Länder-Gerichtsbarkeiten hinweg.

3. Automatisierung nutzen: Die Automatisierung von Compliance-Prozessen ist für Steuerexperten entscheidend, da sie Fehlerquellen reduziert und den Umstieg auf steuerliches Echtzeit-Reporting erleichtert. Intelligente Rechnungssysteme mit dynamischer Steuerberechnung, Echtzeitvalidierung und vorgefertigten ERPKonnektoren ermöglichen sofortige Transaktionsmeldungen und vereinfachen Integration und Wartung.

Philipp Liegl ist Managing Director bei Ecosio, ein Vertex-Unternehmen, und verantwortet die Bereiche Revenue, SAP-Integration und elektronische Rechnungsstellung. Bild: Vertex

5. Ressourcen strategisch steuern: Risikoreiche Bereiche in den Steuerprozessen sollten gezielt identifiziert und Ressourcen entsprechend verteilt werden, insbesondere in Regionen mit strengen Steuerauflagen. IT-Teams arbeiten dafür mit Anbietern zusammen, um Testumgebungen und Validierungsverfahren pro Länder-Gerichtsbarkeit einzurichten und Lösungsupdates reibungslos umzusetzen.

Ein Blick nach vorn

Je nach Unternehmensgröße ist die Einführung von E-Invoicing bereits verpflichtend oder wird es in naher Zukunft sein. Eine geeignete Softwarelösung ist daher unerlässlich, um Compliance-Vorgaben einzuhalten sowie Prozesse effizient zu gestalten. Im Kontext fortschreitender Digitalisierung und künstlicher Intelligenz kann eine integrierte, digitale Lösung somit zum Wettbewerbsvorteil werden. •

MOBILE KOMMUNIKATION

Security für alle inklusive:

So leistungsfähig ist der neue Mobiltarif für den Mittelstand

Die neuen Mobilfunktarife der Telekom statten bis zu zehn Mitarbeitende mit SIM-Karten aus. Zusätzlich schützt die integrierte Option Security OnNet Basic die User vor dem Zugriff auf betrügerische Webseiten aus dem Mobilfunknetz.

VON UNTERWEGS DEM KUNDEN ANTWORTEN, per Smartphone von überall auf die Cloud-Anwendungen des Betriebs zugreifen oder einfach jederzeit erreichbar sein: Mobile Kommunikation ist für viele Unternehmen ein wirksamer Faktor, um effizienter zu arbeiten und die Digitalisierung voranzutreiben. Entsprechende Tarife mit mehreren SIM-Karten für die Belegschaft sind vor allem für kleine und mittelständische Unternehmen bislang aber oftmals eine kostspielige Angelegenheit. Ganz zu schweigen vom erhöhten Sicherheitsrisiko, das entsteht, wenn Mitarbeitende vermehrt das Mobilfunknetz für ihre Kommunikation nutzen.

Die neuen Mobilfunktarife der Telekom für kleine und mittelständische Unternehmen stärken nicht nur die flexible Kommunikation in den Betrieben. Mit der kostenlos integrierten Option Security OnNet Basic tragen die Tarife auch dazu bei, die Gefahr von Cyberangriffen aus dem Mobilfunknetz heraus zu minimieren.

Gefahr durch Phishing oder Datenmanipulation Zu typischen Cyberangriffen auf dem Smartphone zählen etwa Phishing-Nachrichten. Bei diesen Angriffen sollen Mitarbeitende durch täuschend echte Nachrichten dazu verleitet werden, schädliche Links zu öffnen oder vertrauliche Informationen preiszugeben. Die Angreifer geben sich dabei oftmals als bekannte Zahlungs-, Post- oder Logistikdienstleister aus, um ihre Opfer zu täuschen. Aber auch sogenannte Man-in-the-Middle-Angriffe kommen häufig vor. Dabei können Angreifer den Datenverkehr mitlesen oder sogar manipulieren.

Security als kostenlose Kernleistung

Die 5G-fähigen Business-Mobilfunktarife der Telekom sind in vier Größen erhältlich, in den Tarifgrößen L und XL sogar mit unlimitierten Datenvolumen. In allen Tarifen können Betriebe bis zu zehn SIM-Karten für weitere Mitarbeitende hinzufügen und sparen dabei bis zu 70 Prozent der Kosten. Erstmals verfügen Unternehmen durch die neuen Tarife zudem über eine integrierte Sicherheitsfunktion. Die Option Security OnNet Basic im Mobilnetz der Telekom erkennt Bedrohungen im mobilen Internet und bietet einen Basisschutz für die entsprechenden Endgeräte. So blockiert Security OnNet Basic beispielsweise den Zugriff auf bedrohliche Inhalte betrügerischer Webseiten, die sensible Daten abgreifen wollen, und schützt User in den Unternehmen vor bösartigen Botnetze. Der Effekt: Nutzer sind gut geschützt im Mobilfunknetz der Telekom unterwegs.

Der Schutz erfolgt netzwerkbasiert im Mobilfunknetz der Telekom. Das Besondere dabei: Kunden müssen keine zusätzliche App herunterladen, haben keinen Mehraufwand bei der Verwaltung der Security-Leistung und benötigen keinen eigenen Sicherheits-Experten für die Nutzung von Security OnNet Basic.•

Hier finden Sie weitere Infos zu den Mobilfunktarifen für Geschäftskunden.

Erfolgreiche Strategien für eine sichere Cloud-Nutzung

Professionelle Cloud-Security ist äußerst komplex. Unternehmen sollten sich daher auf folgende Aspekte konzentrieren, die besonders wichtig sind: Das Konzept der Shared Responsibility, die Gestaltung einer sicheren Architektur, Authentifizierung und Autorisierung sowie die kontinuierliche Überwachung und Härtung der Cloud-Anwendungen. /// von Dr. Markus Sedlatschek

SHARED RESPONSIBILITY IST EIN WICHTIGER ASPEKT FÜR DIE SICHERHEIT in der Cloud. Sie steht für die geteilte Verantwortung zwischen Cloud-Anbieter und Kunden.

Der Cloud-Anbieter schützt die physische und virtuelle Infrastruktur, während Unternehmen ihre Systeme und Daten innerhalb dieser Umgebung absichern. Konkret stellt der Cloud-Anbieter Rechenzentren, Server, Netzwerke und die Virtualisierungsschicht bereit und kümmert sich um die physische Sicherheit (z.B. Brandschutz und Zutrittskontrollen) sowie die IT-Sicherheit (z.B. durch Sicherheitsupdates der Virtualisierungssoftware) dieser Komponenten.

Unternehmen müssen hingegen ihre Daten bei Bedarf verschlüsseln, sichere Zugriffskontrollen konfigurieren und regelmäßige Updates sowie Patches für Betriebssysteme und Anwendungen durchführen. Je nach Cloud-Service – Infrastructure as a Service (IaaS), Platform as a Ser-

DER AUTOR

vice (PaaS) oder Software as a Service (SaaS) – variieren die Verantwortlichkeiten. Während die Kunden bei IaaS noch das Betriebssystem und die Middleware verwalten, übernimmt der Cloud-Anbieter bei PaaS bereits Betriebssystem und Middleware wie Datenbanken. Bei SaaS verantwortet der Cloud-Anbieter den gesamten Technologie-Stack, beim Kunden liegt der Fokus schließlich nur auf dem Schutz von Nutzerkonten und Daten.

Sichere Architektur:

Schutz durch Trennung und Zugriffskontrolle

Eine gut durchdachte Architektur bildet die Grundlage für Cloud-Security. Unternehmen sollten Anwendungen so gestalten, dass kritische Komponenten voneinander getrennt bleiben. Virtuelle Netzwerke mit getrennten Netzen und Security Groups helfen dabei, klare Abgrenzungen zu schaffen. Besonders wichtig ist

Dr. Markus Sedlatschek ist tätig als Head of Solution Architecture bei der WIIT AG.

eine strikte Trennung zwischen Produktions-, Test- und Entwicklungssystemen. Darüber hinaus sollte die Sicherheitsarchitektur in mehreren Schichten aufgebaut sein:

• Präsentationsschicht (zum Beispiel Webserver, Load Balancer): Da diese Ebene dem Internet ausgesetzt ist, erfordert sie besondere Schutzmaßnahmen.

• Applikationsschicht: Diese enthält die „Geschäftslogik“ der Applikation und sollte nur von der Präsentationsschicht aus zugänglich sein.

• Persistenzschicht (zum Beispiel Datenbanken, Speicherlösungen): Sie sollte ausschließlich von der Applikationsschicht erreichbar sein.

Durch den konsequenten Einsatz von Security Groups kann auf jede Schicht nur von der darüber liegenden Schicht zugegriffen werden.

Authentifizierung und Autorisierung: Wer darf was? Bei der Vergabe von Berechtigungen an Nutzer und Systeme sollte immer das Least-Privilege-Prinzip angewandt werden. Vergeben werden nur die minimal notwendigen Berechtigungen, um das Risiko eines unbefugten Zugriffs zu minimieren. Moderne Identitätsmanagement-Lösungen ermöglichen eine zentrale Verwaltung von Nutzern und deren Berechtigungen.

Multi-Faktor-Authentifizierung (MFA) schützt zusätzlich vor unbefugtem Zugriff. Unternehmen sollten alle Zugriffsanfragen über ein Ticketsystem dokumentieren und genehmigen lassen Regelmäßige Audits helfen, veraltete Berechtigungen zu entfernen und Sicherheitsrisiken zu verringern.

Härtung und Überwachung:

Cloud-Security als fortlaufender Prozess

Cloud-Security endet nicht mit der ersten Konfiguration. Unternehmen müssen ihre Sicherheitsmaßnahmen kontinuierlich mit folgenden Maßnahmen überprüfen und optimieren:

• Regelmäßige Updates für Betriebssysteme, Middleware und Anwendungen, um Sicherheitslücken zu schließen.

• Minimierung der Angriffsfläche, indem unnötige Dienste und Standardkonten deaktiviert werden.

• Penetrationstests und Sicherheitsanalysen, um Schwachstellen frühzeitig zu erkennen. Die OWASP Top Ten bieten eine wertvolle Orientierung für häufige Sicherheitsrisiken in Webanwendungen.

Zur Überwachung sicherheitsrelevanter Ereignisse eignen sich Security Information and Event Management (SIEM)-Lösungen. Diese analysieren Log-Daten aus verschiedenen Quel-

len und helfen, verdächtige Aktivitäten frühzeitig zu identifizieren. Besonders sensible Administratorenzugriffe sollten durch Privileged Access Management (PAM)-Systeme geschützt werden. Diese ermöglichen es, administrative Rechte nur temporär und für spezifische Aufgaben zu vergeben. Dadurch sinkt das Risiko von Missbrauch oder kompromittierten Konten.

Cloud-Security erfordert Zusammenarbeit

Die Sicherheit von Cloud-Umgebungen erfordert eine enge Zusammenarbeit zwischen Cloud-Anbieter und Unternehmen. Während Cloud-Anbieter eine sichere Infrastruktur bereitstellen, müssen Unternehmen ihre eigenen Systeme, Daten und Zugriffsrechte absichern. Eine durchdachte Architektur, strenge Zugriffskontrollen und kontinuierliche Überwachung helfen dabei, die Vorteile einer Cloud-Umgebung sicher zu nutzen.

Unternehmen können das Risiko von Angriffen und Datenverlusten erheblich reduzieren, indem sie bewährte Sicherheitsmaßnahmen umsetzen und ihre Strategien regelmäßig überprüfen. Cloud-Security bleibt ein fortlaufender Prozess, der eine Kombination aus Technologie, klaren Prozessen und Sensibilisierung der Mitarbeitenden erfordert. •

Sichern Sie sich jetzt Ihr exklusives Abonnement!

www.digital-business-cloud.de/ abonnement/

KI-Agenten –nützliche Helferlein im Kundendienst

Die Nutzung von Daten für KI-Agenten steht derzeit im Fokus vieler Unternehmen. Salesforce bietet mit der Plattform Agentforce mehrere hundert standardisierte KI-Agenten für eine Vielzahl von Branchen. Im Gespräch erklärt Patrick Heinen, VP Solution Engineering bei Salesforce Deutschland, warum eine Do-it-yourself-Strategie im KI-Bereich meist nicht erfolgreich ist und welches Potenzial in KI-Agenten steckt. /// von Stefan Girschner

Salesforce hat mit Agentforce mehrere hundert KI-Agenten bereitgestellt. Welchen Mehrwert erhalten Unternehmen durch agentische KI?

Patrik Heinen | Kürzlich wurde bereits das Release 2.0 von Agentforce veröffentlicht, dabei handelt es sich um unsere Plattform für KI-Agenten. Wir bieten bereits seit über zehn Jahren mit Einstein einen eigenen KI-Layer an und haben tatsächlich früh mit Predictive AI, Machine Learning und Bildanalyse begonnen und diese Technologien in unsere Lösungen integriert. Doch mit dem Aufkommen generativer KI im Jahr 2022 hat eine neue Ära begonnen.

Agentforce nutzt nicht nur die Daten selbst, sondern auch deren semantische Beschreibung. Wenn ich einer KI lediglich rohe Daten zur Verfügung stelle, muss sie selbst verstehen, was sie mit diesen Daten tun soll und wie diese im Verhältnis zueinander stehen. Liegen diese Informationen jedoch bereits auf unserer Plattform vor, kann der KI-Agent die Daten ganz anders – nämlich deutlich effektiver – nutzen. Ein Beispiel aus dem Kundenservice: Ruft ein Kunde an, muss er einem Chatbot zunächst erklären, wer er ist. Ein KI-Agent hingegen, der auf diese relevanten Daten zugreifen kann, authentifiziert den Kunden beispielsweise anhand der Kundennummer. Weil der KI-Agent natürliche Sprache versteht, kann er auch komplexe Kundenanliegen korrekt einordnen. Das bedeutet: Der Agent hat sofort vollständigen Zugriff auf alle relevanten Kundeninformationen.

DER GESPRÄCHSPARTNER

Patrick Heinen

Ein Servicemitarbeiter müsste sich diese zunächst mühsam aus der Kundenhistorie zusammensuchen. Mit Agentforce hingegen werden ihm die benötigten Informationen sofort angezeigt.

Wie lassen sich Daten aus anderen IT-Systemen einbinden?

PH | Wenn ich beispielsweise Daten aus einem Order-Management habe, das auf einem SAP-System basiert, kann ich diese direkt mit Salesforce verbinden. Ein KI-Agent verfügt über die Fähigkeit, vollständig autonom zu agie-

ist Senior Director, Solution Engineering Cloud Sales bei Salesforce Deutschland.

ren. Im Gegensatz dazu arbeiten Chatbots meist mit Entscheidungsbäumen: Stellt ein Kunde eine Frage, gibt der Chatbot eine vordefinierte Antwort. Copiloten hingegen richten sich nicht direkt an Kunden, sondern unterstützen Servicemitarbeiter – beispielsweise bei der Formulierung von E-Mails.

KI-Agenten gehen noch einen Schritt weiter: Sie sind trainierbar und können autonom handeln. Damit übertreffen sie klassische Chatbots deutlich in ihrer Funktionalität. Sie lassen sich flexibel über verschiedene Kanäle einsetzen und agieren selbstständig – zum Beispiel indem sie Bestellungen auslösen oder Mitarbeiter proaktiv anschreiben. Daher bezeichnen wir unsere Agentforce Plattform auch als Digital-Labor-Plattform. Sie ermöglicht es Unternehmen, ihre bestehende Belegschaft gezielt durch digitale Mitarbeiter zu erweitern.

Für welche Einsatzfelder eignen sich KI-Agenten?

PH | Es gibt unterschiedliche Anwendungsbereiche für KI-Agenten. Ein bedeutender Einsatz erfolgt intern. So können Mitarbeiter die KI-Agenten von Agentforce beispielsweise zu Lizenzmodellen befragen. Der KI-Agent liefert nicht nur relevante Links, sondern erklärt auch die zugrundeliegende Funktionsweise und liefert eine Zusammenfassung der hinterlegten Dokumente. Ohne den Einsatz eines KI-Agenten hätte der Mitarbeiter hierfür einen Experten konsultieren müssen, außerdem wären weitere Recherchen erforderlich.

Für den Einsatz von KI-Agenten eignet sich insbesondere der Kundenservice. Unser eigener Kundenservice-Agent unter help.salesforce.com beantwortet zum Beispiel bis zu 40.000 Anfragen pro Woche – mit einer Erfolgsrate von 83 Prozent beim ersten Kontakt – und er ist prinzipiell unbegrenzt skalierbar. Aufgaben, die früher von Mitarbeitern erledigt wurden, können so automatisiert werden. So können sie sich jetzt um wichtigere und

nigen Informationen extrahieren, die für den Einsatz von KI erforderlich sind.

Wie stellt Salesforce die KI-Agenten bereit?

PH | Für die KI-Agenten stellen wir einen dedizierten Daten-Layer in unseren Rechenzentren bereit. Nutzt ein Unternehmen zum Beispiel unsere Service-Lösung, werden relevante Daten – wie Kundendaten, Servicehistorie, Anrufprotokolle - dort gespeichert. Möchte das Unternehmen diese Informationen anreichern, können entweder externe Datenquellen angebunden oder vorhandene Daten direkt über den Daten-Layer genutzt werden. Gerade bei großen Unternehmen mit Millionen von Kundendaten hat sich im Laufe der Zeit ein erheblicher Datenbestand angesammelt, der nicht unnötig dupliziert werden sollte. Hier kommen moderne Technologien zum Einsatz, mit denen Daten in Echtzeit gestreamt werden – und zwar genau dann, wenn sie benötigt werden. Das ist deutlich effizienter, denn abgerechnet wird nicht nach der Anzahl der Lizenzen, sondern nutzungsbasiert. Daraus ergibt sich ein entscheidender Architekturgrundsatz für KI-Anwendungen: Sie sollten so konzipiert werden, dass sie möglichst wenige Daten konsumieren, ohne dabei an Funktionalität und Relevanz einzubüßen.

Wo liegen die Herausforderungen bei der Einführung von KI-Agenten?

” KI-Agenten sind trainierbar und können autonom handeln. Damit übertreffen sie klassische Chatbots deutlich in ihrer Funktionalität. Sie lassen sich flexibel über verschiedene Kanäle einsetzen und agieren selbstständig – zum Beispiel indem sie Bestellungen auslösen oder Mitarbeiter proaktiv anschreiben. (Patrick Heinen)

dieser Technologien sicher und compliant zu gestalten – insbesondere im Hinblick auf den Umgang mit personenbezogenen Daten. Dabei unterstützt wesentlich der integrierte Trust Layer mit eingebauten Leitplanken, mit denen festgelegt wird, ab wann ein Vorgang an andere Mitarbeiter übergeben werden soll.

Unsere Kunden können jedes beliebige LLM sicher nutzen, da der Trust Layer dafür sorgt, dass die Daten aus Salesforce anonymisiert verarbeitet werden und effektiv vor unbefugtem Zugriff geschützt sind. •

PH | Zunächst stellt sich die Frage der Akzeptanz: Mitarbeiter müssen sich mit den neuen Systemen vertraut machen. Viele von ihnen haben die Mehrwerte von KI-Agenten schon erkannt. Umfragen einiger unserer Kunden zeigen, dass viele Mitarbeiter bereits privat kostenpflichtige ChatGPT-Accounts nutzen. Daraus entsteht für Unternehmen ein zunehmender Druck, geeignete KI-Tools auch im beruflichen Umfeld bereitzustellen. Gleichzeitig tragen Unternehmen die Verantwortung, den Einsatz anspruchsvollere Aufgaben kümmern. Gerade repetitive Aufgaben im Servicebereich lassen sich durch Agenten effizient übernehmen. Dazu werden die KI-Agenten über eine interne Wissensdatenbank mit Produkt- und Unternehmensdaten versorgt. Andernfalls wäre es schwierig, aus den unstrukturierten Dokumenten einen tatsächlichen Mehrwert für KI zu generieren. Mit der Data Cloud bietet Salesforce eine Lösung, um unstrukturierte Daten zu harmonisieren und gleichzeitig deren semantische Bedeutung zu erfassen. Damit lassen sich genau dieje-

Die Evolution der Automatisierung

In der jüngsten Zeit hat sich die Automatisierung durch den Einsatz fortschrittlicher KI-Technologien erheblich weiterentwickelt. Während frühere Lösungen, wie einfache Chatbots lediglich vordefinierte Anfragen beantworteten, ermöglichen moderne KI-Agenten eine neue Dimension der intelligenten Automatisierung: Sie arbeiten autonom, treffen Entscheidungen und interagieren mit bestehenden Systemen. /// von Michael Wallner

WAS GENAU UNTERSCHEIDET KI-AGENTEN VON KLASSISCHEN AUTOMATISIERUNGSTOOLS? Wo stehen sie heute – und wie werden sie sich bis 2030 weiterentwickeln?

Von Chatbots zu autonomen KI-Agenten

Die ersten Automatisierungslösungen im Kundenservice waren regelbasierte Chatbots, die einfache Aufgaben übernahmen. Diese frühe Technologie war jedoch stark begrenzt: Ohne tiefere Analysefähigkeiten und aufgrund begrenzter Entscheidungsautonomie, blieben diese Systeme jedoch reaktive Werkzeuge ohne tiefergehen-

DER AUTOR

• Entscheidungsfähig statt passiv: KI-Agenten treffen eigenständig fundierte Entscheidungen auf Basis von Daten und Kontext.

Status quo: Wo stehen KI-Agenten heute? KI-Agenten eröffnen ein breites Spektrum an Einsatzmöglichkeiten – von klassischen Bereichen wie Kundenservice und HR bis hin zu sicherheitskritischen Feldern wie Security Operations (SecOps). Fortschrittliche Plattformen unterstützen Unternehmen bei der nahtlosen Integration und effizienten Nutzung von KI-Agenten. Jüngste

Michael Wallner ist Head of Generative AI GTM | EMEA Central bei ServiceNow.

de Interaktionsfähigkeit. Ein bedeutender Fortschritt in der Automatisierung ist die Entwicklung intelligenter KI-Agenten. Sie kombinieren natürliche Sprachverarbeitung, maschinelles Lernen und Prozessautomatisierung, um selbstständig komplexe Anfragen eigenständig zu analysieren und zu bearbeiten. Zudem sind sie in der Lage, externe Softwaretools zu orchestrieren und sich nahtlos in bestehende Unternehmenssysteme zu integrieren.

Drei zentrale Merkmale unterscheiden KI-Agenten von herkömmlichen Automatisierungstools:

• Proaktiv statt reaktiv: Sie warten nicht nur auf Befehle, sondern erkennen Aufgaben eigenständig und führen sie aus.

• Lernfähig statt regelbasiert:

Durch kontinuierliches Lernen verbessern sie sich und passen sich neuen Anforderungen an.

technologische Entwicklungen – wie etwa im ServiceNow Yokohama-Release – markieren einen weiteren bedeutenden Fortschritt in der Evolution der Automatisierung und steigern die Effizienz, Skalierbarkeit und Adaptivität von KI-Agenten erheblich. Insbesondere in den folgenden Bereichen treiben Innovationen die Leistungsfähigkeit und Integration der KI-Agenten voran:

• Intelligentere Workflows: KI-Agenten optimieren Prozesse durch datengetriebene Entscheidungen und steigern die Effizienz. Durch kontinuierliches Lernen und die Analyse großer Datenmengen erkennen sie Muster, optimieren Abläufe und reduzieren manuelle Eingriffe, wodurch Effizienz und Skalierbarkeit gesteigert werden.

• Kollaborative Agenten-Teams: Spezialisierte Agenten arbeiten koordiniert zusammen, um komplexen Aufgaben zu bewältigen. Diese Zusammenarbeit ermöglicht eine höhere Flexibilität, da einzel-

ne Agenten ihre spezifischen Stärken einbringen und Informationen in Echtzeit austauschen, um optimale Ergebnisse zu erzielen.

• Lebenszyklus-Management:

Die kontinuierliche Weiterentwicklung von KI-Agenten erfordert ein strukturiertes Management ihres gesamten Lebenszyklus – von der Konzeption über die Bereitstellung bis hin zur kontinuierlichen Optimierung. Entscheidend ist die effiziente Entwicklung, Implementierung und Wartung, sodass KI-Agenten schnell an neue Herausforderungen und veränderte Geschäftsanforderungen angepasst werden können.

• Solide Datenbasis:

Eine gute Datenbasis fördert eine tiefere Integration, reduziert Informationssilos verbessert den Zugriff auf kontextrelevante Daten und unterstützt eine präzisere Entscheidungsfindung. KI-Agenten können durch eine stärkere Vernetzung gezielt Wissen abrufen, konsolidieren und intelligent nutzen.

• Nahtlose Mensch-KI-Interaktion:

Eine reibungslose Zusammenarbeit zwischen KI- und menschlichen Agenten sorgt für eine bessere Nutzererfahrung. Intelligente Interaktionsmodelle ermöglichen eine intuitive und dynamische Zusammenarbeit, in der KI-Agenten proaktiv Handlungsempfehlungen geben, Prozesse optimieren und Mitarbeitende in ihrer Entscheidungsfindung unterstützen.

• Integrierte Governance: Transparenz, Sicherheitsrichtlinien und Compliance sind zentrale Bestandteile moderner KI-Agenten. Eine transparente Entscheidungsfindung sowie klare Governance-Strukturen sind essenziell, um Vertrauen, Sicherheit und die Einhaltung gesetzlicher sowie ethischer Standards zu gewährleisten.

Trends to watch: Wo werden KI-Agenten 2030 stehen? Die kommenden Jahre werden maßgeblich darüber entscheiden, wie sich autonome KI-Agenten weiterentwi-

ckeln und welchen Einfluss sie auf Unternehmen haben. Dabei zeichnen sich drei zentrale Trends ab:

1. KI-Agenten als strategischer Bestandteil von Unternehmen

Während heute viele Unternehmen noch in der Experimentierphase sind, werden KI-Agenten bis 2030 ein fester Bestandteil der Unternehmensstrategie sein – mit dem Potenzial, Geschäftsprozesse nachhaltig zu transformieren.

2. Von unterstützender zu autonomer KI

Während aktuelle KI-Agenten meist noch unterstützende Funktionen übernehmen, werden sie in Zukunft in der Lage sein, ganze Prozesse eigenständig steuern zu können. Sie analysieren Abläufe, identifizieren Verbesserungspotenziale und setzen Optimierungen direkt um.

HELFER

IM HINTERGRUND

Was sind moderne KI-Agenten?

Moderne KI-Agenten sind digitale Systeme, die eigenständig Aufgaben ausführen, Entscheidungen treffen und mit ihrer Umgebung interagieren können. Sie nutzen fortschrittliche Algorithmen, um komplexe Probleme zu lösen und sich an neue Situationen anzupassen.

Wie funktionieren sie?

Diese Agenten kombinieren maschinelles Lernen, natürliche Sprachverarbeitung und oft auch Zugriff auf externe Datenquellen. So können sie Informationen analysieren, Anweisungen verstehen und gezielt handeln –etwa bei der Planung, Recherche oder Kommunikation.

Wo begegnen wir Ihnen?

KI-Agenten stecken heute in Chatbots, digitalen Assistenten, autonomen Fahrzeugen und sogar in der Wissenschaft. Sie unterstützen uns beim Organisieren, Recherchieren und Automatisieren – und werden in Zukunft noch vielseitiger eingesetzt werden.

3. Neue Formen der Mensch-KI-Zusammenarbeit

Die Interaktion zwischen Mensch und KI wird sich grundlegend verändern. Anstatt nur Anfragen zu bearbeiten, agieren KI-Agenten als intelligente Assistenten, die proaktiv mit Mitarbeitenden interagieren und ihnen gezielt Vorschläge zur Prozessoptimierung machen.

Die Entwicklung von einfachen Chatbots hin zu autonomen KI-Agenten markiert einen bedeutenden Meilenstein in der Automatisierung. Die nächsten Jahre werden nicht nur die technologische Entwicklung vorantreiben, sondern auch definieren, welche Rolle KI-Agenten in einer zunehmend digitalisierten Arbeitswelt spielen werden. Entscheidend wird dabei die Zusammenarbeit mit dem Menschen bleiben, um Transparenz, Kontrolle und verantwortungsvolle Entscheidungen sicherzustellen. Die erfolgreiche Integration dieser Systeme erfordert eine enge Abstimmung zwischen Automatisierung, Governance und ethischen Leitlinien, um eine nachhaltige und vertrauenswürdige Nutzung zu gewährleisten. •

Die Entwicklung von Chatbots zu autonomen KI-Agenten markiert einen Meilenstein.

Kollege KI

Wie eine Sprach-KI den Kundensupport und das Sales-Team stärkt. /// von Hakob Astabatsyan

EURO PAPER, HERSTELLER VON BONROLLEN OHNE PLASTIKKERN, beliefert seit Jahrzehnten 50.000 Kunden in Europa, insbesondere in Deutschland, Österreich und der Schweiz. Das Unternehmen ist bekannt für seine hochwertigen Druckmaschinen und Dienstleistungen, die von Geschäftsausstattungen über Verpackungen bis hin zu großformatigen Druckaufträgen reichen.

Herausforderung Zukunftsfähigkeit

Das familiengeführte Unternehmen mit wachsendem Kundenstamm stand vor einer branchenüblichen Herausforderung: Kunden verlangten digitale Lösungen, während die Druckereibranche noch analog arbeitete. Anfragen stiegen, Serviceteams waren überlastet. Langsame Angebotsbearbeitung kostete in einem hart umkämpften Markt wertvolle Chancen. Euro Paper wollte dieses Bild durch den Einsatz von KI-Agenten zurechtrücken.

Kollege KI kommt zu Hilfe

Nach kurzer Implementierung bearbeitete Euro Paper mit den deutschsprachigen KI-Agenten von Synthflow zunächst Kundendienstanrufe. Die KI beantwortete Anfragen rund um die Uhr, lieferte blitzschnell Angebote und führte Nutzer durch Produktoptionen. Bald zeigte sich, dass das Tool nicht nur den Kundenservice verbesserte, sondern auch die Konversionsrate steigerte. Euro

DER AUTOR

Paper setzte die KI dann auch im Verkauf ein. „Was uns bei den SprachKI-Agenten von Synthflow am meisten beeindruckt, wie natürlich sie vom Kundensupport in den Verkauf übergeht. Nach wenigen Wochen nutzten wir die KI nicht nur zur Beantwortung von Fragen, sondern auch zum Geschäftsabschluss. Sie ist nun zentral für unsere Kundenbetreuung und -konvertierung“, sagt Frank Lorenz, CEO und Mitbegründer von Euro Paper. Die muttersprachlichen KI-Agenten gewährleisten nahtlose Kommunikation in der DACH-Region, schaffen Vertrauen und beseitigen Sprachbarrieren – besonders wertvoll für B2B-Kunden in Deutschland, wo Klarheit und Professionalität unerlässlich sind.

Schneller, kürzer, mehr –Die Ergebnisse überzeugen Heute bietet der KI-Agent Euro Paper nicht nur Support in natürlicher Sprache, sondern schließt auch Geschäfte ab. Er bearbeitet Anfragen, qualifiziert Leads, empfiehlt Pakete und bringt Transaktionen zum Abschluss. Euro Paper hat sein Vertriebsteam effektiv erweitert, ohne neue Mitarbeiter einzustellen.

Kollege KI hat den Kundenservice um 85 Prozent beschleunigt, denn Kunden erhalten nun sofort Antworten und Angebote. Wartezeiten sind deutlich reduziert, Frustration durch E-Mail-Pingpong oder verpasste An-

Hakob Astabatsyan ist CEO von Synthflow.

rufe gibt es nicht mehr. Die Automatisierung wiederkehrender Aufgaben wie Auftragserfassung spart dem Team täglich vier Stunden, die es nun für wertschöpfende Tätigkeiten nutzen kann.

Die KI bearbeitet mehr Anfragen und konvertiert mehr Leads, wodurch Euro Paper sein Auftragsvolumen verdreifacht hat, ohne das Vertriebspersonal oder die Infrastruktur zu vergrößern. Diese Innovation steigert auch die Kundenzufriedenheit. Umfragen zeigen einhellige Zustimmung. Die Kunden loben die Geschwindigkeit, Klarheit und Einfachheit der KI-Interaktion.

Fazit

Euro Paper sieht sich nicht mehr nur als Druckerei, sondern als technologiegestützte Serviceplattform. Mit Plänen zur Integration von KI in Produktionsabläufe und Lieferkettenkoordination verwischt das Unternehmen die Grenze zwischen physischer und digitaler Welt. •

KI-Potenziale verstehen und gezielt heben

Jedes fünfte Unternehmen in Deutschland nutzt künstliche Intelligenz – Tendenz steigend. Obwohl die Vorteile der Technologie bekannt sind, unterscheidet sich die Intensität in der Nutzung von KI teils deutlich: von Test-Integrationen, über einzelne Anwendungsbereiche bis zum flächendeckenden strategischen Einsatz. Das sollten Unternehmen jetzt tun. /// von Anke Herbener und Franziska von Lewinski

IMMER MEHR UNTERNEHMEN IN DEUTSCHLAND PLANEN, KI-Technologie in ihrer Organisation einzusetzen. Damit KI-Anwendungen ihr Potenzial erfolgreich entfalten können, muss ihre Integration zielgerichtet erfolgen. Um konkrete Einsatzbereiche identifizieren zu können, müssen Unternehmen zunächst ihr KI-Potenzial analysieren.Der Bundesverband Digitale Wirtschaft (BVDW) e. V. und Observatory International haben in einer gemeinsamen Studie Personas definiert, um Unternehmen dabei zu helfen, ihren Integrationsstand bei KI-Anwendungen besser einschätzen zu können.

KI-Personas im Überblick

• AI Skeptics ermöglichen Mitarbeitern KI-Tools für die eigene Effizienz zu nutzen. Jedoch führen sie KI-Anwendungen aufgrund von Unsicherheiten, Branchenbeschränkungen oder strategischen Entscheidungen bislang nicht auf Unternehmensebene ein.

• Cautios AI Explorer haben einen ersten Usecase, ein erstes Pilotprojekt identifiziert – oder sogar bereits

umgesetzt. Sie arbeiten daran, dass KI-Tools fester Bestandteil der Unternehmensstrategie werden.

• Operational AI User verfolgen eine klare KI-Strategie und nutzen fest implementierte KI-Tools, um Prozesse effizienter zu gestalten.

• Strategic AI Adopter nutzen bereits individualisierte KI-Modelle. Sie haben ein festes Innovationsbudget für die Weiterentwicklung von KIAnwendungen eingeplant. Zudem steuern sie Strukturveränderungen in ihrer Organisation mit der Hilfe künstlicher Intelligenz.

• AI Innovators entwickeln und nutzen eigene, closed oder customized KI-Modelle und planen ein entsprechendes Innovationsbudget dafür ein. Ihre KI-Systeme sind fest in den Prozessen verankert und werden erfolgreich, dauerhaft und flächendeckend eingesetzt.

KI-Fähigkeiten verbessern

Die Personas verdeutlichen: Unternehmen haben unterschiedliche Erfahrungen in der Anwendung von KI-Tools. Mit den nachfolgenden Tipps treiben Unternehmen KI-Integrationen erfolgreich weiter voran. Um erste Anwendungsgebiete zu identifizieren, sollten sie gezielt auf das Know-how interner Experten setzen. Dafür gilt es, Mitarbeitern mit KI-Expertise zu identifizieren. Mit steigender Erfahrung sollten sich Firmen darauf konzentrieren, Pilotprojekte in mittel- sowie langfristigen Einsatzmöglichkeiten in eine KI-Strategie zu überführen. Diese ermöglicht es, sich auf die Optimierung KI-gestützter Prozessen zu konzentrieren. Hierzu sollten sie sich durch alle Bereiche arbeiten. Ist auch das gelungen, steht die Königsdisziplin – die individualisierten KI-Modelle – auf dem Plan.

DIE AUTORINNEN

Anke Herbener (l.) ist seit 2019 Vizepräsidentin des Bundesverbands Digitale Wirtschaft (BVDW) e. V. (Bildrechte: Svea Pietschmann) Franziska von Lewinski ist Managing Partner bei Observatory International. (Bildrechte: Alex Bunge)

Die Studie zeigt, dass Agenturen in Deutschland durch ihre KI-Expertise der richtige strategische Partner für die KI-Transformation von Unternehmen und Marken sind. Eine enge Zusammenarbeit zwischen beiden bringt eine erfolgreiche KI-Integration entlang der gesamten Wertschöpfungskette. Sie unterstützen ihre Kunden als Impulsgeber durch ihr gereiftes Anwendungswissen und werden zur entscheidenden Stellschraube des digitalen Fortschritts. •

Mit KI-Lösungen die Datenresilienz verbessern

Unternehmen stehen heute vor der Herausforderung, ihre Daten vor Cyberangriffen und Geschäftsausfällen zu schützen. KI-basierte Lösungen können beim Schutz und bei der Wiederherstellung der Daten helfen. Eine Antwort darauf gibt die Integration von Microsoft AI in die Data-Resilience-Plattform von Veeam Software für eine schnellere Erkennung von Bedrohungen und automatisierte Wiederherstellung der Daten. Im Gespräch erläutert Tim Pfläzer von Veeam Software die Zielsetzungen. /// von Stefan Girschner

Microsoft hat sich kürzlich an Veeam Software beteiligt, um die Partnerschaft zu vertiefen. Welche Zielsetzungen verfolgt Veeam mit der erweiterten Partnerschaft? Tim Pfälzer | Mit der vertieften Kooperation zielen wir, gemeinsam mit den Kollegen von Microsoft, darauf ab, die stetig steigenden Herausforderungen im Bereich Datensicherheit und Datenresilienz in Angriff zu nehmen. Wir werden gemeinsam unsere Produkte anhand der Marktbedürfnisse weiterentwickeln und dabei einen besonderen Fokus daraufsetzen, wie KI dabei helfen kann, Unternehmensdaten noch resilienter zu machen. Um Firmen in diesem Zusammenhang dabei zu unterstützen, den eigenen Ist-Zustand besser zu evaluieren, haben wir kürzlich auf unserer Hausmesse das Data Resilience Maturity Model vorgestellt, denn: Nach wie vor gibt es eine Lücke zwischen dem idealen und dem tatsächlichen Maß an Datenresilienz von Unternehmen. Um nicht über diese Realitätslücke zu stolpern, müssen Unternehmen sich der modernen Gefahrenlage und immer perfideren

Angriffsstrategien Cyberkrimineller anpassen, ihre Daten umfassend schützen und sich resilient aufstellen.”

Durch die verstärkte Nutzung von Daten für KI-Tools und mehr in Unternehmen nehmen auch die IT-Security-Anforderungen zu. Wie können Unternehmen darauf reagieren und diese bestmöglich erfüllen?

TP | Um unsere Backup- und Datensicherheitslösungen adäquat an die erwähnten Anforderungen anzupassen, kooperieren wir zusätzlich mit einigen der größten Security-Anbieter: unter anderem Palo Alto und seit kurzem auch CrowdStrike. KI wird dabei auch von jeder Seite genutzt: Unternehmen nutzen die Technologie intern, um das Maximum aus den eigenen Daten herauszuholen. Hacker hingegen nutzen KI, um möglichst effiziente Kampagnen und Attacken zu fahren. Wir nutzen KI wiederum, um unsere Lösungen optimal resilient gegen erwähnte Angreifer und anderweitige Ausfallgründe aufzustellen. Der Schutz der eigenen Daten muss Priorität für

” Eine 100-prozentige Sicherheit gibt es nicht. Umso wichtiger ist es daher, dass man für den Ernstfall gewappnet ist. (Tim Pfälzer)

DER GESPRÄCHSPARTNER

Tim Pfälzer ist Senior Vice President & General Manager EMEA bei Veeam Software. Bild: Veeam Software

Unternehmen haben und um den eigenen Status Quo auf dem Weg dorthin besser evaluieren zu können, gebe ich gerne erneut das Data Reslience Maturity Model an die Hand und mahne aber auch an die 3-2-1-1-0-Backup-Regel: drei Kopien, zwei Medien, eine Kopie davon außerhalb des eigenen Rechenzentrums und eine davon unveränderlich. Und natürlich essenziell: null Fehler bei der Wiederherstellung.

” Disaster Recovery ist und bleibt die beste Verteidigung gegen Ransomware und ist nach wie vor unser Flaggschiff. (Tim Pfälzer)

Ransomware-Angriffe gehören nach wie vor zu den größten Sicherheitsbedrohungen. Warum ist ein Schutz davor immer noch so schwierig. Und welche Maßnahmen sollten Unternehmen vordringlich umsetzen?

TP | Das große Problem bei Ransomware ist, dass Angreifer jeden Tag intelligenter werden, neue Kampagnen entwickeln und dabei meist auf das schwächste Glied der Security-Kette zielen: den Menschen. Unternehmen müssen sich daher leider damit auseinandersetzen, dass Angriffe früher oder später erfolgreich sein werden. Es geht nicht mehr darum, ob man angegriffen wird, sondern wann. Eine 100-prozentige Sicherheit gibt es nicht. Umso wichtiger ist es daher, dass man für den Ernstfall gewappnet ist. Notfallpläne müssen regelmäßig geübt werden, Risiken analysiert und Daten geschützt sein. Nur wer sich intensiv mit der Strategie für den Ernstfall auseinandersetzt, der kann auch Ausfallzeiten auf ein Minimum reduzieren.

Eine besondere Bedeutung bei einer Sicherheitsstrategie kommt den Bereichen Desaster Recovery und Backup zu. Wie kann Veeam Unternehmen in diesen Bereichen unterstützen?

TP | Disaster Recovery ist und bleibt die beste Verteidigung gegen Ransomware und ist nach wie vor unser Flaggschiff. Wir sind nicht nur in der Lage, unseren Kunden mit unserem Produktportfolio die zuverlässigste und schnellste Wiederherstellung am Markt zu bieten – egal, wo sich ihre Daten befinden – wir können obendrein mit Produkten wie Coveware by Veeam tiefe Einblicke in die Angriffe erlangen und so die Datenresilienz unserer Kunden stetig steigern.

Welche Trends und Entwicklungen sehen Sie bei der Verbesserung der Daten- und Cyberresilienz auf Security-Anbieter zukommen?

TP | Der größte Trend in meinen Augen ist hier nach wie vor die künstliche Intelligenz. Das gilt beispielsweise in Sachen Herausforderungen, da es in der Hand von Unternehmen liegt, KI optimal für sich zum Einsatz zu bringen, ohne sich Flanken in der Absicherung der Daten aufzumachen. Zudem ermöglicht es KI eben auch Cyberkriminellen, ihre Methoden und Kampagnen in einem nie dagewesenen Tempo weiterzuentwickeln und zu verfeinern. Für uns birgt die Künstliche Intelligenz ungemeine Vorteile in der Sicherung und Abwehr. Das bringt uns meiner Ansicht nach in die Pflicht, mit der Entwicklung entsprechend immer einen Schritt voraus zu sein und bisher haben wir das gut geschafft.

Und wie können Anwenderunternehmen ihre Datenresilienz mit möglichst geringem Aufwand verbessern?

TP | Cyberresilienz fußt auf modernen DatensicherheitsLösungen und dem eigenen Wissen um Daten und mögliche Risiken. Wer sich also möglichst schnell gut aufstellen will, der sollte zunächst einen Blick auf die eigenen Daten und die damit verbundenen Risiken werfen, die eigenen tatsächlich bestehende Resilienz evaluieren und diese mit der Implementierung von branchenführenden Lösungen optimieren. Denn Datenresilienz ist letztlich das Zentrum, mit dem alles verbunden ist und von der die gesamte Unternehmenssicherheit ausgeht. •

DATA-RESILIENCE-MATURITY-MODELL

Das neue Framework „Data Resilience Maturity Model” von Veeam Software soll Unternehmen in die Lage versetzen, ihre tatsächliche Widerstandsfähigkeit objektiv zu bewerten und strategische Maßnahmen zu ergreifen. Ziel des Modells ist es, die Lücke zwischen Wahrnehmung und Realität bei der Datenresilienz zu schließen und sicherzustellen, dass die Daten angesichts der zunehmenden Cyberangriffe und daraus entstehenden IT-Ausfälle widerstandsfähig sind.

„Die Zukunft für Frauen in IT-Berufen sieht

sehr rosig aus“

Der Anteil der Frauen in der Informatik lag im Jahr 2023 lediglich bei 18 Prozent. Woran das liegt und wie sich mehr Frauen für die IT begeistern lassen, erklärt im Interview

Uta Dresch von Docuware. /// von Konstantin Pfliegl

ES WAR EINE FRAU, DIE ALS MITBEGRÜNDERIN DER MODERNEN INFORMATIK GILT: ADA LOVELACE. Die Mathematikerin entwarf bereits um 1840 das erste Programm für einen Computer. Und die erfolgreiche erste Mondlandung 1969 haben die Astronauten auch einer Frau zu verdanken: Margaret Hamilton arbeitete als Mitarbeiterin am Massachusetts Institute of Technology (MIT) und programmierte die Navigations-Software des Bordcomputers der Apollo 11 – 40.000 Kommandozeilen, welche die Rakete zum Mond dirigierten. Frauen in der IT haben bereits viel bewegt.

Dennoch wird die IT-Welt noch immer von Männern dominiert: Im Jahr 2023 lag der Anteil der Frauen in der Informatik bei gerade einmal 18 Prozent. Dabei wäre ein höherer Frauenteil für die Branche ein großer Gewinn. Doch warum begeistern sich so wenige Frauen für die IT? Wie lässt sich das ändern – und welche Vorteile haben Unternehmen, die mehr auf Frauen setzen? Das erklärt im Interview Uta Dresch, Chief Operating Officer bei Docuware.

Frau Dresch, wenn man sich eine Studie des Bitkom aus dem vergangenen Jahr anschaut, dann sind sich eigentlich alle einig: Es braucht mehr Frauen in der IT. So sehen 90 Prozent der IT-Unternehmen eine Erhöhung

des Frauenanteils in ihrem Unternehmen als Chance. Welche konkreten Vorteile hat denn Ihrer Erfahrung nach ein höherer Frauenanteil in der IT?

Uta Dresch | Frauen und Männer zeigen in der Regel unterschiedliche Herangehensweisen bei der Lösungsfindung – und das nicht nur in der IT, sondern im Allgemeinen. Je diverser Teams also besetzt sind, desto mehr profitieren sie von einer Vielzahl von Perspektiven und

DER GESPRÄCHSPARTNERIN

Uta Dresch ist Chief Operating Officer bei Docuware.

Bild: Docuware

MEHR ERFAHREN

Lesen Sie das ausführliche Interview mit Uta Dresch auf der Webseite von DIGITAL BUSINESS

Ideen. Das führt dann auch eher zu innovativeren und effektiveren Lösungen. Das gilt natürlich ganz besonders für die IT, einem Bereich, in dem Frauen traditionell unterrepräsentiert sind.

Die Potenziale, die sich durch die konsequente Einbeziehung von weiblichen Perspektiven ergeben, können hier nicht nur zu unkonventionellen Lösungsansätzen beitragen, sondern auch das Arbeitsklima positiv beeinflussen. Ein ausgewogenes und diverses Team ist in der Regel erfolgreicher, da es die Stärken und Fähigkeiten aller Mitarbeitenden optimal nutzt.

Daher ist die Förderung von Frauen in der IT nicht nur ein Gebot der Fairness, sondern auch eine strategische Notwendigkeit für die Zukunftsfähigkeit der Branche

57 Prozent der Unternehmen geben laut Bitkom an, dass sie in ihrem Recruiting speziell Frauen ansprechen. Wie kann das aussehen? Was unterscheidet das Recruiting von Frauen und Männern?

UD | Wir nutzen eine geschlechtsneutrale Ansprache bei der Suche nach Fachkräften und legen großen Wert darauf, eine inklusive Unternehmenskultur zu schaffen. Das bedeutet, dass wir eine Umgebung fördern, in der alle Mitarbeitenden willkommen sind und sich entfalten können. Eine positive Fehlerkultur ermutigt alle, Fragen zu stellen und selbstbewusst aufzutreten. Darüber hinaus setzen wir auf Active Sourcing, um gezielt auf potenziel-

UD | Ich kann aus meiner Erfahrung der letzten Jahre sagen, dass sich in vielen Unternehmen, insbesondere bei uns bei Docuware, die Unternehmenskultur bereits deutlich gewandelt hat. Ich kann guten Gewissens behaupten, dass wir eine Unternehmenskultur haben, in der sich Frauen wohlfühlen. Wenn es bei uns Probleme gibt, dann sind sie in der Regel anderer Natur und nicht auf Klischees oder Stereotypen zurückzuführen.

Welche weiteren Hürden müssen Frauen in der IT bewältigen?

UD | Frauen in der IT sollten sich definitiv mehr zutrauen. Eine weit verbreitete Vorstellung ist, dass man eine IT-Expertin sein muss, um in der IT-Branche erfolgreich zu sein. Das stimmt jedoch nicht. Es gibt viele verschiedene Rollen in der IT, die nicht das Programmieren im Mittelpunkt haben. Bei DocuWare bedienen wir viele Interessensgebiete und bieten eine Vielzahl von Möglichkeiten, sich einzubringen.

Sie sind als Chief Operating Officer von Docuware tätig. Was sind Ihre Key Learnings als Frau in einer Führungsposition in der IT?

UD | Sich selbst treu zu bleiben ist essentiell. Es bringt nichts, sich anzupassen oder zu verstellen, nur weil man denkt, man müsse sich in einer männerdominierten Umgebung behaupten. Authentizität ist der Schlüssel zum Erfolg. Ein weiterer wichtiger Punkt ist, stets Fragen zu

” Die Förderung von Frauen in der IT ist nicht nur ein Gebot der Fairness, sondern auch eine strategische Notwendigkeit für die Zukunftsfähigkeit der Branche.“

le Kandidatinnen zuzugehen. Es reicht nicht mehr aus, auf Bewerbungen zu warten. Frauen bewerben sich oft nicht, wenn sie nicht alle Anforderungen erfüllen, während Männer hier selbstbewusster agieren. Durch Active Sourcing sprechen wir Frauen direkt an und ermutigen sie, sich auf Stellen zu bewerben, die sie möglicherweise sonst übersehen hätten.

Braucht es hier nicht einen deutlichen Wandel in der Unternehmenskultur, vor allem in der männerdominierten IT, damit Frauen sich überhaupt wohlfühlen? Ist die Arbeitswelt nicht noch von zu vielen Klischees und Stereotypen geprägt?

(Uta Dresch)

stellen und neugierig zu bleiben. Nur so kann man sich kontinuierlich weiterentwickeln und neue Perspektiven gewinnen. Diese Offenheit für Fragen und neue Ideen hat uns als Team immer weitergebracht und gefördert und sind oft der Ausgangspunkt für Innovation und Wachstum.

Und wie sieht Ihrer Ansicht nach die Zukunft für Frauen in IT-Berufen aus?

UD | Meiner Ansicht nach sieht die Zukunft für Frauen in IT-Berufen sehr rosig aus. Der Bedarf an qualifizierten Fachkräften ist weiterhin sehr hoch, sodass Frauen, die sich in der IT engagieren, hervorragende Perspektiven für eine erfolgreiche Karriere haben. •

Siemens geht neue Wege

Technologieanbieter stehen vor der Herausforderung qualifizierte Fachkräfte für Entwicklung, IT-Infrastruktur oder datenbasierte Geschäftsmodelle zu gewinnen. Employer Branding hat sich als strategisches Instrument etabliert, um Sichtbarkeit bei relevanten Zielgruppen zu schaffen und sich als Arbeitgeber zu positionieren. /// von Rico Hunger-Bonvin

NEBEN BEWÄHRTEN INSTRUMENTEN

WIE KARRIERESEITEN ODER HOCHSCHULKOOPERATIONEN gewinnen Plattformen an Bedeutung, die von IT-Fachkräften aktiv genutzt werden. Eine davon ist Reddit, eine Community-basierte Plattform, auf der sich Nutzer in sogenannten Subreddits über alle möglichen Fragen des täglichen Lebens, aber auch über spezielle Themen wie Technik diskutieren. Vor diesem Hintergrund testete Siemens ein unlängst neues Format: ein Ask Me Anything® (AMA) auf Reddit. Das Ziel bestand darin, IT-Fach-

DER AUTOR

neriert werden. In einer AMA-Session beantworteten zwei Mitarbeiter aus dem Software- und Hardware-Bereich Fragen zu Arbeitskultur, Technologien und Projekten.

Die AMA-Session erreichte rund 3,9 Millionen. Impressions. Es wurden mehr alls 100 Gespräche mit Siemens geführt. Ein erheblicher Teil der Kommentare bezog sich auf technische Arbeitsweisen oder interne Prozesse, was auf ein ernsthaftes Interesse an einer Karriere bei Siemens schließen lässt.

Rico Hunger-Bonvin ist Senior Client Partner bei Reddit. Foto: Reddit

zeigt, dass Employer Branding immer dann glaubwürdiger und erfolgreicher wird, wenn die entsprechenden Fachbereiche eines Unternehmens direkt eingebunden sind und der Recruitingprozess nicht zentral gesteuert wird.

„Unsere Kampagne war ein perfektes Zusammenspiel von qualitativen Kontakten mit einer Zielgruppe, die uns als bevorzugten Arbeitgeber in der Tech-Industrie betrachtet“, sagt Marco Siegmund, Lead - Brand Activation & Global Employer Branding bei Siemens.

Ausblick:

Ergänzender Kanal im Recruiting Die Siemens-Kampagne zeigt, dass Plattformen sehr gut strategisch genutzt werden können, um technikaffine Zielgruppen zu erreichen. Entscheidend ist, dass das jeweilige Format zur Plattformlogik passt und einen auf Augenhöhe geführten Dialog ermöglicht.Für Unternehmen, die ihr

” Die Siemens-Kampagne zeigt, dass Plattformen strategisch genutzt werden können, um technikaffine Zielgruppen zu erreichen. Entscheidend ist, dass das jeweilige Format zur Plattformlogik passt und einen auf Augenhöhe geführten Dialog ermöglicht.

(Rico Hunger-Bonvin)

kräfte in Deutschland anzusprechen – nicht über Stellenausschreibungen, sondern durch einen direkten Austausch mit zwei Siemens-Ingenieuren.

Kampagnenziele und Kennzahlen Die Kampagne verfolgte zwei Ziele: Erstens sollte die Wahrnehmung von Siemens als IT-Arbeitgeber gestärkt werden, zweitens sollten qualifizierte Bewerbungen für offene Stellen ge-

Direkter Austausch und Authentizität als Erfolgsfaktor Positiv hervorzuheben war die Authentizität des Formats: Die Mitarbeiter reagierten authentisch und auf Augenhöhe mit dem interessierten Publikum. Auch intern wurde die Maßnahme positiv aufgenommen, da sie den Mitarbeitern eine aktive Rolle im Recruiting-Prozess ermöglichte. Die Kampagne hat ge-

Employer Branding weiterentwickeln möchten, bietet Reddit Potenzial: Durch besondere Formate wie themenspezifische AMAs, technische Deep-Dives oder auch offene Diskussionsrunden mit Fachbereichen. Im Vordergrund steht dabei nicht die Selbstdarstellung, sondern vielmehr die glaubwürdige und transparente Interaktion mit potenziellen Bewerbern. •

Digital Risk Management

© iamguru/stock.adobe.com

© Bilas AI/stock.adobe.com,

© Maksym/stock.adobe.com,

S. 44

Gefahren unvorsichtiger KI-Nutzung: Balanceakt zwischen Innovation und Sicherheit

Expertentalk

Fluch oder Segen? Chancen und Risiken durch KI in der Cybersecurity

Verteidigungsstrategie

Mehrschichtiger Ransomware-Schutz: Die richtige Verteidigungsstrategie

S. 46

S. 50

Forschungsprojekt EMERALD: S. 51

Automatisierte Einhaltung der Vorschriften: Continuous Compliance im Finanzsektor

Immunität gegen Datengift S. 52

So schützen Unternehmen ihre Daten gegen Data-Poisoning

KI in der Cyberabwehr

S. 54

Deutliche Verkürzung der Reaktionszeiten und effizientere Abwehr von Angriffen

DEN BALANCEAKT

ZWISCHEN INNOVATION

UND SICHERHEIT

MEISTERN

Die digitale Transformation bringt neue Risiken mit sich, insbesondere durch den unvorsichtigen Einsatz von KI-gestützten Tools wie Chatbots und Agents. Diese können zu ungewollten Datenlecks und Sicherheitsproblemen führen, wenn die Mitarbeiter nicht richtig geschult, und die Tools nicht richtig kontrolliert werden. /// von Martin Jartelius

DIE WEITERENTWICKLUNG DIGITALER TECHNOLOGIEN

HAT IN DEN VERGANGENEN JAHREN große Fortschritte ermöglicht. Von automatisierten Prozessen bis hin zur Nutzung von künstlicher Intelligenz (KI) – Unternehmen profitieren von verbesserter Effizienz, genaueren Datenanalysen und flexiblen Kommunikationswegen. Doch mit den Vorteilen wächst auch die Verantwortung: So bahnbrechend die Möglichkeiten der aktuellen technologischen Fortschritte auch sind, sie bringen gleichzeitig neue Herausforderungen mit sich. Besonders der Einsatz von Künstlicher Intelligenz in Form von Chatbots und Agents wirft Fragen zur Datensicherheit auf. Denn während diese Technologien Prozesse vereinfachen und beschleunigen, können sie bei unachtsamem Umgang zur Schwachstelle werden.

ne Daten zur Verbesserung ihrer Algorithmen. Dadurch gelangen unternehmensinterne Informationen möglicherweise unkontrolliert in externe Systeme, die dort dann anfälliger für Cyberangriffe oder Missbrauch durch Dritte sind.

Besonders problematisch ist die oft fehlende Transparenz: Nutzer wissen selten, wo und wie ihre Daten, Prompts und Inputs verarbeitet werden. Dies stellt nicht nur ein Sicherheitsproblem dar, sondern kann auch gegen Datenschutzrichtlinien wie die DSGVO verstoßen.

Risikofaktor Mensch: die unterschätzte Schwachstelle Ein Großteil digitaler Risiken entsteht nicht durch technische Fehler, sondern durch menschliches Fehlverhalten.

Während digitale Risiken oft als notwendiges Übel betrachtet werden, bietet ein starkes Sicherheitskonzept auch Chancen. Unternehmen, die vertrauenswürdig mit Daten umgehen, können sich als Vorreiter in ihrer Branche positionieren. (Martin Jartelius)

KI-Chatbots:

Helfer im Geschäftsalltag oder Datenlecks auf Zeit?

KI-gestützte Chatbots sind aus dem Geschäftsalltag kaum mehr wegzudenken. Sie beantworten Kundenanfragen rund um die Uhr, entlasten Support-Teams und verbessern die Effizienz in internen Prozessen. Ihre einfache Bedienbarkeit und die Integration in bestehende Systeme machen sie zu einem unverzichtbaren Werkzeug. Doch genau diese Vorteile können zum Schwachpunkt werden.

Ein alltägliches Szenario: Ein Mitarbeiter möchte eine technische Frage schnell klären und gibt interne Details – beispielsweise Informationen über die IT-Infrastruktur oder Produktpläne – in einen KI-Chatbot ein. Was wie eine harmlose Abfrage aussieht, kann weitreichende Konsequenzen haben. Viele KI-Modelle speichern eingegebe-

Studien zeigen, dass Mitarbeiter oft unbewusst Sicherheitslücken schaffen, sei es durch unsichere Passwörter, unüberlegte Dateneingaben oder das Teilen sensibler Informationen über unsichere Kanäle.

Beispiele für typische Fehler im Umgang mit Chatbots:

• Eingabe von Zugangsdaten oder vertraulichen Dokumenten;

• Ungeprüfte Integration der Tools in die interne Datenstruktur mit weitreichenden Leseberechtigungen;

• Nutzung von unsicheren Chatbots,

• Nutzung von Chatbots über unsichere Netzwerke;

• fehlende Kenntnis über die Datenschutz- und Sicherheitsrichtlinien der genutzten KI-Tools.

Unternehmen sollten deswegen nicht nur in Technologie investieren, sondern auch in die Sensibilisierung ihrer Mitarbeiter. Schulungen, die den bewussten Umgang mit digitalen Tools fördern, sind ein entscheidender Schritt, um mögliche Risiken zu minimieren.

Cyberangriffe werden raffinierter

Mit jedem technologischen Fortschritt entwickeln sich auch die Methoden von Cyberkriminellen weiter. Angriffe werden zunehmend automatisiert und personalisiert, um gezielt Schwachstellen auszunutzen. Besonders gefährlich werden Social-Engineering-Angriffe, bei denen sich Angreifer das Vertrauen von Mitarbeitern erschleichen, um an sensible Daten zu gelangen. KI-Tools wie Chatbots bieten hier neue Angriffsmöglichkeiten und eine neue Angriffsfläche: Sie können manipuliert oder durch Malware infiziert werden, um falsche Informationen zu liefern oder interne Daten abzufangen. Sie können auch dazu genutzt werden, um täuschend echte E-Mails oder Call-Scripte zu verfassen, die nicht mehr so einfach von Laien aufgrund von Rechtschreibfehlern etc. Identifiziert werden können.

Digital Risk Management: ein ganzheitlicher Ansatz für mehr Sicherheit

Diese Herausforderungen erfordern umfassende Lösungen. Ein effektives Digital Risk Management sollte folgende Kernbereiche abdecken:

1. Technologische Absicherung: Unternehmen sollten bevorzugt KI-Tools nutzen, die auf lokalen Servern statt in der Cloud arbeiten, um die Kontrolle über ihre Daten zu behalten. Zudem sind Verschlüsselungstechnologien und Zugriffskontrollen essenziell.

2. Regelmäßiges Monitoring: Durch kontinuierliche Überwachung Ihrer Angriffsfläche, Domains und Shadow-IT können Unternehmen mögliche Schwachstellen frühzeitig identifizieren und beheben.

3. Sensibilisierung der Mitarbeiter: Security-Awareness-Trainings und klare Richtlinien helfen, den bewussten Umgang mit digitalen Tools zu fördern und typische Fehlerquellen zu minimieren.

4. Compliance sicherstellen:

Die Einhaltung nationaler und internationaler Datenschutzstandards wie der DSGVO ist unverzichtbar. Unternehmen sollten regelmäßige Audits durchführen, um sicherzustellen, dass ihre Technologien den rechtlichen Vorgaben entsprechen.

Konkurrenzvorteil durch Sicherheit

Während digitale Risiken oft als notwendiges Übel betrachtet werden, bietet ein starkes Sicherheitskonzept auch Chancen. Unternehmen, die vertrauenswürdig mit Daten umgehen, können sich als Vorreiter in ihrer Branche positionieren. Kunden und Partner schätzen Transparenz und Sicherheit zunehmend als Qualitätsmerkmal. Darüber hinaus ermöglicht ein robustes Digital Risk Management nicht nur den Schutz vor Bedrohungen, sondern schafft auch die Grundlage für Innovationen. Sicher implementierte KI-Systeme können beispielsweise Prozesse optimieren, neue Geschäftsfelder erschließen und die Effizienz steigern – ohne Kompromisse bei der Datensicherheit.

Innovation und Sicherheit im Einklang

Das Jahr 2025 wird neue Maßstäbe für Digital Risk Management setzen. Unternehmen stehen vor der Herausforderung, die Vorteile moderner Technologien zu nutzen, ohne die Sicherheit aus den Augen zu verlieren. Der unkontrollierte und uninformierte Einsatz von KI-Tools wie Chatbots zeigt, wie schnell scheinbar harmlose Anwendungen zum Risiko werden können.

Mit einem ganzheitlichen Ansatz, der Technologie, Awareness und Compliance vereint, können Unternehmen nicht nur potenzielle Bedrohungen minimieren, sondern sich auch strategisch für die Zukunft positionieren. Die Botschaft ist klar: Sicherheit ist nicht nur eine Notwendigkeit – sie kann auch einen Wettbewerbsvorteil darstellen. •

Martin

ist CISO bei Outpost24.

DER AUTOR
Jartelius

KI IN DER CYBERSECURITY: DER SCHMALE GRAT ZWISCHEN FLUCH UND SEGEN

Das Thema künstliche Intelligenz spielt auch bei der IT-Security eine immer wichtigere Rolle. Wir haben Experten gefragt: „Sowohl Angreifer als auch IT-Security-Unternehmen setzen auf künstliche Intelligenz. Welche Rolle nimmt KI Ihrer Ansicht nach bei der Security ein – Fluch oder Segen?“ /// von Konstantin Pfliegl

MARTIN STEMPLINGER

Security-Architekt Cloud Security und Managed Security Services bei CGI

• Neue Technologien bergen immer Chancen und Risiken, das ist bei KI nicht anders. Allerdings ist sie eine besonders mächtige Technologie, dementsprechend groß sind sowohl die potenziellen Vorteile als auch die möglichen Bedrohungen.

In Bezug auf Security gehört die schnelle Erkennung von Angriffen und Angriffsversuchen zu den größten Vorteilen von KI. Sie kann die Aufdeckung von den derzeit größten Bedrohungen Phishing und Malware verbessern sowie maschinelles Lernen nutzen, um Auffälligkeiten in Security-Logs festzustellen und verdächtiges Verhalten besser zu identifizieren. Aber auch im Zusammenspiel mit Sicherheitsexperten ist sie hilfreich, etwa bei der Analyse und Bewertung von Alarmen.

Verschärfte Bedrohungslage

Gleichzeitig verschärft sich durch den Einsatz von KI allerdings auch die Bedrohungslage. Cyberkriminelle nutzen sie für überzeugendere Phishing-Versuche mit Deep Fakes, um Verfahren zur Kundenidentifikation zu umgehen oder für Betrugsversuche im Finanzbereich. Aber auch innerhalb der Unternehmen gibt es neue Herausforderungen: Sie müssen den Einsatz von KI sicher gestalten und interne Sicherheitsmaßnahmen implementieren, um etwa zu verhindern, dass durch die Nutzung von generativen KI-Prompts Firmeninterna weitergegeben werden. Und nicht zuletzt enthält auch KI-Software Schwachstellen, die von Angreifern missbraucht werden können. •

Martin Stemplinger Bild: CGI

FABIAN GLÖSER

Team Leader Sales Engineering bei Forcepoint

• Cybersecurity ist und bleibt ein Wettlauf zwischen Cyberkriminellen und Sicherheitsexperten, und daran ändert sich auch durch KI nichts . Sie lässt sich sowohl für gute als auch schlechte Zwecke einsetzen. Während Cyberkriminelle die Technologie nutzen, um hochgradig komplexe, mehrstufige Angriffe zu orchestrieren, hilft sie Unternehmen, Bedrohungen schneller zu erkennen, besser zu verstehen und automatisiert passende Schutzmaßnahmen einzuleiten. Das fängt schon damit an, überhaupt einen Überblick darüber zu erhalten, wo die Informationen liegen, die im Fokus der Security-Strategie stehen sollten: sensible Daten wie geistiges Eigentum oder personenbezogene Daten.

Verstehen, was passiert KI spielt hierbei eine zentrale Rolle, da moderne, KI-gestützte neuronale Netze alle Inhalte präzise analysieren und klassifizieren können. Mehr noch: Sie verstehen auch, was mit Daten passiert – und in welchem Kontext.

Damit sind die Zeiten vorbei, in denen stumpfe statische Kontrollmechanismen auf Dateiinteraktionen angewendet wurden. Im Rahmen eines risikoadaptiven Schutzes lassen sich heute dynamische Sicherheitsmaßnahmen umsetzen, die sich kontinuierlich an das aktuelle Bedrohungsniveau anpassen. Das entlastet nicht nur Security-Teams, sondern sorgt auch dafür, dass Sicherheitsmaßnahmen die Endnutzer möglichst wenig im Arbeitsalltag einschränken. •

Fabian Glöser Bild: Forcepoint

STEFAN TIEFEL

Senior Market Development Manager (Security & Network) bei Noris Network

• Künstliche Intelligenz in der IT-Security ist weder Fluch noch Segen per se. Sie ist ein Werkzeug. Entscheidend ist, wer es einsetzt, mit welchem Ziel und in welcher Qualität. Gerade hierin liegt die Ambivalenz: Denn während KI auf Seiten der Angreifer genutzt wird, um Schwachstellen aufzuspüren, Angriffstechniken in Echtzeit anzupassen und Social-Engineering-Strategien bis hin zu Deepfakes zu entwickeln, entfaltet sie auf Unternehmensseite zugleich immense Potenziale zur Gefahrenabwehr.

KI ist kein Selbstzweck

Im technischen Kontext ermöglicht KI die Analyse enormer Datenmengen in Echtzeit, erkennt Muster und Abweichungen, klassifiziert Bedrohungen frühzeitig und initiiert Gegenmaßnahmen mit einer Präzision und Geschwindigkeit, die menschliches Reaktionsvermögen bei weitem übersteigt. Besonders in komplexen, hybriden IT-Landschaften, in denen regelbasierte Sicherheitsmechanismen zunehmend an ihre Grenzen stoßen, ist künstliche Intelligenz nicht nur eine Ergänzung, sondern ein unverzichtbarer Bestandteil jeder modernen Verteidigungsstrategie. Sie erhöht die Widerstandskraft gegenüber bekannten Angriffsmustern und erkennt auch jene Gefahren, die bislang unter dem Radar blieben.

Für Noris Network ist KI daher integraler Bestandteil einer zukunftsorientierten Sicherheitsarchitektur. Wir verstehen künstliche Intelligenz nicht als Selbstzweck, sondern als verantwortungsvoll einzusetzendes Instrument – mit klar nachvollziehbaren Entscheidungsprozessen, kontinuierlich weiterentwickelten Modellen und hoher technischer Transparenz. Denn eines ist gewiss: Die Dynamik der Bedrohungslage wird weiter zunehmen. KI wird eine Schlüsselrolle spielen, um in diesem digitalen Rüstungswettlauf nicht nur Schritt zu halten, sondern strategisch voranzugehen. Richtig eingesetzt, wird sie zum Katalysator nachhaltiger IT-Sicherheit. •

ALEXANDER GRODDECK

Pentester / AI Red Teamer bei Secunet Security Networks

• Innerhalb weniger Wochen nach der Veröffentlichung von ChatGPT generierten Angreifer bereits realistische Phishing-E-Mails, was es für Benutzer deutlich schwieriger machte, Betrugsmaschen zu erkennen. Tools wie WormGPT helfen den Angreifern in Sekundenschnelle individualisierte Phishing-E-Mails zu erstellen. Als weiteres Beispiel ließ sich in Hongkong ein täuschend echtes Deepfake-Video eines CFOs einsetzen, das einen Mitarbeiter dazu brachte, 25 Mio. US-Dollar an die Angreifer zu überweisen . Selbst bei der Entwicklung von Malware wird generative KI zu Hilfe genommen.

Verteidiger nutzen KI als Schutzschild

Gleichzeitig stärken IT-Sicherheitsteams ihre Abwehr mit innovativen KI-Lösungen. Machine-Learning-Modelle analysieren kontinuierlich Logs und Netzwerkverkehr, um Anomalien frühzeitig zu erkennen. Tools wie Microsofts Security Copilot und Googles Sprachmodell Sec-PaLM unterstützen Analysten dabei, Angriffsvektoren in Echtzeit zu identifizieren.

KI vergrößert unbestreitbar das Potenzial der Angreifer, wodurch Bedrohungen zahlreicher und ausgefeilter werden. Gleichzeitig bietet sie den Verteidigern eine wichtige Unterstützung, indem sie hilft, Angriffe zu erkennen, die ansonsten möglicherweise unentdeckt bleiben würden. Das Kräfteverhältnis hängt davon ab, wie effektiv wir die Vorteile der KI nutzen und ihre Missbräuche eindämmen. Zugleich senkt KI die Eintrittsbarrieren für Angreifer, doch ihre wirkliche Schutzkraft entfaltet sie erst auf einem stabilen Sicherheitsfundament und in den Händen versierter Fachkräfte, die KI-Ergebnisse kritisch prüfen und in bewährte Abwehrstrategien integrieren.

Letztlich ist KI in der Sicherheit weder Heilsbringer noch Bösewicht – sie ist ein Werkzeug, und ob sie sich als Fluch oder Segen erweist, liegt in unserer Hand. •

Stefan Tiefel Bild: Noris Network
Alexander Groddeck Bild: Secunet

Cybersecurity-Experte bei Sophos

• Künstliche Intelligenz in der Cyber Security ist definitiv ein großer Segen. KI-Modelle sind so weit fortgeschritten, dass sie eine Datenfülle in ungeheurem Ausmaß korrelieren und aus den Schlüssen eigenständig Aktionen ableiten können. Mit einer Kombination aus fortschrittlicher KI und Machine Learning, die auf Millionen von Samples trainiert ist, erkennen Security-Lösungen sogar unbekannte Bedrohungen. Ein weiterer Evolutionsschritt ist die multimodale KI.

Dieses System integriert verschiedene Datentypen in ein einheitliches Analyse-Framework und kann anstelle der herkömmlichen Einzelmodus-Analyse mehrere Datenströme gleichzeitig verarbeiten. Damit ist es möglich, sowohl Text- als auch Bildinhalte gleichzeitig zu verarbeiten und komplexe Zusammenhänge zu antizipieren – beispielsweise um Phishing besser zu erkennen.

Überschätzte KI

Was die Seite der Angreifer betrifft, wird der Einsatz von KI teilweise überschätzt. Sophos hat in einer Untersuchung (Cybercriminals Still Not Getting On Board the AI Train (Yet)) eine deutliche Skepsis der Cyberkriminellen gegenüber der KI festgestellt. Cyberkriminelle haben nicht die Ressourcen für KI. Sie nutzen Tools, mit denen sie ohne großen Aufwand maximale Beute machen können, wozu das komplexe Entwickeln und Trainieren von KI-Modellen nicht gehört. Cyberkriminelle nutzen laut unserer Untersuchungen KI hauptsächlich für Social Engineering, Phishing, oder Deep-Fake-Angriffe, um die Betrugs-Tricks für den Anwender möglichst echt aussehen zu lassen.

Ein Aspekt sollte trotz der Fähigkeiten der KI nicht vergessen werden: Sie kann den menschlichen Part der hoch spezialisierten Security-Experten nicht ersetzen. Sicherheit wird noch lange ein Zusammenspiel aus Technologie, KI und menschlicher Expertise sein. •

SEBASTIAN VON BOMHARD

Gründer und Vorstand der Spacenet AG

• Die Frage, ob KI in der IT-Security Fluch oder Segen ist, lässt sich klar beantworten: Sie ist beides. Als Segen erweist sich die überlegene Fähigkeit der KI zur Mustererkennung. In Netzwerken hinterlassen reguläre Aktivitäten Datenspuren, die auf Anomalien untersucht werden müssen. Menschen können diese Aufgabe zwar übernehmen, stoßen jedoch bei großen Datenmengen an ihre Grenzen – genau hier zeigt KI ihre Stärke. Sicherheitsteams können sich dadurch gezielt auf die von der KI identifizierten Vorfälle konzentrieren, was die Effizienz der Abwehrmaßnahmen erheblich steigert.

KI ermöglicht großflächige Angriffe

Gleichzeitig dürfen wir die Risiken nicht unterschätzen. KI ermöglicht eine enorme Beschleunigung komplexer Angriffsverfahren. So kann Malware sich mithilfe von KI unmittelbar und automatisch anpassen, was ihre Erkennung erschwert. Besonders bedrohlich sind die Möglichkeiten im Bereich der Deep Fakes: KI-Systeme können Muster analysieren, übertragen und kopieren, um täuschend echte Inhalte zu erzeugen. Dies ermöglicht großflächige Angriffe mit massenhaft erzeugten, individualisierten Phishing-Mails, die selbst erfahrene Nutzer in die Irre führen können.

Angesichts dieser Entwicklung ist klar: Ein wirksamer Schutz erfordert ein mehrschichtiges Sicherheitskonzept mit professionellem Infrastruktur-Management. Der Schlüssel liegt in einer ausgewogenen Kombination aus menschlicher Expertise und technologischer Innovation. KI ist dabei weder alleiniger Retter noch unbesiegbarer Gegner – sie ist ein mächtiges Werkzeug, dessen Einsatz sowohl unsere Verteidigung stärken als auch die Angriffsmethoden verfeinern wird. Der entscheidende Vorteil wird bei jenen liegen, die diese Technologie verantwortungsvoll und strategisch klug einsetzen. •

Michael Veit Bild: Sophos
Sebastian von Bomhard Bild: Spacenet

MICHAEL

Regional Vice President Central Europe bei WatchGuard Technologies

• KI ist ein wirkungsvolles Werkzeug im IT-Security-Umfeld – wobei jeder im gegenseitigen Wettrüsten die Nase vorn behalten möchte. Die fortschreitende Professionalisierung zeigt sich auf beiden Seiten.

So arbeiten Cyberkriminelle beispielsweise bereits daran, mithilfe von multimodaler KI ganze Angriffsketten aufzubauen. Durch Integration von Text, Bild, Sprache und ausgeklügelten Codes via KI lässt sich die gesamte Pipeline eines Cyberangriffs rationalisieren und automatisieren. Dies beginnt bei der Profilerstellung von Zielpersonen über soziale Medien, umfasst die Erstellung und Verbreitung täuschend echter Phishing-Inhalte einschließlich Voice-Phishing (Vishing) oder das Aufspüren von ZeroDay-Exploits. Zudem kann Malware generiert werden, die gezielt Schutzmechanismen auf dem Endgerät aushebelt – inklusive der Bereitstellung der entsprechenden Infrastruktur. Last but not least wird die Automatisierung von Seitwärtsbewegungen in kompromittierten Netzwerken und die Exfiltration gestohlener Daten erleichtert.

Proaktive Abwehr

Gleichzeitig erkennen jedoch auch Unternehmen, wie sie Feuer mit Feuer bekämpfen können. Gerade im Zuge der fortschreitenden Verschmelzung von Betriebstechnologie (OT) und Informationstechnologie (IT) gewinnen Verteidiger durch KI-gestützte Anomalieerkennung deutlich bessere Kontrollmöglichkeiten. Neue Bedrohungen können so proaktiv und technologieunabhängig erkannt und abgewehrt werden. Für Cybersecurity-Teams ersetzen KI-gestützte Kontrollen zur Erkennung von Unregelmäßigkeiten zunehmend protokoll- oder anwendungsspezifische Abwehrfunktionen, die komplex einzurichten und zu verwalten sind. Insofern lässt sich die Frage nach Fluch oder Segen von KI wohl niemals eindeutig und abschließend beantworten. Klar ist dagegen, dass die KI-Spielwiese immer größer wird. •

Michael Haas

Bild: Watchguard

MEHRSCHICHTIGER ANSATZ SCHÜTZT VOR RANSOMWARE

Ransomware-Gruppen entwickeln ständig neue Taktiken. Dabei werden traditionelle Verteidigungsstrategien längst von neuen Bedrohungen wie dateiloser Malware und KI-gestützten Angriffen überholt. Um Unternehmen zu schützen sowie kritische Infrastrukturen abzusichern, muss die Cybersicherheits-Branche ihre Strategie neu aufsetzen. /// von Camellia Chan

RANSOMWARE FINDET IMMER WIEDER EINEN WEG. Obwohl LockBit im Februar 2024 von der britischen National Crime Agency zerschlagen wurde, sind Affiliates und Kriminelle mit Verbindung zum LockBit-Ökosystem weiterhin aktiv. Gleichzeitig gewinnen neue Banden wie RansomHub, Play und DragonForce rasch

Ansatz, der auch proaktive Hardware-Abwehrmechanismen, robuste Backup-Strategien und konsequente Mitarbeiterschulung umfasst.

Sicherheitssoftware hat ihre Grenzen Die Taktiken der Cyberkriminellen entwickeln sich so rasch weiter, dass selbst die fortschrittlichste Cyber-

Die AUTORIN Camellia Chan ist CEO und Mitbegründerin von X-Phy Inc.

gesamten digitalen Infrastruktur verknüpft sind. Das macht sie anfällig für Angriffe, wenn Kriminelle Schwachstellen finden und ausnutzen. Es ist deshalb höchste Zeit, einen mehrschichtigen Sicherheitsansatz zu implementieren. Mit zusätzlichen Hardware-Sicherheitsmaßnahmen können Unternehmen sicherstellen, dass ihre Verteidigungsmechanismen auch dann noch wirken, wenn die Software versagt. Auf der Speicherebene integriert, können zum Beispiel proaktive, KI-gestützte Schutzfunktionen verdächtige Datenzugriffe automatisch erkennen und stoppen, bevor diese Schaden anrichten.

” Mit zusätzlichen Hardware-Sicherheitsmaßnahmen können

Unternehmen sicherstellen, dass ihre Verteidigungsmechanismen auch dann noch wirken, wenn die Software versagt. (Camellia Chan)

an Bekanntheit. Sie greifen gezielt kritische Infrastrukturen an. Die Ransomware-Gruppen nutzen oft doppelte Erpressung, Schwachstellen in Lieferketten und DDoS-Angriffe. Organisationen, die weiterhin nur auf reaktive Abwehrmaßnahmen und verhaltensbasierte Bedrohungserkennung setzen, bleiben verwundbar. Denn Softwarelösungen lassen sich zu einfach umgehen. Um Ransomware wirksam zu bekämpfen, braucht es einen mehrschichtigen

sicherheits-Software bald veraltet sein kann. Software ist nicht nur auf ständige Updates angewiesen, sondern auch auf ihre Nutzer. Diese müssen stets wachsam sein, um auf Bedrohungen zu reagieren. Doch dank KI wird Social Engineering immer raffinierter. Und menschliches Versagen ist immer noch die Hauptursache für viele Sicherheitslücken.

Ein zusätzliches Problem für Unternehmen ist, dass softwarebasierte Sicherheitssysteme eng mit der

Umdenken bei Zero-Trust-Strategie

Der Umstieg auf proaktive Abwehrstrategien ist wichtig im Kampf gegen Ransomware. Auch der ZeroTrust-Ansatz ist wertvoll, scheitert aber oft an der Umsetzung. Auch die hängt von menschlichem Zutun ab. Stattdessen sollte Sicherheit in die Endgeräte-Hardware selbst integriert sein – mit Funktionen wie einem Hardware-verifizierten Systemstart, Firmware-Integritätsprüfungen und automatischer Wiederherstellung. •

AUTOMATISIERTE EINHALTUNG DER COMPLIANCE IM FINANZSEKTOR

Finanzunternehmen stehen vor neuen Herausforderungen: Strenge Regulatorik wie die EU-Verordnung DORA (Digital Operational Resilience Act) setzt hohe Standards, um die IT-Sicherheit zu stärken. Das EU-Forschungsprojekt „EMERALD“ soll zeigen, wie sich diese Anforderungen in der Finanzbranche umsetzen und die Wettbewerbsfähigkeit steigern lassen. /// von Stefan Girschner

DAS FORSCHUNGSPROJEKT „EMERALD“ DER EU VERFOLGT DAS ZIEL, die automatisierte Einhaltung von Compliance-Anforderungen durch innovative Technologien zu ermöglichen. Im Fokus steht dabei die „Continuous Compliance“ – ein Ansatz, mit welchem Unternehmen Zertifikate und Sicherheitsstandards in Echtzeit überprüfen, anstatt auf periodische Audits zu warten. Dies soll die Risikokontrolle effizienter gestalten, Prozesse automatisieren und den manuellen Aufwand reduzieren. Dabei stützt sich das Projekt auf den Kriterienkatalog C5 des deutschen Bundesamts für Sicherheit in der Informationstechnik sowie auf den Entwurf des European Cybersecurity Certification Scheme for Cloud Services (EUCS). Fabasoft unterstützt das Projekt Emerald als Technologie- und Use-Case-Partner. „Mit Echtzeit-Überprüfungen von Sicherheitsstandards und Zertifikaten können Unternehmen ihre operativen Risiken reduzieren und regulatorische Anforderungen wie DORA einfacher erfüllen“, sagt Björn Fanta, Head of Research bei Fabasoft.

Continuous Compliance: Pilotprojekt im Finanzsektor Wie Continuous Compliance in der Praxis funktioniert, wird in mehreren Pilotprojekten von EMERALD geprüft. Eines davon fokussiert den Finanzsektor am Beispiel der CaixaBank, der drittgrößten spanischen Privatbank mit mehr als 20 Millionen Kunden. „Besonders im hochregulierten Finanzsek-

tor besteht angesichts strenger Anforderungen ein hoher Bedarf an einer kontinuierlichen Zertifizierung. Automatisiertes Compliance-Management ist ein Schlüsselfaktor für die Zukunft der Branche“, sagt Björn Fanta. Als Teil des Forschungsteams adressiert Fabasoft die spezifischen Anforderungen der CaixaBank, die ihre bestehenden On-Premise-Dienste um SaaS- und IaaS-Lösungen erweitern möchte. Zum Einsatz kommen APIs, hybride Multi-Cloud-Technologien und KI. Die Echtzeitbewertung soll es der Bank erlauben, die Sicherheit von Cloud-Diensten zu prüfen und deren Compliance sicherzustellen. Ziel ist es, diese Services nahtlos in die bestehende Infrastruktur der Bank zu integrieren und gleichzeitig die hohen Compliance-Anforderungen durch DORA oder das EUCS zu erfüllen. Das User Interface von EMERALD unterstützt dabei den gesamten Audit-Prozess. Es ermöglicht Auditoren sowie Nutzern eine intuitive Überwachung der Konformitätsstufen. „Das Pilotprojekt zeigt, wie Finanzunternehmen die Vorteile moderner Multi-Cloud-Umgebungen nutzen können, ohne Sicherheits- und Compliance-Risiken einzugehen“, so Fanta.

Digitalisierte Prozesse für Finanzunternehmen

Parallel dazu kommt in dem Pilotprojekt „Fabasoft DORA“ eine Software für digitales Auslagerungsmanagement zum Einsatz. Diese ermöglicht Finanzunternehmen die automatisierte

und revisionssichere Verwaltung und Dokumentation von DrittanbieterInformationen. Robin Schmeisser, Geschäftsführer der Fabasoft Contracts GmbH, erläutert das Vorgehen: „Fabasoft DORA reduziert den manuellen Aufwand erheblich. Mit digitalen Vorlagen für Due-Diligence-Fragebögen und Risikobewertungen, Workflows bis hin zur automatisierten Erstellung des Informationsregisters unterstützt die Software eine effiziente und rechtssichere Umsetzung der DORA-Vorgaben.“ Neben Fabasoft und der CaixaBank besteht das EMERALD-Konsortium aus neun weiteren akademischen und industriellen Partnern. •

Björn Fanta ist Head of Research bei Fabasoft.

IMMUN GEGEN DATENGIFT: SO SCHÜTZEN UNTERNEHMEN IHRE KI

Künstliche Intelligenz bietet enorme Chancen – doch sie ist auch anfällig für gezielte Manipulation. Sabotierte Trainingsdaten oder algorithmische Angriffe können KI-Systeme erheblich beeinträchtigen. Unternehmen müssen neue Strategien und Denkweisen entwickeln, um sich wirksam gegen Data Poisoning zu schützen. /// von Dr. Till Plumbaum

BLIND GEFÜTTERT – WARUM KI NUR

SO GUT IST WIE IHRE DATEN. Künstliche Intelligenz steht zunehmend im Fokus gezielter Angriffe. Längst sind nicht mehr nur IT-Infrastrukturen das Ziel böswilliger Akteure, sondern zunehmend auch die Modelle selbst und Daten, auf denen KI-Systeme trainiert werden. Eine besonders gefährliche Form der digitalen Manipulation ist das sogenannte Data Poisoning, oder auch die Datenvergiftung. Dabei werden Trainingsdaten gezielt manipuliert, um das Verhalten von KI-Systemen systematisch zu beeinflussen. Die Folgen sind fehlerhafte Entscheidungen – mit potenziell gravierenden Folgen für Unternehmen, Nutzer und die öffentliche Sicherheit.

Wie Datenvergiftung funktioniert

KI-Modelle basieren auf datengetriebenem Lernen. In der Trainingsphase

analysieren sie große Datenmenge um Muster, Zusammenhänge und Wahrscheinlichkeitsverteilungen zu erkennen. Genau hier setzen Angreifer an: Durch das Einschleusen gezielt manipulierter oder irreführender Daten können sie Einfluss auf das KI-System nehmen. Im Gegensatz zu klassischen Hacks sind solche Angriffe schwer zu erkennen. Oft bleibt die Manipulation so lange unbemerkt, bis das System im produktiven Einsatz unerklärliche oder gar gefährliche Entscheidungen oder Aussagen trifft.

Die gefährlichsten Angriffe lassen sich in zwei Hauptkategorien unterteilen: Manipulation bei der Erstellung von Trainingsdaten sowie gezielte Vergiftung über externe Datenquellen im laufenden Betrieb. Besonders anfällig sind Systeme,

die ständig aus neuen Daten lernen – etwa im Kundenservice, bei der Kreditvergabe oder bei automatisierten Entscheidungsprozessen im Gesundheitswesen. Eine zentrale Herausforderung beim Einsatz von KI-Systemen liegt dabei in ihrer mangelnden Transparenz. Ihre Entscheidungsprozesse sind für Außenstehende nur schwer nachvollziehbar. Das erschwert nicht nur die Validierung von Ergebnissen, sondern auch die frühzeitige Erkennung gezielter Manipulationen.

Besonders bedrohte Branchen

Die Bedrohung durch Datenvergiftung betrifft nahezu alle Branchen. Besonders im Fokus stehen jedoch Branchen, in denen KI über sicherheitsrelevante oder geschäftskritische Prozesse entscheidet. Dazu gehören:

” Unternehmen müssen nicht nur technische, sondern auch moralische Verantwortung übernehmen: durch FairnessChecks, Algorithmentransparenz und einen bewussten Umgang mit Daten. (Dr. Till Plumbaum)

DER AUTOR

Dr. Till Plumbaum

ist Senior Principal Data Strategist bei Alexander Thamm und Experte für künstliche Intelligenz. Mit langjähriger Erfahrung als Head of AI bringt er tiefgehendes Know-how in den Bereichen Machine Learning, Natural Language Processing, Personalisierung und Recommender Systeme mit.

Foto: Alexander Thamm

• Finanzwesen:

Algorithmen zur Betrugserkennung können durch manipulierte Daten gezielt geschwächt werden. Eine Datenvergiftung kann dazu führen, dass betrügerische Transaktionen als unauffällig eingestuft und nicht erkannt werden.

• Gesundheitswesen:

Durch vergiftete Daten manipulierte KI-Systeme könnten immer bestimmte Therapien oder Medikamente von spezifischen Anbietern empfehlen.

• Verteidigung & Sicherheit:

Manipulierte Trainingsdaten können dazu führen, dass feindliche Ziele nicht erkannt oder zivile Objekte fälschlich als Bedrohung eingestuft werden. Das schwächt die Einsatzfähigkeit sicherheitskritischer Systeme und gefährdet im Ernstfall Menschenleben.

Gegenmittel:

Red Teaming und robustes Datenmanagement

Um sich gegen solche Angriffe zu wappnen, reicht das klassische IT-Sicherheitsmanagement nicht mehr aus. KI erfordert eigene Sicherheitsstrategien – und neue Denkweisen.

Zwei Ansätze sind besonders vielversprechend:

1. Robustes Datenmanagement:

Unternehmen müssen genau wissen, woher ihre Trainingsdaten stammen, wie sie erhoben wurden und ob sie vertrauenswürdig sind. Dazu gehört die Validierung durch mehrere Datenquellen, die Verwendung synthetischer Testdaten und der gezielte Ausschluss manipulierbarer Eingaben.

2. Red Teaming für KI:

Red Teams übernehmen die Perspektive potenzieller Angreifer, um gezielt Schwachstellen in den Trainingsdaten, in der Modellarchitektur oder in den Schnittstellen zur Anwendung aufzudecken. Diese Tests müssen realistisch, kreativ und kontinuierlich sein – denn auch Angreifer und Bedrohungsszenarien entwickeln sich weiter. Red Teaming trägt auch dazu bei, organisatorische und regulatorische

Sicherheitsziele zu überprüfen und zu konsolidieren.

Regulatorische Anforderungen und ethische Perspektiven Mit dem EU AI Act entsteht derzeit der erste umfassende Rechtsrahmen für KI in Europa. Neben Transparenzund Dokumentationspflichten werden auch Risikobewertungen und Mechanismen zur Fehlervermeidung gefordert. Unternehmen, die KI einsetzen, müssen künftig nachweisen, dass ihre Systeme sicher, fair und nachvollziehbar funktionieren. Dies gilt insbesondere für sogenannte Hochrisikosysteme.

Ein zentraler Aspekt dabei ist der Schutz vor gezielten Manipulationen – etwa durch Datenvergiftung. Um diesen Risiken zu begegnen, gewinnen proaktive Prüfverfahren wie Red Teaming an Bedeutung: Sie helfen, verwundbare Stellen in Daten, Modellen und Schnittstellen frühzeitig zu identifizieren. Auch ethische Anforderungen sind damit verbunden. Denn fehlerhafte oder manipulierte KI-Entscheidungen können Menschen schaden, Diskriminierung verstärken oder das Vertrauen in digitale Systeme zerstören. Unternehmen müssen daher nicht nur technische, sondern auch moralische Verantwortung übernehmen: durch Fairness-Checks, Algorithmentransparenz und einen bewussten Umgang mit Daten.

Fazit:

Wachsamkeit ist der beste Schutz Künstliche Intelligenz ist kein statisches Werkzeug, sondern ein lernendes System – mit allen damit verbundenen Stärken und Schwächen. Eine der größten Sicherheitsbedrohungen für KI-Systeme ist die Datenvergiftung. Um sich zu schützen, müssen Unternehmen neue Sicherheitsstrategien entwickeln, Angriffsvektoren verstehen und ihre Modelle kontinuierlich testen.

Red Teaming, solides Datenmanagement und die Einhaltung regulatorischer Standards sind keine Übungen für den Ernstfall, sondern die Grundlage für eine sichere, vertrauenswürdige und verantwortungsvolle Nutzung von KI. •

DIE ROLLE DER KI

IN DER CYBER-SECURITY

Künstliche Intelligenz unterstützt Security-Verantwortliche bei der der Erkennung von Bedrohungsdaten. Deren explorative Zahl wäre mit menschlichen Ressourcen nicht mehr beizukommen. Welche Rolle spielt KI dagegen bei der Analyse und Bearbeitung der Vorfälle und welche Schattenseite birgt KI in Sachen Cyber-Security? /// von Sven Hillebrecht

Erkennung von Bedrohungen

Im Microsoft Bericht über Digitale Abwehr 2024 sind 78 Billionen Sicherheitssignale täglich benannt. KI-Systeme sind in der Lage, Bedrohungen automatisch zu erkennen, indem sie diese großen Datenmengen analysieren und Muster sowie Anomalien identifizieren, die menschlichen Analysten möglicherweise entgehen. Durch den Einsatz von maschinellem Lernen können diese Systeme kontinuierlich dazulernen. So lernen sie das normale Verhalten von Benutzern und Geräten zu verstehen. Wenn eine Abweichung von diesem normalen Verhalten erkannt wird, kann dies auf eine potenzielle Bedrohung hindeuten. Dies führt zu einer deutlichen Verkürzung der Reaktionszeiten und einer effizienteren Abwehr von Cyberangriffen.

Analyse und Reaktion

Die Menge an Daten, die in modernen IT-Infrastrukturen der Unternehmen

KI in Cyber-Security –zwei Seiten einer Medaille Quelle: Bild KI-generiert für Adlon

generiert wird, ist enorm. KI kann diese Datenmengen in Echtzeit analysieren und dabei helfen, potenzielle Sicherheitslücken und Bedrohungen frühzeitig zu identifizieren. Mittlerweile können KI-Systeme auch Maßnahmen ergreifen, um die Bedrohung zu neutralisieren. Zum Beispiel kann die KI verdächtige E-Mail in den Spam-Ordner verschieben oder blockieren, bevor sie den Mitarbeiter erreichen. Oder das KI-System isoliert ein infiziertes Gerät, um die Ausbreitung der Malware zu verhindern. Im Gegensatz zur reinen Automation lernt das KI-System von der Reaktion der Nutzer und Verantwortlichen auf diese Maßnahmen.

Vorhersage von Schwachstellen

Ein weiterer Vorteil von KI in der Cyber-Security ist die Fähigkeit, Schwachstellen in IT-Systemen vorherzusagen. Durch die Analyse historischer Daten und die Identifizierung von Mustern können KI-Systeme Schwachstellen erkennen, bevor sie ausgenutzt werden. Dies ermöglicht es Unternehmen, proaktive Maßnahmen zu ergreifen und ihre Systeme zu stärken, bevor ein Angriff stattfindet.

Kriminelle Nutzung von KI

Leider nutzen auch kriminelle Akteure die Möglichkeiten von KI, um kom-

plexere Bedrohungen zu entwickeln. Diese sind schwerer zu erkennen und abzuwehren, da sie sich ständig weiterentwickeln und anpassen. KI kann verwendet werden, um Phishing-EMails zu erstellen, die nahezu ununterscheidbar von legitimen Nachrichten sind, oder um Malware zu entwickeln, die sich intelligent verhält und schwer zu entdecken ist.

Bekanntes Beispiel für eine komplexe Bedrohung, die durch KI entwickelt wurde, ist Emotet. Als Banking-Trojaner gestartet, hat sich Emotet zu einer der gefährlichsten und anpassungsfähigsten Malware-Bedrohungen entwickelt. Emotet nutzt KI, um Phishing-E-Mails zu erstellen, die sehr überzeugend und personalisiert sind. Diese E-Mails enthalten oft Links oder Anhänge, die beim Öffnen die Malware auf das System des Opfers herunterladen.

Ein umstrittenes Beispiel ist DeepLocker, eine KI-basierte Malware, die von IBM entwickelt wurde, um die potenziellen Gefahren von KI in der Cybersicherheit zu demonstrieren. DeepLocker nutzt KI, um sich gezielt auf bestimmte Personen zu konzentrieren und bleibt dabei unentdeckt, bis sie ihr Ziel erreicht. Sie verwendet Gesichtserkennung und andere biometrische Daten. •

DER AUTOR

Sven Hillebrecht

Sven Hillebrecht ist KI General Manager des IT-Beratungsunternehmens Adlon.

Quelle: Adlon Intelligent Solutions GmbH

Künstliche Intelligenz als Schlüssel: Agenturen an der Spitze der Transformation

Die ganze Welt spricht von künstlicher Intelligenz. Doch wie sieht die Nutzung in der Praxis aus? Eine Studie des Bundesverbandes Digitale Wirtschaft (BVDW) zeigt: Agenturen sind die Treiber der KI-Transformation in Deutschland. 98 Prozent der befragten Agenturen nutzen generative KI. Mehr als ein Viertel (28 Prozent) hat bereits eigene Modelle entwickelt. Über die Hälfte (54 Prozent) hat KI-Modelle für ihren eigenen Bedarf angepasst und verfügt damit über sogenannte „customized KI-Modelle”. •

Preisanstieg nach VMware-Deal: Beschwerde bei EU-Kommission gegen Broadcom

Es war einer der großen Mega-Deals in der IT-Branche, als Broadcom im Frühjahr 2024 Vmware übernahm. Doch nun stehen Vmware und die Kundenbasis vor einem Scherbenhaufen: Mitarbeiter mussten gehen und die Preise stiegen. Der Bundesverband der IT-Anwender (Voice) har nun bei der EU-Kommission Beschwerde wegen Wettbewerbsverstößen gegen Broadcom eingereicht. Nach Auffassung des Anwenderverbands missbrauche Broadcom seine dominante Marktstellung im Bereich Virtualisierungs-Software.

Steigende Anforderungen:

Digitalkompetenz wird für Mitarbeiter in Unternehmen entscheidend

Die Digitalisierung in Deutschland schreitet voran – und erfordert von den Mitarbeitern ganz neue Kompetenzen: Wie nutzt man sinnvoll eine künstliche Intelligenz? Oder wie setzt man gewinnbringend Cloud-Dienste ein? Ohne zusätzliche grundlegende Digitalkompetenzen geht heutzutage in vielen Berufen nichts mehr. Das haben viele Unternehmen erkannt und setzen daher auf die Weiterbildung ihrer Angestellten. Rund drei Viertel der Unternehmen (73 Prozent) in Deutschland bilden ihre Mitarbeiter zu Digitalthemen weiter. Das geht aus einer Befragung des Digitalverbands Bitkom im ersten Quartal 2025 hervor.

Allerdings gibt es bei den meisten Unternehmen (62 Prozent) solche Angebote nur vereinzelt, lediglich bei 11 Prozent werden sie allen oder fast allen Beschäftigten angeboten. Bei weiteren 18 Prozent gibt es bislang keine solchen Weiterbildungen, sie werden aber diskutiert oder geplant. Nur für 8 Prozent der Unternehmen ist die Vermittlung digitaler Kompetenzen aktuell kein Thema. •

NEWS

Voice wirft Broadcom konkret vor, mithilfe willkürlich zusammengestellter Produkt-Bundles exorbitante und unfaire Preiserhöhungen durchzusetzen. Die direkt betroffenen Unternehmen, für die Voice die Beschwerde angestrengt hat, beklagen Preiserhöhungen von mehreren hundert Prozent.

Eine Sprecherin von Broadcom teilte indessen DIGITAL BUSINESS mit, dass das Unternehmen die Beschwerde von Voice entschieden zurückweist und beabsichtigt, die Anschuldigungen anzufechten. •

Besorgnis über die elektronische Patientenakte: Experten fordern bessere Sicherheitsmaßnahmen und eine optimierte Zugriffsverwaltung

Nach Abschluss der Testphase ging die elektronische Patientenakte (ePA) im April für alle gesetzlich Krankenversicherten bundesweit an den Start. Doch Experten äußern weiter Kritik: die Sicherheitsarchitektur sei mangelhaft und Patienten wüssten nicht, wer alles Zugriff auf ihre automatisch eingespeisten Medikationslisten, Abrechnungsdaten oder sensiblen Diagnosen haben. „Den heutigen ePA-Start beobachten wir mit großer Sorge“, sagt etwa Sylvia Urban, Vorstand der Deutschen Aidshilfe (DAH). Technische Sicherheitslücken seien nicht glaubhaft geschlossen und ein einfacher, selbstbestimmter Umgang mit sensiblen Diagnosen sei nicht gewährleistet. Ihr Fazit: „Die ePA kann viel zu einer besseren Gesundheitsversorgung beitragen – aber sie ist noch nicht einsatzbereit.“ Die Deutsche Aidshilfe warnt bereits seit langer Zeit, dass die ePA Diskriminierung Vorschub leisten könnte. Benötigt werde eine Benutzeroberfläche, die es erlaubt, bestimmte Informationen einfach und wirkungsvoll zu verbergen oder nur für bestimmte Einrichtungen freizugeben. •

Künstliche Intelligenz im Gesundheitswesen kommt in Schwung

Immer mehr Gesundheitsdienstleister setzen auf Automatisierungslösungen mit künstlicher Intelligenz, um die Effizienz von Arbeitsabläufen und den Patientenservice zu verbessern. /// von Dr. Marlene Wolfgruber

DIE GESUNDHEITSVERSORGUNG IN HOHER QUALITÄT ZU ANGEMESSENEN KOSTEN ZU GEWÄHRLEISTEN, stellt eine große Herausforderung dar. Die aktuellen Herausforderungen im Gesundheitswesen wie Fachkräftemängel und Kostenexplosion erfordern neue Strategien. Jede Einrichtung im Gesundheitswesen steht unter dem Druck, Prozesse zu optimieren und Kosten zu senken. Künstliche Intelligenz kann hier eine Lösung sein.

Von großen Kliniken in Ballungsräumen bis zur kleinen Landarztpraxis – medizinische Leistungen sind ohne IT-Unterstützung heute kaum noch denkbar. Die Digitali-

DIE AUTORIN

Dr. Marlene Wolfgruber ist Product Marketing Leader & Computational Linguist bei Abbyy. Bild: Abbyy

bietet das Potenzial, in allen diesen Bereichen effizienter und effektiver zu werden.

Die Nutzung von KI im Klinikalltag ist gegenüber herkömmlichen digitalen Anwendungen jedoch auf einem technologisch höheren Niveau angesiedelt. KI-Anwendungen kommen derzeit noch nicht flächendeckend zum Einsatz, bewähren sich aber vielerorts bereits in der Praxis.

Prozesse optimieren und Kosten senken Gesundheitsdienstleister setzen auf KI-gesteuerte intelligente Automatisierungslösungen, um eine schnellere und effektivere Gesundheitsversorgung zu erzielen und das Kostenproblem in den Griff zu bekommen. KI soll dabei helfen, mit weniger mehr zu erreichen, und das in einem äußerst komplexen Umfeld. Durch die Digitalisierung werden Administratoren und klinische Teams mit immer mehr Tabellen und Berichten konfrontiert. Obwohl sie über umfassende Informationen verfügen, sind sie aus Zeitmangel oft gezwungen, wichtige operative Entscheidungen ohne vollständigen Einblick zu treffen. KI soll vor allem helfen, den Überblick zu bewahren und in jeder Situation die erforderlichen Informationen schneller zur Verfügung zu stellen.

sierung ist der Schlüssel zu mehr Effizienz. Sie schreitet im Gesundheitswesen generell voran, wenn auch nicht immer im vorgesehenen Tempo. Zu Beginn der Corona-Pandemie ist der gravierende Ausbaubedarf bei digitalen Anwendungen in der deutschen Gesundheitsversorgung besonders deutlich geworden.

KI: Hohes Potenzial im Gesundheitswesen

Das Ziel ist klar, wie es auch das Fraunhofer-Institut für Experimentelles Software Engineering (IESE) in einer aktuellen Studie verdeutlicht: „Die Digitalisierung des gesamten Versorgungspfades von Patienten von der Prävention über die Diagnostik, die Versorgung, die Therapie bis hin zu den Verwaltungsprozessen ist das Ziel vieler Beteiligter im Gesundheitswesen.” Künstliche Intelligenz

Der Einsatz einer universellen KI wäre im Gesundheitswesen aber kaum hilfreich und würde auch den strengen Branchenanforderungen nicht genügen. Intelligente Automatisierungslösungen für das Gesundheitswesen basieren daher auf speziell entwickelter KI. Ziel ist es, den Informationsfluss im Klinikalltag zu beschleunigen und Möglichkeiten zur Prozessverbesserung zu identifizieren. Vorab branchenspezifisch trainierte KI-Modelle ermöglichen den Zugriff auf sofort einsatzbereite Funktionen für die Dokumentenverarbeitung.

KI-gestützte Prozessintelligenz unterstützt den Klinikbetrieb

Mit KI-Unterstützung ist es möglich, komplexe Arbeitsabläufe zu optimieren – von der Aufnahme und Über-

weisung von Patienten bis hin zum Betrieb der Notaufnahme und dem Ertragsmanagement. Prozessintelligenz erlaubt es, komplette Prozesse zu visualisieren, um Ineffizienzen zu erkennen und zu beheben. Mittels IDP (Intelligent Document Processing), also intelligenter Dokumentenverarbeitung, erhalten Benutzer sofortigen Zugriff auf wichtige Daten aus dokumentenintensiven Prozessen. Dadurch unterstützt KI eine schnellere und intelligentere Entscheidungsfindung.

Künstliche Intelligenz hilft dabei, Inhalte aus einer Vielzahl von Dokumententypen innerhalb weniger Minuten automatisch zu erfassen, zu klassifizieren und zu validieren. Durch die direkte Weiterleitung prozessfähiger Informationen an das richtige Informationssystem können Fachkräfte im hektischen Klinikbetrieb genauer und schneller agieren. Der Arbeitsaufwand bei intelligent automatisierten Prozessen sinkt und damit auch der Stress-Level. Indem Patientendokumente automatisch erfasst und klassifiziert werden, lässt sich beispielsweise die Patientenaufnahme effizienter und einfacher gestalten, was die Patientenversorgung beschleunigt. Entscheidend ist hierbei auch das Monitoring der Prozesseffizienz, um sicherzustellen, dass Prozesse von Anfang bis Ende wie erwartet ablaufen.

Prozesstransparenz mithilfe von Daten aus Backend-Systemen können Kliniken die Ressourcennutzung verbessern, Engpässe beheben und sogar zukünftige Ergebnisse vorhersagen. Mittels Automatisierung der Dokumentenerfassung und -erkennung sowie Datenextraktion und -validierung lässt sich die Rechnungsstellung und -verarbeitung vereinfachen. Die Informationen werden direkt an bestehende betriebswirtschaftliche Anwendungen übermittelt.

Prozessmanager erhalten einen vollständigen Überblick über die unternehmensweite Prozessausführung. Dadurch können sie Möglichkeiten zur Prozessoptimierung und Kostensenkung identifizieren. Bei der Bearbeitung von Erstattungsanträgen lässt sich durch fortschrittliche Datenerfassung und automatische Validierung die Genauigkeit und Kosteneffizienz verbessern. Daten aus gescannten oder gefaxten Dokumenten lassen sich automatisch extrahieren, um sie schneller in Abrechnungssysteme hochzuladen. Mit entsprechend automatisierten und optimierten Prozessen sind zudem Ausnahmen schneller erkennbar. Bei der Patientenaufnahme und -registrierung können Kliniken die Erfassung, Eingabe und Validierung von Patienten- und Versicherungsinformationen mithilfe von OCR-, Datenerfassungs-, Klassifizierungs- und Identi-

” Der Einsatz einer universellen KI wäre im Gesundheitswesen kaum hilfreich und würde auch den strengen Branchenanforderungen nicht genügen. Intelligente Automatisierungslösungen für das Gesundheitswesen basieren daher auf speziell entwickelter KI. (Dr. M. Wolfgruber)

© ipopba/stock.adobe.com

Purpose-Built AI-Lösungen decken bereits vielfältige Szenarien ab Spezialisierte KI-Lösungen, sogenannte Purpose-Built-AI Lösungen, decken bereits vielfältige Szenarien im Gesundheitswesen ab. Durch die vollständige, durchgängige tätsprüfungstechnologien vereinfachen. Vorhandene Patientenakten und Gesundheitsdaten lassen sich nahtlos in elektronische Patientenakten und damit verbundene Workflows integrieren, ohne Prozessabläufe oder die Patientenversorgung zu unterbrechen. •

Entlasten, vernetzen, VERBESSERN

Die Digitalisierung im Gesundheitswesen sollte Bürokratie abbauen, Prozesse vereinfachen, Kosten senken und die Versorgung optimieren. Stattdessen steigen die Aufwände, die Effizienz stagniert – und viele Ärzte und Einrichtungen arbeiten weiterhin mit Faxgeräten. Was läuft falsch? Und: Wie sollte es laufen? /// von Dr. Philip Groth

EIN BLICK ZURÜCK ZEIGT: DIE DIGITALISIERUNG WURDE IN DEUTSCHLAND VON ANFANG AN FALSCH GEDACHT. Technisch machbare Lösungen wurden umgesetzt, ohne bestehende Abläufe zu hinterfragen. Das Ergebnis: Digitale Prozesse, die kaum Vorteile bringen, aber neue Hürden schaffen.

Faxgeräte und PDFs statt Fortschritt

Laut einer Studie von Bitkom, gaben im Jahr 2021 noch mehr als 20 Prozent der Ärzte an, regelmäßig per Fax zu kommunizieren. Heute werden diese Formulare häufig

DER AUTOR

Dr. Philip Growth ist Managing Director bei Cherry Digital Health.

Digitalisierung darf nicht bedeuten, alte Prozesse einfach in digitale Form zu bringen. Sie muss genutzt werden, um Prozesse neu zu denken (Dr. Philip Growth)

durch PDFs ersetzt – die dann per E-Mail oder Messenger verschickt werden. Ein echter Fortschritt ist das nicht, denn der Medienbruch bleibt, Datenschutzprobleme inklusive. Die elektronische Patientenakte (ePA) wurde zwar 2003 beschlossen, aber erst 2021 eingeführt. Bis Anfang 2025 nutzte kaum jemand das System. Erst durch ein Opt-out-Verfahren, bei dem Patienten aktiv widersprechen müssen, wurden rund 70 Millionen ePAs automatisch erstellt. Ob das wirklich ein Erfolg ist, bleibt fraglich – denn die Nutzung ist nicht gleichbedeutend mit echtem Mehrwert.

Neue Technik, alte Probleme

Ein zentrales Problem: Die bestehenden analogen Pro-

zesse wurden weitgehend beibehalten. Die Digitalisierung wurde nicht genutzt, um Abläufe zu überdenken oder zu verbessern. Stattdessen wurden Papierdokumente durch digitale Versionen ersetzt – ohne Effizienzgewinn.

Ein Beispiel ist die elektronische Arbeitsunfähigkeitsbescheinigung (eAU). Zwar wird diese digital an die Krankenkassen übermittelt, gleichzeitig müssen Praxen aber auch einen Ausdruck für den Patienten erzeugen – ein Mehraufwand ohne zusätzlichen Nutzen. Manche Krankenkassen fordern sogar einen zusätzlichen Versand per Post, falls sie noch nicht digital angebunden sind. Gleichzeitig erschweren komplexe Zuständigkeiten und hohe

Sicherheitsanforderungen die Umsetzung. Verschiedene Akteure wie die Gematik, das Bundesamt für Sicherheit in der Informationstechnik (BSI) und die Kassenärztlichen Vereinigungen müssen sich abstimmen – ein langer Prozess, der Entscheidungen verlangsamt und die Umsetzung neuer Ideen lähmt.

Das E-Rezept – gut gedacht, schlecht umgesetzt

Ein weiteres Beispiel für diese Kluft zwischen Anspruch und Wirklichkeit ist das elektronische Rezept. Seit 2024 müssen Arztpraxen Rezepte digital ausstellen. Doch viele Pflegeheime – in denen besonders viele Medikamente verschrieben werden – sind noch gar nicht technisch angebunden. Laut der Kassenärztlichen Bundesvereinigung (KBV) haben aktuell nur rund 600 von 12.000 Einrichtungen Zugang zur Telematikinfrastruktur.

Zusätzlich verbietet das sogenannte Makelverbot die direkte digitale Übermittlung eines Rezepts an eine Apotheke. Der Umweg über Server, sichere E-Mail oder sogar das Pflegepersonal, das das Rezept zur Apotheke bringt, ist oft die einzige Lösung. Eine einfache Direktübertragung mit Zustimmung des Patienten wäre technisch längst möglich, ist aber gesetzlich blockiert.

Strukturwandel: Neue Zuständigkeiten, klare Ziele Ein Trostpflaster: Inzwischen hat ein Umdenken begonnen. Die Gematik wird zur Digitalagentur Gesundheit ausgebaut und erhält mehr Steuerungskompetenz. Das BSI bleibt beratend eingebunden, verliert aber sein Vetorecht. Ziel ist es, Entscheidungen schneller und nutzerorientierter zu treffen. Zudem wurde ein Kompetenzzentrum für Interoperabilität eingerichtet. Es soll sicherstellen, dass verschiedene Systeme im Gesundheitswesen künftig besser miteinander kommunizieren können – ein zentraler Punkt, denn derzeit herrscht oft digitale Sprachlosigkeit zwischen den Beteiligten.

Digitalisierung vom Menschen aus denken

Die zentrale Erkenntnis: Digitalisierung darf nicht bedeuten, alte Prozesse einfach in digitale Form zu bringen. Sie muss genutzt werden, um Prozesse neu zu denken. Welche Informationen werden wirklich benötigt? Wer braucht wann welchen Zugriff? Welche Schritte können entfallen?

Ein modernes Szenario: Die Fachärztin ruft per Knopfdruck alle Vorbefunde aus der Patientenakte ab. Die elektronische Gesundheitskarte erlaubt sofortigen Zugriff. Eine KI überprüft automatisch die Medikation auf Wechselwirkungen. Rückfragen an das Krankenhaus werden über eine sichere digitale Verbindung gestellt – und die Antwort landet direkt und strukturiert in der Patientenakte. Das Rezept wird digital erstellt, über eine App direkt an die Wunschapotheke gesendet – ohne Umwege. Selbst der Transport nach Hause wird digital organisiert. Papierlos, effizient und sicher.

Fazit: Digitalisierung entschlacken, Bürokratie abbauen Datenschutz bleibt wichtig – aber Sicherheit muss mit Praktikabilität vereinbar sein. Wenn die Technik den Menschen dient und nicht umgekehrt, kann die Digitalisierung ihren eigentlichen Zweck erfüllen: entlasten, vernetzen, verbessern.

Was jetzt zählt, ist eine klare Linie: weniger Komplexität, mehr Fokus auf den Nutzen für Patienten und medizinisches Personal. Die neue Digitalagentur kann ein entscheidender Motor dieses Wandels sein – wenn sie entschlossen handelt und sich auf das Wesentliche konzentriert.

Denn: Eine entbürokratisierte Digitalisierung ist kein Luxus, sondern Voraussetzung für ein zukunftsfähiges Gesundheitssystem. •

” Was jetzt im Gesundheitswesen zählt, ist eine klare Linie: weniger Komplexität, mehr Fokus auf den Nutzen für Patienten und medizinisches Personal.

(Dr. Philip Growth

Die Pläne der neuen Koalition: Datenschutz light, Cybersecurity heavy?

Seit Anfang Mai ist die neue Bundesregierung im Amt. Ihr Koalitionsvertrag stellt den gesamten Umgang mit Daten auf den Prüfstand: Datenschutz soll schlanker werden, die IT-Sicherheit robuster und der Zugang zu öffentlichen Daten breiter. Weniger Bürokratie, klarere Zuständigkeiten und mehr Spielraum für digitale Innovation sind die Leitlinien. Ein Blick auf die wichtigsten Punkte zeigt, wo angesetzt werden soll. /// von Melanie Ludolph

DIE AUFSICHT FÜR WIRTSCHAFT UND BUND soll künftig allein bei der Bundesbeauftragen für Datennutzung, Datenschutz und Informationsfreiheit liegen. Zugleich wird die Datenschutzkonferenz (DSK) gesetzlich verankert, um Länderinteressen einzubinden. KMU sowie Vereine sollen von Dokumentations- und Benennungspflichten entlastet werden, risikoarme Verarbeitungen teils ganz herausfallen. Bei staatlichen OnlineDiensten soll statt klickreicher Einwilligungen ein einfaches Opt-out reichen. Auf EU-Ebene wirbt Berlin dafür, nicht-kommerzielle oder gering riskante Datenflüsse teilweise aus dem DSGVO-Regime auszunehmen.

Datenpolitik und IT-Sicherheit

Parallel zu den geplanten Entlastungen im Datenschutz stellt die Koalition auch die Weichen für eine offenere Datenpolitik und eine deutlich robustere IT-Sicherheitsarchitektur. Eine „Kultur der Datennutzung“ soll entstehen. Schon 2025 ist ein Forschungsdatengesetz angekündigt, später ein umfassendes Datengesetzbuch. Grundidee: „public money,

DIE AUTORIN

public data“ – öffentlich finanzierte Informationen werden standardmäßig frei verfügbar. Datentreuhänder sollen Qualität und Vertrauen sichern, während Privacy-Enhancing Technologies Grundrechte schützen. Geplant ist auch der Once-Only-Grundsatz: Bürger und Unternehmen liefern Basisdaten dem Staat nur ein einziges Mal; ein Doppelerhebungsverbot und interne Austauschpflichten sollen Mehrfachabfragen beenden.

Zugleich zieht die Regierung die Schrauben bei der Datenerfassung für Sicherheit an. Sicherheitsbehörden sollen automatisierte, KI-gestützte Analysen einsetzen dürfen und – in engen Grenzen schwerer Straftaten – auf retrograde biometrische Fernidentifizierung zugreifen.

Vorgesehen sind zudem eine dreimonatige Vorratsspeicherung von IP-Adressen, automatisierte Kennzeichenlesesysteme im Aufzeichnungsmodus und Schnittstellen, über die Plattformen strafrelevante Daten direkt an Ermittler ausliefern. Selbst anonyme Hass-Accounts sollen künftig gesperrt werden können.

Die dritte Baustelle ist die Cybersicherheit. Das BSI wird zur Zentralstelle ausgebaut, das BSI-Gesetz im Zuge der NIS-2-Umsetzung überarbeitet. Geplant sind härtere Standards für kritische Infrastrukturen, Aufklärungshilfen für den Mittelstand beim Cyber Resilience Act und – soweit verfassungsrechtlich möglich – der Ausbau aktiver Cyberabwehr inklusive einer neuen technischen Zentralstelle beim Nachrichtendienstverbund.

Fazit

Soweit die Entwürfe. Ob sie wirklich Bürokratie abbauen, den Schutz persönlicher Daten stärken und die ITSicherheit erhöhen, wird sich erst in den Gesetzgebungsverfahren und im Zusammenspiel von Bund, Ländern und Brüssel zeigen – zumal ähnlich ehrgeizige Pläne in früheren Legislaturperioden häufig nie den Weg ins Gesetzblatt fanden. Klar ist: Weniger Formulare sind kein Allheilmittel. Damit Digitalisierung trägt, braucht es ernsthafte Impulse für Forschung, Infrastruktur und Talente – ein Feld, in dem Deutschland im internationalen Vergleich noch Luft nach oben hat. •

Melanie Ludolph ist Rechtsanwältin bei der europäischen Wirtschaftskanzlei Fieldfisher. Seit fast zehn Jahren berät sie Unternehmen und internationale Konzerne aus verschiedenen Branchen zu allen Aspekten des Datenschutzrechts sowie angrenzenden Rechtsgebieten. Bild: Fieldfisher

Dell GmbH

Unterschweinstiege 10 60549 Frankfurt am Main www.delltechnologies.com

Dell Technologies unterstützt Organisationen und Pripersonen dabei, ihre Zukunft digital zu gestalten und Arbeitsplätze sowie private Lebensbereiche zu transformieren. Das Unternehmen bietet Kunden das branchenweit umfangreichste und innovativste Technologie- und Services-Portfolio für das Datenzeitalter mit dem Ziel, den menschlichen Fortschritt voranzutreiben – darunter Laptops, Desktops, Server, Netzwerke, Speichersysteme, Hybrid-Cloud-Lösungen und vieles mehr.

xSuite Group GmbH

Hamburger Str. 12 22926 Ahrensburg +49 4102 88380 info@xsuite.com www.xsuite.com

xSuite Group entwickelt und vermarktet Anwendungen zur Automatisierung dokumentenbasierter Geschäftsprozesse und ist Experte für die Rechnungsverarbeitung mit SAP, inkl. E-Invoicing, Auftragsmanagement und durchgängige P2P-Prozesse. Über 300.000 User verarbeiten mit xSuite mehr als 80 Mio. Dokumente pro Jahr. Die Lösungen werden in der Cloud und hybrid betrieben und sind für alle SAP-Umgebungen zertifiziert (ECC-Systeme, SAP S/4HANA, SAP S/4HANA Cloud, SAP Clean Core). Managed Services ergänzen das Angebot.

d.velop AG

Schildarpstraße 6-8

48712 Gescher +49 2542 9307-0 info@d-velop.de www.d-velop.de

Die d.velop-Gruppe entwickelt und vermarktet StandardSoftware zur durchgängigen Digitalisierung von dokumentenbezogenen Geschäftsprozessen On-Premises, in der Cloud und im hybriden Betrieb. Das Produktportfolio reicht vom Compliance-fähigen Dokumenten-Repository bzw. Archiv und digitalen Akten über die interne Kollaboration bis zur externen Zusammenarbeit über Organisationsgrenzen hinaus. Produkte von d.velop sind aktuell bei mehr als 15.000 Geschäftskunden und bei über 4,5 Millionen Menschen weltweit im Einsatz.

Esker Software Entwicklungs- und Vertriebs-GmbH Dornacher Straße 3a 85622 Feldkirchen info@esker.de www.esker.de

Esker bietet eine globale Cloud-Plattform zur Automatisierung von Dokumentenprozessen und unterstützt Finanz-, Einkaufs- und Kundendienstabteilungen bei der digitalen Transformation in den Bereichen Order-to-Cash (O2C) und Source-to-Pay (S2P). Die Lösungen von Esker werden weltweit eingesetzt und beinhalten Technologien wie künstliche Intelligenz (KI), um die Produktivität und die Transparenz im Unternehmen zu erhöhen. Zugleich wird damit die Zusammenarbeit von Kunden, Lieferanten und Mitarbeitenden gestärkt .

easy software

Jakob-Funke-Platz 1 45127 Essen +49 201 650 69-166 info@easy-software.com www.easy-software.com

Digitalisierungsexperte und führender ECM Software-Hersteller, easy, steht seit 1990 für rechtssichere, digitale Archivierung & effiziente, automatisierte Prozesse - auch im SAP-Umfeld. Über 5.400 Kunden in über 60 Ländern und allen Branchen vertrauen auf das Unternehmen und sein starkes Partnernetzwerk. Die erstklassigen Archivierungs-, ECM-, DMS-, P2P- und HCM-Softwarelösungen & Services sind das digitale Zentrum für datenbasierte Intelligenz und machen Menschen und Organisationen erfolgreich.

Sybit GmbH

Sankt-Johannis-Straße 1-5 78315 Radolfzell +49 7732 9508-2000 sales@sybit.de www.sybit.de

We Create Customer Experience Champions! Vom KI-gestützten CRM bis zum umfassenden Kundenportal: Die Sybit GmbH ist darauf spezialisiert, Customer Journeys End-to-End zu gestalten.

Ob Lösungen für Vertrieb, eCommerce, Service oder Marketing: Sybit ist der Partner für ganzheitliches Customer Experience Management. Als Europas führende Beratung für CX vertrauen uns über 500 Konzerne und weltweit agierende mittelständische Unternehmen.

04 2025

/// Cloud-Migration

Nachhaltigkeit

Immer mehr Unternehmen setzen auf die Cloud. Was aber viele übersehen: Das bringt signifikante CO2-Emissionen mit sich.

/// Benutzererfahrung

User Interface Design

Künstliche Intelligenz vereinfacht komplexe Prozesse, reduziert Barrieren und ermöglicht personalisierte, intuitive Interaktionen.

/// Finanzierung

Grenzüberschreitende Zusammenarbeit

Die Europäische wirtschaftliche Interessenvereinigung (EWIV) bietet Unternehmen einen rechtssicheren Rahmen und Vorteile bei der Liquidität.

/// Security

Cyber Resilience Act

Die EU-Cybersicherheitsvorgaben werden Voraussetzung für das CE-Zeichen. Hersteller müssen sie damit schon bei der Entwicklung berücksichtigen.

Die nächste Ausgabe erscheint am 31. Juli 2025

Redaktionell erwähnte Firmen dieser Ausgabe

Abbyy, Adlon, Alexander Thamm, Bitkom, Broadcom, BTC, Bundesverband Digitale Wirtschaft, CGI, Cherry Digital Health, Deutsche Aidshilfe, Docuware, Easy Software, Ecosio, Fieldfisher, Forcepoint, Freshworks, Green IT Solution, Matelso, MHP, Noris Network, Observatory International, Outpost24, QuantumBasel, Reddit, Salesforce, Secunet, ServiceNow, Sophos, Spacenet, Synthflow, TA Triumph-Adler, T-Systems, Utimaco, Veeam Software, Watchguard, WIIT, X-Phy

IMPRESSUM

DIGITAL BUSINESS Magazin www.digitalbusiness-magazin.de

HERAUSGEBER UND GESCHÄFTSFÜHRER

Matthias Bauer, Günter Schürger

So erreichen Sie die Redaktion

Chefredaktion:

Heiner Sieger (v. i. S. d. P.), heiner.sieger@win-verlag.de

Tel.: +49 (89) 3866617-14

Redaktion:

Konstantin Pfliegl, konstantin.pfliegl@win-verlag.de

Tel. +49 (89) 3866617-18

Stefan Girschner, stefan.girschner@win-verlag.de

Tel.: +49 (89) 3866617-16

Mitarbeiter dieser Ausgabe: Karl Abert, Hakob Astabatsyan, Damir Bogdan, Sebastian von Bomhard, Camellia Chan, Uta Dresch, Björn Fanta, Frank Froux, Fabian Glöser, Alexander Groddeck, Dr. Philip Growth, Michael Haas, Anke Herbener, Patrick Heinen, Sven Hillebrecht, Rico Hunger-Bonvin, Martin Jartelius, Dr. Christine KnackfußNikolic, Franziska von Lewinski, Philipp Liegl, Melanie Ludolph, Christoph Nordmann, Tim Pfälzer, Dr. Till Plumbaum, Cindy Provin, Jan Schillinger, Marcus Schüler, Dr. Markus Sedlatschek, Martin Stemplinger, Stefan Tiefel, Michael Veit, Michael Wallner, Philipp Wanner, Dr. Marlene Wolfgruber, Dennis Woodside

Stellvertretende Gesamtanzeigenleitung

Bettina Prim, bettina.prim@win-verlag.de, Tel.: +49 (89) 3866617-23

Anzeigendisposition

Auftragsmanagement@win-verlag.de Chris Kerler (089/3866617-32, Chris.Kerler@win-verlag.de)

Abonnentenservice und Vertrieb Tel: +49 89 3866617 46 www.digitalbusiness-magazin.de/hilfe oder eMail an abovertrieb@win-verlag.de mit Betreff „www.digitalbusiness“ Gerne mit Angabe Ihrer Kundennummer vom Adressetikett Artdirection/Titelgestaltung: DesignConcept Dagmar Friedrich-Heidbrink Bildnachweis/Fotos: stock.adobe.com, Werkfotos

Druck:

Vogel Druck und Medienservice GmbH Leibnizstraße 5 97204 Höchberg

Produktion und Herstellung Jens Einloft, jens.einloft@vogel.de, Tel.: +49 (89) 3866617-36 Anschrift Anzeigen, Vertrieb und alle Verantwortlichen WIN-Verlag GmbH & Co. KG Chiemgaustr. 148, 81549 München Telefon +49 (89) 3866617-0 Verlags- und Objektleitung Martina Summer, martina.summer@win-verlag.de, Tel.: +49 (89) 3866617-31, (anzeigenverantwortlich) Zentrale Anlaufstelle für Fragen zur Produktsicherheit

Martina Summer (martina.summer@win-verlag.de, Tel.:089/3866617-31)

Bezugspreise

Einzelverkaufspreis: 11,50 Euro in D, A, CH und 13,70 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Jahresabonnement (6 Ausgaben): 69,00 Euro in D, A, CH und 82,20 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Vorzugspreis für Studenten, Schüler, Auszubildende und Wehrdienstleistende gegen Vorlage eines Nachweises auf Anfrage. Bezugspreise außerhalb der EU auf Anfrage.

29. Jahrgang; Erscheinungsweise: 6-mal jährlich

Einsendungen: Redaktionelle Beiträge werden gerne von der Redaktion entgegen genommen. Die Zustimmung zum Abdruck und zur Vervielfältigung wird vorausgesetzt. Gleichzeitig versichert der Verfasser, dass die Einsendungen frei von Rechten Dritter sind und nicht bereits an anderer Stelle zur Veröffentlichung oder gewerblicher Nutzung angeboten wurden. Honorare nach Vereinbarung. Mit der Erfüllung der Honorarvereinbarung ist die gesamte, technisch mögliche Verwertung der umfassenden Nutzungsrechte durch den Verlag – auch wiederholt und in Zusammenfassungen –abgegolten. Eine Haftung für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion vom Herausgeber nicht übernommen werden. Copyright © 2025 für alle Beiträge bei der WIN-Verlag GmbH & Co. KG

Kein Teil dieser Zeitschrift darf ohne schriftliche Genehmigung des Verlages vervielfältigt oder verbreitet werden. Unter dieses Verbot fällt insbesondere der Nachdruck, die gewerbliche Vervielfältigung per Kopie, die Aufnahme in elektronische Datenbanken und die Vervielfältigung

auf CD-ROM und allen anderen elektronischen Datenträgern.

Ausgabe: 03/2025

ISSN 2510-344X

Unsere Papiere sind PEFC zertifiziert

Wir drucken mit mineralölfreien Druckfarben

Außerdem erscheinen beim Verlag:

AUTOCAD Magazin, BAUEN AKTUELL, r.energy, DIGITAL ENGINEERING Magazin, DIGITAL MANUFACTURING, e-commerce Magazin, DIGITAL PROCESS INDUSTRY, KGK Kautschuk Gummi Kunststoffe, PLASTVERARBEITER, PlastXnow

Branchenwissen. Digital. Kompakt. Bequem.

Willkommen bei der Podcast-Plattform des Digital Business Magazins –Ihrer Quelle für intelligente Expertise! Lernen Sie von Branchenexperten, Vordenkern und Innovatoren. Wir liefern präzise Insights, aktuelle Trends und praxisnahe Strategien direkt in Ihre Ohren. Ob Führungskraft, Professional oder ewig Lernender: Verpassen Sie keine Episode und bleiben Sie an der Spitze des digitalen Wandels. Ihr Wissensvorsprung startet hier!

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.