Digital Business Cloud 02/2025

Page 1


security insight

DATENEXZELLENZ

Effizientes Datenmanagement erfordert mehr als innovative Ansätze –die richtigen Tools sind entscheidend.

Mit dem digitalen Klon des CEOs stehen dessen Wissen und Grundsätze jeder Person zur Verfügung.

LOGISTIK

Umbruch durch Automatisierung: Autonome Maschinen setzen neue Maßstäbe in Effizienz und Sicherheit.

EDI TOR IAL

Liebe Leserin, lieber Leser,

• Künstliche Intelligenz ist im Gesundheitswesen längst eine transformative Kraft. Die Gesundheitsbranche steht am Beginn einer neuen Ära. Grund genug, uns dem Thema in unserer Titelstrecke „Digital Health“ zu widmen: „KI führt Regie“ – und revolutioniert die Art und Weise, wie Ärzte in ihren Praxen arbeiten, Kliniken verwaltet werden und Pharma-Unternehmen ihre Produkte entwickeln und vermarkten. Die Technologien versprechen nicht nur Effizienzgewinne, sondern eine signifikante Verbesserung der Patientenversorgung.

Datenlücken gefährden Patientenversorgung Veraltete IT und mangelnde Vernetzung in Kliniken gefährden Patientenleben. Bis zu 65.000 Todesfälle jährlich könnten durch bessere Informationsverfügbarkeit vermieden werden. Moderne Krankenhausinformationssysteme versprechen Abhilfe: Sie ermöglichen den nahtlosen Austausch strukturierter Daten und verbessern so die Behandlungsqualität entscheidend. Mittlerweile streamt KI die Abläufe zwischen Departments und optimiert gleichzeitig den Patientenfluss. Von der Terminvereinbarung über die Verwaltung der Patientenakten bis hin zur Abrechnung – KI-Systeme sorgen dafür, dass diese Prozesse nahtlos ineinandergreifen.

Historischer Umbruch in der Pharmaindustrie

Auch die Pharmaindustrie steht vor einem historischen Umbruch. KI und maschinelles Lernen revolutionieren nicht nur einzelne Prozesse, sondern das gesamte Verständnis von Arzneimittelentwicklung, Krankheitsbe-

handlung und Patientenversorgung. Unternehmen, die schon frühzeitig auf KI gesetzt haben, verzeichnen bereits beachtliche Fortschritte, sei es durch optimierte Forschungs- und Entwicklungsprozesse oder effizientere administrative Abläufe. Mit diesen Fortschritten kommen auch Herausforderungen. So hat sich in den vergangenen Jahren vor allem die europäische Regulierungslandschaft für klinische Studien erheblich gewandelt, mit neuen Rahmenwerken wie der EU-Datenschutz-Grundverordnung (DSGVO), dem KI-Gesetz (AI Act), der Initiative zur Beschleunigung klinischer Studien (ACT EU) und dem kommenden europäischen Biotechnologiegesetz. Biopharma-Unternehmen beispielsweise müssen sich an strengere Compliance-Anforderungen, erhöhte Datentransparenz und sich weiterentwickelnde technologische Fähigkeiten anpassen.

Der CEO als digitaler Mentor Wir immer haben wir auch zu weiteren Digitalsierungsthemen ein breite Palette an Fachbeiträgen für Sie zusammengestellt. So beschreiben unsere Autorinnen und Autoren unter anderem, wie Ihr Unternehmen mit Self-Servie-Tools zu wahrer Datenexzellenz kommt und wie der Avatar des CEOs dazu beitragen kann, als digitaler Mentor Wissen und Grundsätze der Geschäftsleitung in die Belegschaft zu transportieren.

Ich wünsche Ihnen wie immer eine spannende Lektüre. Lassen Sie sich inspirieren, und bleiben Sie gesund und frohgelaunt. •

Ihr

HEINER SIEGER, Chefredakteur DIGITAL BUSINESS

heiner.sieger@win-verlag.de

CLOUD-COMPUTING

18 Mit Self-Service Tools zur Datenexzellenz

Durch planvolle Auswahl und Integration der Technologien können Unternehmen das volle Potenzial ihrer Datenplattformen ausschöpfen.

28 Virtueller Mentor für die Belegschaft

Mit dem digitalen Klon des CEOs oder des Geschäftsführers stehen dessen Wissen und Grundsätze jeder Person immer zur Verfügung.

06

TITEL DIGITAL HEALTH: DIE KI FÜHRT REGIE

Ob in der Pharmaindustrie, in Kliniken oder Arztpraxen: Überall bestimmt künstliche Intelligenz den Takt. Sie revolutioniert Prozesse, Arbeitsweisen und Ergebnisse.

56 Logistik: Vorreiter eines globalen Wandels

Die Automatisierung von Containerterminals ist nicht länger eine Vision, sondern Realität. Autonome Zugmaschinen setzen neue Maßstäbe.

38 Disaster Recovery: Zeit ist Geld

40 Digitale Souveränität: Mehr Sicherheit

42 Expertentalk: Green Cybersecurity

45 VDI: Das Ass im Ärmel der IT-Sicherheit

46 KI: Vorsicht vor den Honigtöpfen der Hacker

48 KI-Compliance: Das müssen Firmen wissen

34 Vom Pilot zum Roll-out

Durch eine schrittweise Einführung können

Unternehmen den größtmöglichen Nutzen aus KI-Lösungen ziehen, vorausgesetzt, sie verfügen über qualitativ hochwertige Daten.

DIGITAL HEALTH

06 Regularik

08 IT

2025 – Revolution für klinische Studien?

Datenlücken gefährden Patientenversorgung

10 Datensicherheit

E-Health: Sicher kommunizieren

12 Quo vadis, Digitalisierung im deutschen Gesundheitswesen?

14 QM

Digitales QM-System für die Pflege

16 KI

Pharma 4.0: KI führt Regie

CLOUD-COMPUTING

18 Datenmanagement

Mit Self-Service-Tools zur Datenexzellenz

20 ERP

Durchgängige Prozesse

22 Rechenzentren

Klimastress: Wie digitale Schaltzentralen grüner werden

24 Migration

Mit Cloud auf Erfolgskurs

26 DevOps

Autonom administrieren

HR

28 Avatar

Virtueller Mentor für die Belegschaft

30 New Work

Remote statt Return: So geht‘s

32 KI

Zwischen Ethik und Entlastung

KI

34 Ihr Auftrag: Steuerung komplexer Prozesse

34 Vom Pilot zum Roll-out

TECHNOLOGIE

36 Zukunftstechnologie: Warum wir ein anderes Mindset brauchen

SECURITY INSIGHT

37 Titel

38 Disaster Recovery Zeit ist Geld

40 Digitale Souveränität

Sicherheit durch Souveränität

42 Expertentalk

Green Cybersecurity: Wie gelingt nachhaltige IT-Sicherheit?

45 VDI

Das Ass im Ärmel der IT-Sicherheit

46 KI

Vorsicht vor den Honigtöpfen der Hacker

48 Compliance

KI-Compliance: Das müssen Unternehmen wissen

NEWS

49 Frisch ausgepackt

DIGITALE TRANSFORMATION

50 Finanzierung

Mehr Chancen durch die Crowd

52 Start-ups

Diese Start-ups befeuern die Digitalisierung

54 Überleben im Umbruch

56 Vorreiter eines globalen Wandels

58 Nachhaltigkeit

Weniger Aufwand, mehr Impact

59 Recht

Innovationshemmer oder Vorbild?

60 CRM

Sprachtalent fürs Online-Banking 03

2025 – Revolution für klinische Studien?

DSGVO, AI-Act und das geplante EU-Biotechnologiegesetz zielen darauf ab, Vorschriften zu vereinheitlichen, Innovationen zu fördern und gesellschaftliche Bedenken hinsichtlich der ethischen Entwicklung von Biotechnologie auszuräumen. Daher ist es wichtig zu wissen, wie Biopharmaunternehmen regulatorische Änderungen der EU am besten für sich nutzen können. /// von Dr. Werner Engelbrecht

IN DEN VERGANGENEN JAHREN HAT SICH DIE EUROPÄISCHE REGULIERUNGSLANDSCHAFT für klinische Studien erheblich gewandelt, mit neuen Rahmenwerken wie der EU-Datenschutz-Grundverordnung (DSGVO), dem KI-Gesetz (AI Act), der Initiative zur Beschleunigung klinischer Studien (ACT EU) und dem kommenden europäischen Biotechnologiegesetz. Biopharma-Unternehmen müssen sich an strengere Compliance-Anforderungen, erhöhte Datentransparenz und sich weiterentwickelnde technologische Fähigkeiten anpassen. Gleichzeitig bekräftigte die Präsidentin der Europäischen Kommission im Jahr 2024 das Engagement der EU zur Förderung der europäischen Life-Sciences-Branche mit Fokus auf innovationsfreundlichen politischen Rahmenbedingungen sowie regulatorischer Harmonisierung. Dies ermöglicht Biopharma-Unternehmen, Compliance in einen echten Wettbewerbsvorteil zu verwandeln. Der Schlüssel dazu liegt in vernetzten Plattformen und Daten, KI-gestützten Effizienzsteigerungen und neuen, patientenzentrierten Modellen.

Regulatorische Entwicklungen beeinflussen die Durchführung klinischer Studien

Seit 2022 setzt die EU auf Harmonisierung der regulatorischen Anforderungen, um administrative Belastungen zu reduzieren und gleichzeitig hohe ethische und wissenschaftliche Standards zu wahren. Die Verordnung über klinische Prüfungen (Clinical Trials Regulation, CTR) hat bereits die Einreichungs- und Genehmigungsverfahren in den EU-Mitgliedstaaten standardisiert. Jetzt stehen Daten- und KI-Regulierungen im Mittelpunkt, die Compliance-Frameworks und digitale Fähigkeiten neu definieren.

Diese Vorschriften ebnen den Weg für ein stärker vernetztes, effizienteres und transparenteres Ökosystem klinischer Studien. Ein entscheidender Faktor bei dieser Transformation ist die Etablierung einer einheitlichen Plattform, die den Datenaustausch zwischen klinischen, regulatorischen, sicherheitsrelevanten und qualitätssichernden Bereichen ermöglicht und so die Grundlage für den sinnvollen Einsatz von KI schafft.

Viele Organisationen arbeiten noch immer in isolierten Systemen, in denen Compliance als separate Funktion und nicht als integraler Bestandteil des Entwicklungsprozesses betrachtet wird. Die Fähigkeit, diese Silos aufzubrechen und Echtzeit-Datenzugänge zu schaffen, wird sich als entscheidender Faktor zur Beschleunigung der Arzneimittelentwicklung erweisen.

KI über den Hype hinaus:

Reale Anwendungsfälle in der klinischen Forschung

Die Diskussion um KI in klinischen Studien ist oft von futuristischen Szenarien geprägt. Dabei sind ihre praktischen Anwendungen bereits heute spürbar und liefern konkrete Ergebnisse. So kann KI beispielsweise die Datenqualität verbessern, indem sie Anomalien und Inkonsistenzen aufdeckt und so zuverlässigere klinische Ergebnisse sicherstellt.

Außerdem kann KI die Patientenrekrutierung – bislang oft ein Engpass in der Arzneimittelentwicklung –nachhaltig verändern. Mittlerweile können Unternehmen mittels KI und entsprechender Daten Patienten schneller identifizieren und ansprechen. Während der Studienlaufzeit ermöglichen digitale Biomarker und Fernüberwachung die Erfassung von Real-World-Daten, sodass weniger Besuche in Studienzentren nötig sind. Personalisierte Strategien zur Einbindung der Patienten verbessern die Studientreue und senken die Abbruchraten. Das Ergebnis sind effizientere und diversere Studien. KI-gestützte Patient Insights ermöglichen zudem ein besseres Studiendesign, indem sie potenzielle Abbruchrisiken frühzeitig erkennen und Studienteams in Echtzeit Anpassungen vornehmen können.

Das KI-Gesetz (AI Act) schlägt spezifische Anforderungen für Hochrisiko-KI-Anwendungen vor, darunter Transparenz, Robustheit und menschliche Überwachung. Die Effektivität von KI hängt jedoch maßgeblich von der Qualität der zugrunde liegenden Daten ab. Nur mit einem soliden Datenfundament – gut integriert, qualitativ hochwertig und bereinigt – können KI-gestützte Erkenntnisse ihr volles Potenzial entfalten und einen echten Mehrwert bieten.

DER AUTOR

Dr. Werner Engelbrecht ist Senior Director Strategy bei Veeva Systems.

” Unternehmen, die vorausschauend Daten-GovernanceFrameworks implementieren, können Compliance-Risiken bereits im Vorfeld reduzieren.
(Dr. Werner Engelbrecht)

Datenmanagement für Compliance neu definieren: Sauber, transparent und zukunftssicher

Mit der zunehmenden Bedeutung der Datentransparenz in den EU-Regularien und der überarbeiteten ICH E6(R3)-Leitlinie verlagern Unternehmen ihren Fokus auf eine strukturiertere Daten-Governance mit Fokus auf Datenintegrität, Nachvollziehbarkeit und regulatorische Compliance. Die EU-Vorschriften verlangen eine lückenlose Nachvollziehbarkeit der Daten klinischer Studien, um die Rückverfolgbarkeit und Compliance aller Studiendokumente sicherzustellen. Unternehmen, die vorausschauend Daten-Governance-Frameworks implementieren, können Compliance-Risiken bereits im Vorfeld reduzieren. Dabei sind Genauigkeit und Integrität klinischer Studiendaten nicht nur regulatorische Anforderungen, sondern von entscheidender Bedeutung für das Wohl der Patienten. Der Echtzeitzugriff der Aufsichtsbehörden auf qualitativ hochwertige Daten wird ein Schlüsselfaktor sein, um schnellere Zulassungen zu erreichen und das Risiko von Compliance-bedingten Verzögerungen zu reduzieren. Angesichts des zunehmenden Einsatzes von Remote-Monitoring und dezentralen Studien gewinnt die Vereinheitlichung von Datenquellen für die Einhaltung der Vorschriften zunehmend an Bedeutung.

Technologie und regulatorische Anforderungen in Einklang bringen Einerseits gewinnt das Management von Offenlegungspflichten an Bedeutung. Aufgrund der DSGVO und der neuen EU-Transparenzvorschriften müssen Unternehmen sicherstellen, dass sensible klinische Studiendaten verantwortungsbewusst weitergegeben werden. Vernetzte Technologien können dazu beitragen, Compliance-Berichte zu automatisieren, regulatorische Einreichungen zu optimieren und öffentliche Offenlegungen so effizient zu verwalten.

Andererseits legen EU-Regulierungsbehörden auch zunehmend Wert auf nachprüfbare KI-Modelle in Bereichen wie der Studienprotokoll-Optimierung und der Erkennung unerwünschter Ereignisse (Adverse Events, AE). Unternehmen sollten daher proaktiv validierte KI-Workflows in ihre klinischen Abläufe integrieren, um sowohl regelkonform als auch wettbewerbsfähig zu bleiben.

Anstatt neue Vorschriften als Hindernis zu betrachten, sollten Unternehmen sie als Katalysator für Innovationen sehen – als Chance, Prozesse zu modernisieren, patientenzentrierte Ansätze zu stärken und neue Therapien schneller und effizienter auf den Markt zu bringen. •

Datenlücken gefährden Patientenversorgung

Veraltete IT und mangelnde Vernetzung in Kliniken gefährden Patientenleben. Bis zu 65.000 Todesfälle jährlich könnten durch bessere Informationsverfügbarkeit vermieden werden. Moderne Krankenhausinformationssysteme versprechen Abhilfe:

Sie ermöglichen den nahtlosen Austausch strukturierter Daten und verbessern so die Behandlungsqualität entscheidend. /// von Dr. Sebastian Krammer

JÄHRLICH STERBEN IN DEUTSCHLAND BIS ZU 65.000 MENSCHEN AN MEDIKATIONSFEHLERN – viele davon könnten durch eine bessere digitale Vernetzung im Gesundheitswesen verhindert werden. Wichtige Patientendaten liegen oft in isolierten Systemen vor. Fehlende Schnittstellen zwischen verschiedenen Systemen, Einrichtungen und Berufsgruppen führen dazu, dass kritische Informationen verzögert oder gar nicht weitergegeben werden.

Auch die elektronische Patientenakte (ePA) schafft in der derzeitigen Ausbaustufe nur wenig Abhilfe. Als „Dropbox” für Dokumente, liegen Informationen in der ePA nur unstrukturiert vor, sind schwer zugänglich und können nicht mit angemessenem Zeitaufwand von Ärzten gelesen werden. Dies kann im schlimmsten Fall fatale Konsequenzen haben – etwa, wenn eine Allergie oder eine Vorerkrankung übersehen wird.

Gleichzeitig steigt der Druck auf das Gesundheitssystem: Eine wachsende Zahl an Patienten, zunehmender Fachkräftemangel und steigende Anforderungen an die Dokumentation erfordern effizientere Prozesse. Eine digitale, nahtlos vernetzte Infrastruktur könnte die Lösung sein. Doch in vielen Kliniken fehlt es an einheitlichen Standards, klaren Digitalisierungsstrategien und der konsequenten Integration moderner Krankenhausinformationssysteme (KIS). Dabei sind genau diese Technologien der Schlüssel, um Behandlungsqualität und Patientensicherheit nachhaltig zu verbessern.

Der Status quo: Digitale Defizite in Kliniken

Die Digitalisierung in deutschen Krankenhäusern steckt vielerorts noch in den Kinderschuhen. Über Jahre haben sich heterogene IT-Landschaften mit inkompatiblen Systemen entwickelt, die den Datenaustausch zwischen Sys-

temen, Abteilungen, Berufsgruppen und Einrichtungen erschweren. Ein zentrales Beispiel ist das Entlassmanagement, in dem sich digitale Defizite besonders deutlich zeigen. Vorläufige Entlassbriefe werden noch immer in Papierform mitgegeben, während endgültige Dokumente oft erst Wochen später per Post versendet werden. Der fehlende direkte und strukturierte Austausch von Informationen mit den niedergelassenen Ärzten und zwischen Praxisverwaltungs- und den Krankenhausinformationssystemen (KIS) führt dazu, dass essenzielle Daten wie Medikamentenpläne, Laborwerte oder Befunde häufig erst verzögert verfügbar sind. Im schlimmsten Fall fehlen Behandelnden dadurch kritische Informationen, die für die Anschlussversorgung entscheidend sind.

Sind moderne Krankenhausinformationssysteme die Lösung?

Eine effiziente und sichere Patientenversorgung steht und fällt mit dem Zugang zu relevanten Informationen – genau hier setzen moderne Krankenhausinformationssysteme (KIS) an. Durch zentrale, strukturierte und in Echtzeit verfügbare Daten können sie Informationsverluste reduzieren, Prozesse beschleunigen und die Behandlungsqualität verbessern. Doch nicht jedes System ist automatisch die richtige Lösung.

Veraltete, abrechnungs-orientierte KIS schaffen zu häufig neue Hürden, anstatt Bürokratie abzubauen. Eine Studie des Marburger Bundes zeigt, dass die meisten Behandelnden mindestens drei Stunden am Tag mit administrativen Aufgaben (wie der Dokumentation) verbringen. Entscheidend ist daher, dass Systeme die Arbeitsrealität des Klinikpersonals berücksichtigen und die Datenerfassung nahtlos entlang des gesamten Behandlungsprozesses integrieren.

” Letztlich liegt der Schlüssel nicht nur in der Wahl der Technologie, sondern in einer klaren Digitalisierungsstrategie, die sich konsequent am Behandlungsprozess orientiert –mit echter Interoperabilität, hoher Nutzerfreundlichkeit und langfristiger Anpassungsfähigkeit.

(Dr. Sebastian Krammer)

Systeme auf Interoperabilität anlegen Darüber hinaus müssen Systeme von vornherein auf Interoperabilität ausgelegt sein, um einen nahtlosen Informationsaustausch zur richtigen Zeit zu gewährleisten. Moderne Systeme erfassen aus diesem Grund Daten vollkommen strukturiert und semantisch annotiert. So können die entscheidenden Informationen, wie konkrete Messergebnisse im Zeitverlauf, zielgerichtet aufgerufen und nach internationalen Standards (z.B. HL7) über Schnittstellen intersektoral verfügbar gemacht werden. Letztlich liegt der Schlüssel nicht nur in der Wahl der Technologie, sondern in einer klaren Digitalisierungsstrategie, die sich konsequent am Behandlungsprozess orientiert – mit echter Interoperabilität, hoher Nutzerfreundlichkeit und langfristiger Anpassungsfähigkeit. Nur so kann ein KIS sein volles Potenzial entfalten und dazu beitragen, Fehlerquellen zu minimieren, den Behandlungsprozess effizienter zu gestalten und die Patientensicherheit nachhaltig zu verbessern. •

DER AUTOR

Dr. Sebastian Krammer ist Co-Founder der Avelios Medical GmbH.

Sichern Sie sich jetzt Ihr exklusives Abonnement!

www.digital-business-cloud.de/ abonnement/

E-Health: Sicher kommunizieren

Seit 2018 ist die DSGVO schon in Kraft und dennoch kommt es weiterhin regelmäßig zu hohen Strafen aufgrund von Sicherheitslücken und unbedarftem Umgang mit personenbezogenen Daten. DSA und NIS2 verschärfen als neue EU-weite Regeln die Situation. Der Digitalfrust ist hoch – Lösungen müssen her. Wie können Gesundheitsanbieter sicher kommunizieren? /// von Jörn Bittner

VOR KURZEM TAUCHTE EIN DATENLECK BEI EINEM GROSSEN GESUNDHEITSUNTERNEHMEN mit 39 RehaKliniken in Deutschland auf. Die ZAR-Reha-Zentren bieten diverse Behandlungsformen: von Orthopädie über Kardiologie bis zu Psychosomatik. Dafür können Patienten die App ZAR PAT herunterladen, um Behandlungspläne abzurufen. Eine gute Idee – nur leider unsicher. Die Transportverschlüsselung fehlte. Ein Blick auf die Klartext-Informationen in der Verbindung reichte aus, um alle Informationen einsehen zu können. Von der Sicherheitslücke waren teils hochsensible Daten von hunderttausenden Patienten betroffen.

Teurer Sicherheitsunfall

Schon nach geltenden DSGVO-Regeln kommt dieser Sicherheitsunfall das Unternehmen teuer zu stehen. Das Schlimme: Dies ist kein Einzelfall. Viele Kliniken, Arztpraxen, Gesundheitseinrichtungen, Pflegedienste und Co. leiden unter den Regularien. Immer mehr digitale Dienste soll das Gesundheitswesen anbieten, doch die Infrastruktur stellt die Branche vor Herausforderungen. Schließlich regelt diesen Umstand nicht nur das deutsche Recht, sondern auch die EU. Regelwerke wie der DSA (Digital Services Act) oder NIS2 (Network and

DER AUTOR

Jörn Bittner

Information Security 2) verstärken die Unsicherheit im Sicherheitsgefüge der Health-Anbieter.

Patientendateng fallen unter den Bereich der besonders geschützten Personendaten. Ärzte, Kliniken und Co. dürfen nur wirklich notwendige Daten abfragen und aufbewahren. Außerdem sind Mitarbeitende nur berechtigt, die gespeicherten Informationen abzurufen, wenn sie einer Schweigepflicht unterliegen. Und auch die Lagerung der Daten bereitet Probleme: Sie müssen komplett vor unbefugtem Zugriff bewahrt und jede Datenverarbeitung in einem Spezialverzeichnis dokumentiert werden. Viele Maßnahmen, die Gesundheitsteilnehmer beachten müssen. Sehr komplexe noch dazu, denn Punkte wie „Daten vor fremden Zugriff schützen“ klingen einfach, bedeuten aber einen großen Aufwand.

Kommunikation ist alles

Jede Datenbewegung verursacht ein Sicherheitsrisiko. Selbst bei einem einwandfreien Datenmanagement des Doktors, bedeutet ein Zugriff von

außen oder die Ablage in ein neues System eine Security-Hürde. Wenn Ärzte mit ihren Patienten in Austausch treten und ihnen Befunde zukommen lassen wollen, aber auch für die digitale Besprechung von Mitarbeitenden in einem Health-Unternehmen untereinander, gelten die gleichen Vorgaben wie für die sichere Ablage der Daten. Das gestaltet die Kommunikationsoptionen als schwierig. Denn sowohl Tools für Videosprechstunden als auch Cloud-Ablagen für Dokumente oder Tools für E-Mail-Kommunikation sind in der Regel nicht DSGVO-konform – zumindest nicht die Lösungen bekannter Namen. Diese Unternehmen stammen zumeist aus Amerika und nutzen Server außerhalb der EU.

Lokale Sicherheit

Die gute Nachricht: Health-Anbieter können aus einer Vielzahl von in der EU entwickelten und gehosteten Tools wählen. Unterschiedliche Angebote befassen sich mit dem Thema Datensicherheit – Jitsi Meet oder Matrix Messenger Element beispiels-

” Health-Anbieter können aus einer Vielzahl von in der EU entwickelten und gehosteten Tools wählen. (Jörn Bittner)

Jörn Bittner ist Senior Consultant für ProCampaign bei Consultix.

weise verschlüsseln Videokonferenzen, Nextcloud sorgt für den sicheren Austausch von Dokumenten. Diese Dienstleister nehmen die DSGVO ernst und verstehen die Bedürfnisse und Probleme der Personendatennutzenden. Sie gehen auf individuelle Anforderungen ein und begleiten die Implementierung persönlich. •

Bessere Kommunikation zum

Wohle

der Patienten

DOKUMENTE IM GESUNDHEITSWESEN SICHER DIGITAL AUSTAUSCHEN

DIE DIGITALISIERUNG IM DEUTSCHEN GESUNDHEITSWESEN nimmt zunehmend Fahrt auf. Wichtige Meilensteine waren: das „Gesetz zur Beschleunigung der Digitalisierung im Gesundheitswesen“ vom Dezember 2023, die Einführung des elektronischen Rezepts Anfang 2024 und die Einführung der elektronischen Patientenakte 2025. Nun rücken neben den niedergelassenen Praxen vor allem Krankenhäuser und Kliniken in den Fokus der Digitalisierungsbemühungen. Mitte des Jahres 2025 soll der Messenger in der Telematik-Infrastruktur in Betrieb gehen, der eine schnelle digitale Kommunikation zwischen den Akteuren im Gesundheitswesen ermöglicht, einschließlich der Patienten, falls notwendig und gewünscht.

Im Mittelpunkt stehen dabei der Schutz und die schnelle Bearbeitung sensibler Patientendaten. Eine der Herausforderungen, denen sich die Klinik-IT gegenübersieht, ist die Digitalisierung der Kommunikation, um einen nahtlosen Übergang ins Krankenhausinformationssystem (KIS) zu schaffen. Ein renommierter Anbieter ist in diesem Kontext das Berliner Unternehmen Ferrari electronic mit seiner OfficeMaster Suite. Diese Softwarelösung bietet einen sicheren und datenschutzkonformen Austausch von Dokumenten innerhalb von IP-Netzwerken und integriert verschiedene Kommunikationskanäle wie NGDX, Fax, Voicemail oder SMS auf einer einzigen Plattform. Diese integriert sich in gelernte Kommunikationstools wie E-Mail so, dass Mitarbeitende die zusätzlichen Kanäle intuitiv ohne Schulung nutzen können.

Sicherer Datentransfer durch NGDX

Über den Standard NGDX (Next Generation Document Exchange) sorgt die Suite für eine manipulations- sowie rechtssichere Übertragung der Dokumente und bildet die Basis für eine nahtlose, automatisierte Weiterverarbeitung im KIS. Dabei werden nicht nur die Dokumente selbst, sondern auch der Übertragungsweg verschlüsselt. Zusätzlich schließen Hashes jede Form von Manipulation auf dem Weg vom Absender zum Empfänger aus.

Automatisierte Datenverarbeitung für effizientere Patientenversorgung

Die automatisierte Datenverarbeitung wird durch Optical Character Recognition (OCR) in der OfficeMaster Suite unterstützt. Diese Technologie erleichtert die Extraktion und digitale Verarbeitung von Textinformationen, ohne dass medizinisches Personal diese manuell eingeben muss. Dieser Ansatz spart wertvolle Zeit und Ressourcen und unterstützt eine effizientere Patientenversorgung.

Mit der Cloud gegen den IT-Fachkräftemangel

Aufgrund des anhaltenden IT-Fachkräftemangels, der auch das Gesundheitswesen trifft, setzen immer mehr Einrichtungen auf Cloud-Lösungen, um ihre IT-Infrastruktur zu entlasten. Die OfficeMaster Suite bietet hierfür eine optimale Lösung, da sie über den Azure-Marketplace von Microsoft verfügbar und ohne Anpassung der bestehenden IT nutzbar ist. Die Umsetzung einer erfolgreichen Digitalisierung im Gesundheitswesen erfordert nicht nur die Bereitstellung technischer Lösungen, sondern auch die Berücksichtigung von Datenschutz und Sicherheit. Mit der OfficeMaster Suite von Ferrari electronic ist das deutsche Gesundheitswesen auf einem vielversprechenden Weg, die Herausforderungen der Digitalisierung zu meistern und die Vorteile für eine verbesserte Patientenversorgung voll auszuschöpfen.

TERMINHINWEIS ZUR DMEA

Ferrari electronic ist auf der DMEA, die vom 8. bis 10. April 2025 in Berlin stattfindet, auf dem Gemeinschaftsstand Berlin-Brandenburg in Halle 3.2/Stand D-103 zu finden.

Kontakt

Ferrari electronic AG https:/www.ferrari-electronic.de/ E-Mail: info@ferrari-electronic.de Telefon: 03328 455 90 Ruhlsdorfer Str. 138 14513 Teltow

Quo vadis, Digitalisierung im deutschen Gesundheitswesen?

Wie ist der Status quo bei der Digitalisierung im Gesundheitswesen und was sind die Bremsklötze? Ein Gespräch mit Ari Albertini, CEO bei Ftapi Software. /// von Konstantin Pfliegl

DIE DIGITALISIERUNG HAT VIELE BEREICHE DES GESELLSCHAFTLICHEN LEBENS UND DER WIRTSCHAFT bereits stark verändert – und auch im Gesundheitswesen ist sie in vollem Gange. Doch wie in vielen Bereichen, wenn die öffentliche Hand mitmischt, hat man auch bei der Digitalisierung des Gesundheitswesens manchmal das Gefühl, dass etwas hakt. Stellenweise veraltete Technologien, komplexe Regularien und knappe IT-Ressourcen: Wie ist der aktuelle Stand im Health-Bereich in Deutschland? Und wie sollte es jetzt nach der Einführung der elektronischen Patentenakte

DER GESPRÄCHSPARTNER

Ari Albertini ist CEO bei Ftapi Software. Bild: FTAPI Software

Ari Albertini: Meiner Ansicht nach ist das Hauptproblem, dass wir in Deutschland Digitalisierung oft als IT-Projekt verstehen, aber nicht als grundlegenden Wandel von Prozessen und Denkweisen. Und genau darin liegt die Krux. Denn Digitalisierung bedeutet nicht nur, Papier durch PDFs zu ersetzen oder das Fax durch eine E-Mail – sondern Abläufe grundlegend neu zu denken. Gerade im Gesundheitswesen, aber auch in zahlreichen anderen Branchen, gibt es viele gewachsene Strukturen, in denen Veränderungen schwer umzusetzen sind, und zahlreiche Regu-

” Die ePA ist ein wichtiges Puzzlestück, aber nicht das große Ganze. Es ist so, als hätten wir eine Autobahn mit nur einer Auffahrt gebaut.

(ePA) weitergehen? Ari Albertini, CEO bei Ftapi Software, erklärt, woran es bei der Digitalisierung des Gesundheitswesens seiner Meinung nach hakt und welche Nachteile die ePA hat.

Herr Albertini, Sie fordern, dass es mit der Digitalisierung im Gesundheitswesen endlich weitergehen muss. Woran hakt es Ihrer Ansicht nach?

lierungen. Es fehlt eine klare Strategie mit verbindlichen Standards, um eine Digitalisierung im Gesundheitswesen flächendeckend und gut umzusetzen.

Wie bewerten Sie den Status quo der Digitalisierung im deutschen Gesundheitswesen?

MEHR ERFAHREN

Lesen Sie das ausführliche Interview mit Ari Albertini auf der Webseite der DIGITAL BUSINESS.

Ari Albertini: Es gibt Fortschritte, aber insgesamt hinken wir hinterher. Während andere Länder schon weitgehend digitale Patientenakten und automatisierte Prozesse nutzen, arbeiten viele deutsche Einrichtungen noch mit Fax und Papierdokumenten. Die elektronische Patientenakte (ePA) war ein wichtiger und richtiger Schritt in Richtung Digitalisierung des Gesundheitswesens. Endlich gibt es eine zentrale digitale Ablage für Patientendaten – theoretisch. Die Umsetzung jedoch war eine Katastrophe. Von der langwierigen Einführung über mangelnde Interoperabilität bis

Bild/Copyright: vegefox.com –stock.adobe.com

hin zu gravierenden Sicherheitslücken, die immer wieder auftauchen – die ePA zeigt eindrucksvoll, wie dringend wir nicht nur Fortschritt brauchen, sondern auch eine saubere, durchdachte Umsetzung. Ein digitales System, das erst nach Jahren nutzbar wird und dann direkt mit Sicherheitsproblemen kämpft, schafft kein Vertrauen.

Wir sind also weit davon entfernt, digitale Prozesse flächendeckend sicher und effizient zu gestalten. Gerade beim sicheren Datenaustausch besteht noch massiver Handlungsbedarf.

Die ePA haben Sie bereits angesprochen. Das Ganze hat zwar viele Jahre gedauert – aber immerhin sind wir jetzt doch ein ganzes Stückchen weiter, oder?

Ari Albertini: Ja, wir sind weiter – aber noch lange nicht am Ziel. Die ePA ist ein wichtiges Puzzlestück, aber nicht das große Ganze. Es ist ein bisschen so, als hätten wir eine neue Autobahn gebaut, aber nur eine einzige Auffahrt. Viele Akteure im Gesundheitswesen können die ePA noch nicht sinnvoll nutzen, weil es an Schnittstellen, klaren Vorgaben und praktikablen Workflows fehlt.

Noch gravierender ist aber, dass es keinen verbindlichen Standard gibt, der alle Akteure zur Nutzung verpflichtet und gleichzeitig sichert, dass die ePA effizient in bestehende Systeme integriert wird. Statt einer durchgängigen digitalen Infrastruktur haben wir eine halbgare Lösung, die in vielen Bereichen nicht wirklich praktikabel ist.

Sie fordern „moderne, verschlüsselte Plattformen, die einen sicheren Datenaustausch von sensiblen Gesundheitsdaten garantieren“. Nun hat hier die ePA sicher noch ein wenig Bedarf für Nachjustierungen – aber haben wir damit nicht die geforderte Plattform für den Datenaustausch?

Ari Albertini: Die ePA ist eine zentrale Lösung für Patientendaten, aber kein vollumfängliches Konzept für sicheren Datenaustausch. Sie ist eine Art digitales Archiv, aber keine Kommunikationsplattform.

Wer glaubt, die ePA würde den gesamten Datenaustausch im Gesundheitssektor digitalisieren oder abdecken, ist leider auf dem Holzweg. Gesundheitseinrichtungen sind hochkomplexe Unternehmen, mit einer Vielzahl an Schnittstellen – nicht nur intern, sondern auch nach außen.

Viele Arztpraxen setzen zum Beispiel für die Kommunikation noch auf das gute alte Fax oder kommunizieren mit Patienten per Mail. Was sind Ihrer Meinung nach die richtigen Wege?

Ari Albertini: Gesundheitsdaten müssen auf dem Handy oder Rechner abrufbar, einsehbar und ohne technische Hürden mit Ärzte oder Angehörigen teilbar sein. Niemand sollte gezwungen sein, eine Arztpraxis persönlich aufzusuchen oder ein Faxgerät zu organisieren, nur um an wichtige Unterlagen zu kommen.

Die Kommunikation muss verschlüsselt und geschützt sein – aber ohne komplizierte Zugangshürden. Auch für Arztpraxen muss sichere Kommunikation selbstverständlich und einfach sein. Ärzte und medizinisches Fachpersonal sollten sich nicht mit technischen Details oder der richtigen Verschlüsselungsmethode beschäftigen müssen – sie haben wichtigere Aufgaben.

Hier wäre natürlich eine Cloud-Lösung praktisch, auf die Krankenhäuser, Ärzte und Patienten zugreifen können. Aber bei den eigenen Gesundheitsdaten in der Cloud bekommt sicher der eine oder andere Bauchschmerzen?

Ari Albertini: Absolut, das Vertrauen in Cloud-Lösungen ist in Deutschland noch ausbaufähig. Tatsächlich sind Patienten in dieser Hinsicht oft weiter als Krankenhäuser. Sie erwarten längst, dass ihre Gesundheitsdaten bequem und sicher digital verfügbar sind.

Wer heutzutage problemlos Online-Banking nutzt, Streaming-Dienste abonniert oder digitale Vertragsunterschriften tätigt, wird auch nicht grundsätzlich vor einer sicheren Cloud zurückschrecken.

Das Problem ist nicht die Cloud, sondern das fehlende Vertrauen. Und das schaffen wir nur mit Transparenz, klaren Sicherheitsstandards und Aufklärung.

Und welche Rolle spielt hier die ePA? Ist sie der kleinste gemeinsame Nenner, den alle Tools unterstützen sollten?

Ari Albertini: Die ePA kann ein zentraler Baustein sein, aber sie darf nicht als alleinige Lösung betrachtet werden. Wir brauchen eine Infrastruktur, in die sich auch andere sichere Kommunikationslösungen nahtlos einfügen – für den schnellen, sicheren und unkomplizierten Datenaustausch zwischen allen Akteuren. •

Digitales QM-System für die Pflege

Die Pflegeeinrichtung Reusspark aus Niederwil setzt auf ein digitales Qualitätsmanagement, um Prozesse transparenter und effizienter zu gestalten. Die neue softwarebasierte Lösung erleichtert die Dokumentation, verbessert den Informationsfluss, optimiert Arbeitsabläufe und verschafft der Einrichtung mehr Raum für ihre Kernaufgabe: die Pflege. /// von Dr. Iris Bruns

UM DEN GESTIEGENEN ANFORDERUNGEN AN TRANSPARENZ UND EFFIZIENZ GERECHT ZU WERDEN, entschied sich der Reusspark, eine Pflege- und Betreuungseinrichtung in Niederwil in der Schweiz, für die Einführung eines softwarebasierten Managementsystems für das Qualitätsmanagement. Die Umstellung auf die digitale Lösung erleichtert die Verwaltung, vereinfacht Prozesse und setzt mehr Ressourcen für die eigentliche Aufgabe – die Pflege – frei.

Effizienteres Qualitätsmanagement durch Digitalisierung

Mit rund 500 Mitarbeitern und etwa 300 Bewohnern zählt die Einrichtung zu den größeren Anbietern in der Region. Neben der täglichen Betreuung spielt auch die Ausbil-

DIE AUTORIN

Dr. Iris Bruns ist Geschäftsführerin bei ConSense. Bild: ConSense

QM-System weiterzuentwickeln, suchte die Geschäftsführung eine moderne Software-Lösung, die eine klare Prozessmodellierung, einfache Bedienung und eine optimale Integration in die bestehende IT-Landschaft bieten sollte.

Auswahl der passenden Software-Lösung Unterstützung für die Einführung holte sich die Pflegeeinrichtung bei dem QM-Experten Ariano Nijsen, der mit seiner Beratungsfirma die Anforderungen gemeinsam mit dem Reusspark definierte. „Wir wollten ein System, das sich intuitiv nutzen lässt und die Einarbeitung unserer Mitarbeitenden so einfach wie möglich macht“, erklärt Andreas Grossmann, Leiter der Hotellerie und Mitglied der Geschäftsführung. Neben einer benutzerfreundlichen

” Digitale Workflows sorgen dafür, dass Unterlagen direkt bei den zuständigen Personen landen, auf demselben Weg freigegeben und somit viele Arbeitsprozesse beschleunigt werden. (Dr. Iris Bruns)

dung eine wichtige Rolle: Rund 80 Personen werden hier in verschiedenen Berufsfeldern ausgebildet. Das QM in Pflegeeinrichtungen wie dieser soll die Standards für Bewohner, Angehörige und Mitarbeiter sichern. Die Herausforderung besteht dabei in den oft knappen personellen und zeitlichen Ressourcen. Hier können digitale Systeme unterstützen. Sie ermöglichen beispielsweise eine strukturierte Dokumentation und eine einheitliche Steuerung von Abläufen. Dabei erleichtern sie die Einhaltung von Normvorgaben und Richtlinien. Um das bestehende

Oberfläche war die Anpassungsfähigkeit an bestehende Strukturen ein wichtiges Kriterium. Nach der Evaluierung verschiedener Anbieter fiel die Wahl auf Consense QMS Enterprise.

Mit dieser Lösung lässt sich ein effizientes Qualitätsmanagement nach SN EN ISO 9001 umsetzen. Das System übernimmt die komplette QM-Dokumentation in elektronischer Form und lässt sich als Integriertes Managementsystem (IMS) für eine unbegrenzte Anzahl weiterer Normen und Regelwerke einsetzen.

Einführung und Vorteile des digitalen QM-Systems Die softwaregestützte QM-Lösung wurde schrittweise in der Pflegeeinrichtung implementiert. Dabei wurden die Prozesse des Betriebs digital in Form von Flussdiagrammen abgebildet und beschreiben jetzt transparent die realen Abläufe in der Pflegeeinrichtung. „Die Einführung eines neuen Systems bot uns die große Chance, jeden Prozess von Grund auf zu überarbeiten, sodass nun wirklich alles auf aktuellem Stand ist“, erzählt Andreas Grossmann. Im Vorfeld wurden die Verantwortlichkeiten für jeden Prozessschritt klar definiert, Zugriffsberechtigungen festgelegt und zugehörige Dokumente oder weiterführende Informationen hinterlegt.

Das neue System sorgt nun im Reusspark für eine automatische Dokumentenlenkung durch die Organisation und übernimmt die Revisionierung und Archivierung von Unterlagen. Unterschiedliche Auswertungen oder Berichte lassen sich aus den Informationen im System erstellen. Das vereinfacht das Management sämtlicher Vorgaben aus der SN EN ISO 9001. Auch die Fachzertifizierung für die Palliativpflege sowie Schweizer Vorgaben zur Arbeitssicherheit sind in das neue System integriert. Ein großer Vorteil ist die verbesserte Zugänglichkeit zu wichtigen Dokumenten.

Rund 150 Mitarbeiter, insbesondere aus Verwaltung, Pflege und Medizin, greifen direkt auf relevante Informationen zu. Mitarbeiter aus der Wäscherei oder der Küche nutzen Gruppenzugänge zum System. „Vor allem die Suchfunktion erleichtert unseren Arbeitsalltag enorm“, berichtet Andreas Grossmann. „Egal, ob es um Pflegeabläufe, Medikamentenvorgaben oder Versicherungsdokumente geht – alle Informationen sind aktuell und zentral abrufbar.“

Weniger Verwaltungsaufwand, mehr Zeit für die Pflege

Die Einführung des digitalen QM-Systems erleichtert der Pflegeeinrichtung vor allem die Verwaltungsaufgaben. Digitale Workflows sorgen dafür, dass Unterlagen direkt bei den zuständigen Personen landen, auf demselben Weg freigegeben und somit viele Arbeitsprozesse beschleunigt werden. Zudem lässt sich der Weg eines Dokuments durch die Einrichtung jederzeit rückverfolgen. „Wir sparen uns außerdem viele Rückfragen und auch unnötige E-Mails, da Anmerkungen und Notizen direkt im System hinterlegt werden können“, so Andreas Grossmann. Nachdem das System erfolgreich eingeführt wurde, sollen sukzessive weitere Module der Software integriert werden, etwa das Prüfmittelmanagement sowie die Lösungen zur Maßnahmenverfolgung und zum Management von Audits. „Wir haben zunächst eine solide Basis geschaffen und dann nach und nach weitere Module ergänzt“, erklärt QM-Coach Ariano Nijsen. Diese Vorgehensweise hat sich bewährt: Die flexible Struktur der Software-Lösung macht es dem Reusspark möglich, auf veränderte Anforderungen durch Anpassung des Systems zu reagieren.

Arbeitserleichterung schafft Akzeptanz

Unter dem Strich hat die Einführung der softwarebasierten QM-Lösung in der Schweizer Pflegeeinrichtung die Prozesse transparenter und zeitsparender gestaltet. Mitarbeiter profitieren von einer besseren Dokumentenverwaltung, optimierten Abläufen und einer höheren Nachvollziehbarkeit. „Natürlich gab es anfangs Vorbehalte“, räumt Andreas Grossmann ein. „Aber sobald die Vorteile spürbar wurden, stieg die Akzeptanz. Heute arbeiten wir deutlich effizienter und haben mehr Zeit für das Wesentliche – die Pflege und Betreuung der Menschen, die bei uns leben.“ •

PHARMA 4.0: KI führt Regie

Künstliche Intelligenz (KI) treibt einen fundamentalen Wandel in der Pharmaindustrie voran. Von der schnelleren Arzneimittelentwicklung über personalisierte Therapien bis hin zu neuen regulatorischen Herausforderungen – fünf KI-Trends werden die Branche in den kommenden Jahren nachhaltig verändern. /// von Evi Cohen

DIE PHARMAINDUSTRIE STEHT VOR EINEM HISTORISCHEN

UMBRUCH. KI und maschinelles Lernen (ML) revolutionieren nicht nur einzelne Prozesse, sondern das gesamte Verständnis von Arzneimittelentwicklung, Krankheitsbehandlung und Patientenversorgung. Unternehmen, die schon frühzeitig auf KI gesetzt haben, verzeichnen bereits beachtliche Fortschritte, sei es durch optimierte Forschungs- und Entwicklungsprozesse oder effizientere administrative Abläufe.

Das Potenzial ist enorm: So geht McKinsey in einer Studie davon aus, dass generative KI die jährlichen Umsätze der Pharma- und Medizinprodukteindustrie um

DER AUTOR

sige Datenmengen, um beispielsweise Proteinstrukturen vorherzusagen, klinische Studien zu optimieren und Nebenwirkungen frühzeitig zu erkennen. Dies führt zu effizienteren Zulassungsverfahren und einer höheren Erfolgsquote bei der Arzneimittelzulassung.

2. Technologiepartnerschaften und KI-native Unternehmen:

Die Pharmabranche erlebt eine zunehmende Zusammenarbeit zwischen traditionellen Unternehmen und KI-getriebenen Start-ups. Während etablierte Firmen auf fortschrittliche KI-Plattformen setzen, um ihre Innovati-

Evi Cohen ist Global Lead, Life Sciences Industry bei Appian.

” Eine transparente Dokumentation der Trainingsdaten und Entscheidungswege von KI-Systemen ist entscheidend, um das Vertrauen von Behörden, Forschenden und Patienten zu gewinnen. (Evi Cohen)

bis zu 110 Milliarden US-Dollar steigern könnte, indem sie ressourcen- und zeitintensive Forschungs- und Entwicklungsprozesse optimiert. Fünf wesentliche technologiegetriebene Trends werden die Pharmabranche in den kommenden Jahren prägen:

1. Beschleunigung der Arzneimittelentwicklung: KI und ML kann Entwicklungszyklen drastisch verkürzen – von den bisher üblichen sieben bis zehn Jahren auf drei bis vier Jahre – und die Misserfolgsquoten klinischer Versuche senken. Algorithmen analysieren rie-

onskraft zu stärken, entwickeln spezialisierte KI-Unternehmen neue Lösungen für individualisierte Therapien. Cloudbasierte Plattformen und vortrainierte KI-Modelle senken dabei die Einstiegshürden für kleinere Unternehmen und ermöglichen einen effizienteren Marktzugang.

3. Präzisionsmedizin und personalisierte Behandlungen: Die personalisierte Medizin, die auf molekularen und genetischen Daten basiert, wird durch KI auf eine neue Stufe gehoben. Fortschritte in der Genomik, kombiniert

mit KI-gestützten Analysen, ermöglichen eine zielgerichtetere Diagnose und Therapie. Patienten profitieren von individuell zugeschnittenen Behandlungen, die präziser und nebenwirkungsärmer sind. Wearables und andere digitale Gesundheitsplattformen liefern kontinuierlich Echtzeitdaten, die für die Entwicklung präventiver und therapeutischer Maßnahmen genutzt werden können.

4. Innovationen in der Forschung & Entwicklung (F&E): Neben KI und ML treiben auch neue Technologien wie Clustered Regularly Interspaced Short Palindromic Repeats (CRISPR) und Spatial Biology die pharmazeutische Forschung voran. Diese Verfahren ermöglichen präzisere genetische Modifikationen und ein tieferes Verständnis der Krankheitsprogression. Die Integration von „digitalen Zwillingen“ – virtuellen Nachbildungen menschlicher Organe – könnte künftig den Bedarf an Tierversuchen reduzieren und die Testphasen neuer Wirkstoffe beschleunigen. Gleichzeitig eröffnen dezentrale klinische Studien neue Möglichkeiten für eine diversifizierte Patientenbeteiligung.

5. Regulatorische Entwicklungen und neue Jobprofile: Mit der zunehmenden Verbreitung von KI in der Pharmaindustrie passen sich auch regulatorische Rahmenbedingungen an. Beschleunigte Zulassungsverfahren und Inline-Reviews könnten dazu beitragen, neue Medikamente schneller auf den Markt zu bringen. Gleichzeitig erfordert der technologische Wandel neue berufliche Qualifikationen: Pharmaunternehmen benötigen zunehmend Fachkräfte, die biologische Expertise mit Datenwissenschaft kombinieren. Die Nachfrage nach interdisziplinären Kompetenzen wird somit weiter steigen.

Jenseits des Labors:

KI-gestützte Forschung erreicht die Patienten direkt Auch im Bereich der klinischen Forschung gewinnen digitale und dezentrale Studienmodelle zunehmend an Bedeutung. Tragbare Geräte und digitale Gesundheitsplattformen liefern kontinuierlich Echtzeitdaten, die nicht nur die Patientenüberwachung verbessern, sondern auch die Qualität klinischer Studien steigern. KI-gestützte Analysen ermöglichen eine schnellere und präzisere Auswertung dieser Daten, wodurch sich Entwicklungszeiten weiter verkürzen und personalisierte Behandlungen noch gezielter angepasst werden können. Insbesondere die Möglichkeit, klinische Studien ortsunabhängig durchzuführen, erhöht die Diversität der Teilnehmenden und damit die Aussagekraft der Forschungsergebnisse.

Ethische Fragestellungen und Datenschutz

Mit der wachsenden Bedeutung von KI in der Pharmaindustrie rückt auch die Frage nach ethischer Verantwortung und Transparenz immer stärker in den Fokus. Unternehmen müssen sicherstellen, dass KI-Modelle nicht nur effizient, sondern auch nachvollziehbar und verlässlich sind. Dies betrifft insbesondere die Entscheidungsprozesse bei der Arzneimittelentwicklung, bei denen Algorithmen große Datenmengen auswerten und dabei potenziell voreingenommene oder unvollständige Datensätze nutzen könnten. Eine transparente Dokumentation der Trainingsdaten und Entscheidungswege von KI-Systemen ist entscheidend, um das Vertrauen von Behörden, Forschenden und Patienten zu gewinnen. Gleichzeitig spielt die Verantwortung im Umgang mit sensiblen Patientendaten eine zentrale Rolle – pharmazeutische Unternehmen müssen sicherstellen, dass Datenschutzrichtlinien strikt eingehalten und ethische Standards in der KI-gestützten Forschung gewahrt bleiben. Die KI-gestützte Transformation der Pharmaindustrie ist in vollem Gange. Unternehmen, die frühzeitig auf innovative Technologien setzen, werden nicht nur effizienter arbeiten, sondern auch die Patientenversorgung verbessern und neue wissenschaftliche Erkenntnisse schneller nutzbar machen. Die kommenden Jahre werden zeigen, welche Akteure in der Lage sind, diese Entwicklung strategisch für sich zu nutzen und die Zukunft der Medizin aktiv mitzugestalten. •

Mit Self-Service-Tools zur Datenexzellenz

Effizientes Datenmanagement erfordert mehr als innovative Ansätze – die richtigen Tools sind entscheidend. Von Self-Service-Infrastrukturen bis hin zu flexiblen SaaS-Lösungen: Nur durch planvolle Auswahl und Integration passender Technologien können Unternehmen das volle Potenzial ihrer Datenplattformen ausschöpfen. /// von André Barthel und Kay Schneutzer

UNTERNEHMEN HABEN NACHHOLBEDARF IM DATENMANAGEMENT. Eine aktuelle Bitkom-Studie offenbart, dass lediglich 28 Prozent der deutschen Unternehmen ihre Daten effizient nutzen und eine hohe Digitalisierungsreife in diesem Bereich aufweisen. Der Großteil der Unternehmen schöpft das Potenzial seiner Daten nicht aus und beschränkt sich auf einfache, oft ineffiziente Prozesse. Dies birgt erhebliche Risiken, etwa langsamere Geschäftsprozesse und weniger datenbasierte Innovationen.

Moderne Self-Service-Tools, wie Microsoft Fabric, bieten hier vielversprechende Lösungsansätze. Sie ermöglichen es Unternehmen, ihre Daten nicht nur effizient zu speichern, sondern durch benutzerfreundliche Analysen und KI-gestützte Prozesse auch gewinnbringend zu nutzen. Als cloudbasierte SaaS-Lösungen erlauben diese Plattformen die Integration verschiedener Datenquellen und unmittelbare Analysen. Ein entscheidender Vorteil ist, dass selbst Mitarbeiter ohne tiefe IT-Kenntnisse eigenständig Auswertungen durchführen und Berichte erstellen können.

Diese Demokratisierung der Datenanalyse entlastet die IT-Abteilungen erheblich. In vielen Unternehmen erweist sich die IT als Flaschenhals, da sie nicht über die

müssen sich nicht mehr um komplizierte On-PremisesSysteme kümmern. Das Setup ist in der Regel schnell und einfach, die Lösungen lassen sich flexibel skalieren und die Kosten optimieren. Im Gegensatz dazu erfordern traditionelle Business-Intelligence-Tools oft umfangreiche Planung und spezielles Know-how zur Integration verschiedener Basisdienste.

Die Geschwindigkeit der Datenverarbeitung und -analyse spielt in der modernen Geschäftswelt eine zunehmend wichtige Rolle. Entscheidungsträger benötigen zeitnahe Analysen, um fundierte Entscheidungen treffen zu können. Self-Service-Tools ermöglichen schnelle und qualitativ hochwertige Datenauswertungen. Diese Schnelligkeit lässt sich auch für fortgeschrittene Anwendungen wie Predictive Maintenance oder die Optimierung von Produktionslinien nutzen. Die zunehmende Vielfalt der Datenlandschaft stellt Unternehmen vor weitere Herausforderungen. Neben klassischen strukturierten Daten aus ERPund CRM-Systemen müssen auch semi-strukturierte und unstrukturierte Daten aus Quellen wie Newsfeeds, Social Media oder Kundenbewertungen verarbeitet werden. Moderne Self-Service-Plattformen bieten hier die nötige

” Entscheidungsträger benötigen zeitnahe Analysen, um fundierte Entscheidungen treffen zu können. Self-Service-Tools ermöglichen schnelle und qualitativ hochwertige Datenauswertungen. Diese Schnelligkeit lässt sich auch für fortgeschrittene Anwendungen wie Predictive Maintenance oder die Optimierung von Produktionslinien nutzen. (André Barthel, Kay Schneutzer)

Kapazitäten verfügt, um alle Anfragen aus den Fachabteilungen zeitnah zu bewältigen. Intuitive Self-Service-Plattformen geben den Mitarbeitern die Souveränität, selbstständig mit ihren Datenpools umzugehen.

Eigenständig Datenherausforderungen meistern

Ein weiterer Vorteil cloudbasierter SaaS-Lösungen liegt in der Vereinfachung der IT-Infrastruktur. Unternehmen

Flexibilität, um verschiedenste Datentypen zu integrieren und zu analysieren. Sie ermöglichen es Unternehmen, ein ganzheitliches Bild ihrer Geschäftsumgebung zu erhalten und verborgene Zusammenhänge zu entdecken.

Balance von Flexibilität und Kontrolle

Trotz der offensichtlichen Vorteile von Self-Service-Tools ist es wichtig, diese gezielt und durchdacht einzusetzen.

Ein häufiger Fehler ist der überstürzte Einsatz ohne klar definierte Strategie. Ohne Planung bleiben viele Potenziale ungenutzt oder es entstehen ineffiziente Datensilos. Es gilt, im Vorfeld zentrale Fragen zu klären: Welche Daten sind für das Unternehmen wirklich relevant? Welche Abteilungen benötigen Zugriff auf welche Daten? Wie können vorhandene Systeme optimal integriert werden? Wie lässt sich eine konsistente Datenqualität über alle Quellen hinweg sicherstellen?

Die Implementierung einer Self-Service-Datenplattform erfordert auch ein Umdenken in der Unternehmenskultur. Mitarbeiter müssen ermutigt und befähigt werden, datengetriebene Entscheidungen zu treffen. Dies erfordert Schulungen und kontinuierliche Unterstützung, um sicherzustellen, dass die Tools effektiv genutzt werden. Gleichzeitig muss ein Gleichgewicht zwischen Flexibilität und Kontrolle gefunden werden, um Datenqualität und -sicherheit zu gewährleisten.

Um das volle Potenzial von Self-Service-Datenplattformen auszuschöpfen, ist oft externe Unterstützung sinnvoll. Unabhängige Beratungsansätze, wie die Intelligence Fabric von SoftwareOne, bieten eine umfassende Methodik, die Unternehmen von der Analyse der Ist-Situation bis zur Implementierung und dem Betrieb unterstützt. Solche Partner helfen dabei, die Datenarchitektur zu modernisieren und optimal auf die individuellen Bedürfnisse anzupassen.

Datendemokratie richtig einsetzen

Für den erfolgreichen Einsatz von Self-Service-Datenplattformen sind einige Voraussetzungen zu beachten. Eine gewisse Reife im Umgang mit Daten und KI-Technologien im Unternehmen ist ebenso wichtig wie eine nahtlose Zusammenarbeit zwischen Entscheidern, Fachabteilun-

DIE AUTOREN

André Barthel ist Data Architect bei SoftwareOne.

(Quelle: SoftwareOne)

Kay Schneutzer ist Data & AI Pre-Sales Consultant bei SoftwareOne.

(Quelle: SoftwareOne)

kann den Implementierungsaufwand reduzieren und die Akzeptanz bei den Nutzern erhöhen. Ein oft unterschätzter Aspekt bei der Einführung von Self-Service-Datenplattformen ist die Bedeutung von Datengovernance und -sicherheit. Mit der Demokratisierung der Datenanalyse steigt auch das Risiko von Datenschutzverletzungen oder Fehlinterpretationen. Es ist daher unerlässlich, klare Richtlinien und Prozesse zu etablieren, die den verantwortungsvollen Umgang mit Daten sicherstellen, ohne die Flexibilität und Effizienz der Self-Service-Ansätze zu beeinträchtigen.

Fazit: Intelligente Datennutzung implementieren Self-Service-Tools erleichtern datengetriebene Entscheidungen. Doch nur mit einem klaren Plan und der richtigen Unterstützung lässt sich das volle Potenzial dieser Technologien ausschöpfen. Unternehmen sind gut beraten, spezialisierte Partner hinzuzuziehen, die nicht nur bei der technischen Implementierung helfen, sondern auch strategisch beratend zur Seite stehen. Mit den richtigen Tools und Partnern ist der Weg zur intelligenten Datennutzung zwar komplex, aber machbar – und bringt entscheidende Wettbewerbsvorteile. •

gen und IT. Auch die Akzeptanz aller Stakeholder spielt eine entscheidende Rolle. Ein durchdachtes Change Management ist daher unerlässlich, um Widerstände abzubauen und die Vorteile der neuen Technologien zu vermitteln.

Zudem empfiehlt es sich, auf Kompatibilität mit bestehenden Systemen zu achten. Die Wahl einer Plattform, die sich nahtlos in die vorhandene IT-Landschaft einfügt,

Durchgängige Prozesse

Der Sonderfahrzeugbauer Waldspurger ist ein schnell wachsender Mittelständler, der sich im Rahmen eines beratergestützten Auswahlprozesses für ein ERP-System mit Zuschnitt auf die Einzel-, Auftrags- und Variantenfertigung entschieden hat. Das oberste Ziel was der Aufbau durchgängiger Prozesse. /// von Giordano Di Fronzo

DIE INHABERGEFÜHRTE WALDSPURGER AG ist das führende Schweizer Unternehmen im Bereich des Ausbaus und der Umrüstung von Fahrzeugen für den Personenund Materialtransport sowie für die Beförderung von Menschen mit Behinderung. Speziell seit 2017 durchlief der Mittelständler, der neben Firmen und Behörden auch Privatpersonen zu seinen Kunden zählt, eine außergewöhnlich positive Entwicklung. Die Belegschaft vergrößerte sich auf mittlerweile ca. 25 Mitarbeitende, die 700 bis 800 Fahrzeuge pro Jahr umbauen.

Projektkennzahlen in Echtzeit Für Geschäftsführer Marc Waldspurger, der das Unternehmen in dritter Generation leitet, ist das Wachstum das Ergebnis gezielter Investitionen. 2015 erfolgte der Umzug in ein modernes Büro- und Montagegebäude, zudem wurde die Produktentwicklung weiterhin konsequent vorangetrieben. Um sich auch organisatorisch zukunftssicher aufzustellen, entschieden sich die Verantwortlichen für die Implementierung des durchgängigen Multiprojektmanagement-Systems ams.erp, das auf die speziellen Anforderungen der Auftrags- und Variantenfertigung zugeschnitten ist. Die einheitliche Datenbasis soll dafür sorgen, alle Projektbeteiligten in Echtzeit mit sämtlichen relevanten Projektkennzahlen zu versorgen. Infolge des kontinuierlichen Firmenwachstums wurde das Fehlen durchgängig verfügbarer Informationen an verschiedenen Punkten der Projektabwicklung zunehmend sichtbarer. Zwar befand sich der Organisationsgrad des Sonder-

DER AUTOR

Giordano Di Fronzo ist Geschäftsführer der Schweizer ams-Tochter ams.erp Solution AG.

fahrzeugbauers schon länger auf einem vergleichsweise hohen Niveau, weil Marc Waldspurger und sein Vater Rolf viel Arbeit in den Aufbau strukturierter Abläufe investiert hatten. Als jedoch der Verkauf aufgestockt wurde, zeigte sich, dass sich das erforderliche Wissen auf zu wenige Personen konzentrierte. „Wir hätten theoretisch noch eine Weile mit unseren Insellösungen auf Excel-, Word- und Access-Basis weiterarbeiten können. Um uns allerdings als Gesamtunternehmen zu verbessern, war klar, dass wir allen Beteiligten abteilungsübergreifend sämtliche relevanten Daten und Ressourcen zur Verfügung stellen mussten“, verdeutlicht der Geschäftsführer.

Abteilungsübergreifendes Arbeiten anstatt Insellösungen

Vor diesem Hintergrund wurde der Evaluierungsprozess für ein integriertes ERP-System angestoßen, der von einem unabhängigen Beratungshaus unterstützt werden sollte. Die Qualität der Beantwortung eines eigens konzipierten, mehreren Kandidaten zugesandten Fragenkatalogs gab den Ausschlag zugunsten der Busch-Consulting GmbH. Gemeinsam mit dem ERP-Spezialisten Roger Busch wurde danach basierend auf einer von Marc Waldspurger verfassten, umfangreichen Prozessbeschreibung ein Pflichtenheft erstellt, das zehn ERP-Anbieter erhielten. Die ca. 220 darin aufgelisteten Kriterien sollten möglichst alle im Software-Standard abgedeckt werden, um kostspielige Anpassungen zu vermeiden und stets von den Neuerungen des jeweils aktuellen Release-Stands profitieren zu können. Die größten Übereinstimmungen gab es bei ams.erp, das sich in der Endausscheidung unter anderem aufgrund seiner Produktionsplanungsfähigkeiten gegen die verbliebenen beiden Mitbewerber – darunter ein cloud-basiertes System – durchsetzen konnte.

Anforderung Losgröße 1+

Marc Waldspurger hatte die Anforderungen eines Unternehmens der Losgröße 1+ bei der Software-Suche laut eigenem Bekunden eigentlich gar nicht sonderlich in den Fokus gerückt, sie hatten sich jedoch aus seinen Ablauf-

” Zum Einsatz kommen neben dem Standard-ERP-System u.a. integrierte Module für das Rechnungswesen, das Dokumentenmanagement, für Business Intelligence, die Personalzeiterfassung und die Chargenverwaltung.

(Giordano Di Fronzo)

beschreibungen und dem Anforderungskatalog ergeben. Ein Beispiel ist die Funktionalität der wachsenden Stückliste, die es ermöglicht, Stücklistenänderungen im laufenden Montageprozess unkompliziert und versionssicher vorzunehmen.

„Die Individualität unserer Fahrzeuge liegt in der Kombination verschiedener Komponenten von verschiedenen Herstellern und einem zusätzlichen, geringeren Anteil an Eigenfertigung“, berichtet der Geschäftsführer. Aus dieser Konstellation und der Situation heraus, dass nicht jederzeit die aktuellsten Fahrzeugdaten im Detail vorliegen können, ergebe sich regelmäßig Anpassungsbedarf während der Montagearbeiten, die software-seitig abgebildet werden müssten.

Geschwindigkeit bei der Vorgangsbearbeitung überzeugt Neben den eigentlichen Funktionalitäten fiel Marc Waldspurger im Rahmen der verschiedenen Anbieterpräsentationen sofort die höhere Geschwindigkeit ins Auge, mit der Vorgänge in der Software bearbeitet werden können: „Bei anderen Systemen waren für bestimmte Vorgänge eine Reihe von Klicks notwendig, während sich bei ams. erp alle relevanten Informationen auf einer Oberfläche befinden. Daher bin ich davon überzeugt, dass wir mit unserer künftigen Lösung schneller arbeiten können.“

Der Geschäftsführer wird die ERP-Projektleitung aufgrund seiner Gesamtkenntnis des Unternehmens und seiner größeren Entscheidungsreichweite gemeinsam mit Roger Busch übernehmen. Er betont, dass die Mitar-

Zum Einsatz kommen neben dem Standard-ERP-System u.a. integrierte Module für das Rechnungswesen, das Dokumentenmanagement, für Business Intelligence, die Personalzeiterfassung und die Chargenverwaltung.

beitenden der Implementierung positiv entgegenblickten, weil sie wüssten, dass ihnen das durchgängige System die Arbeit insgesamt erleichtern werde. Aus finanziellen Überlegungen heraus hatte er kurzfristig erwogen, auf einige Komponenten zu verzichten. Diesen Gedanken verwarf er mit Blick auf den Nutzen größtmöglicher Durchgängigkeit allerdings rasch wieder. Zum Einsatz kommen neben dem Standard-ERP-System u.a. integrierte Module für das Rechnungswesen, das Dokumentenmanagement, für Business Intelligence, die Personalzeiterfassung und die Chargenverwaltung, während das sogenannte ams.Compendium für die automatisierte Aggregierung zusammengehöriger Dokumente sorgt. Die Nutzung von Insellösungen gehört damit der Vergangenheit an.

Start auf der „grünen Wiese“ Als Vorteil wertete es Marc Waldspurger, auf der „grünen Wiese“ beginnen zu können, zugleich aber auf die Erfahrungen der disziplinierten Prozessarbeit der letzten Jahre zurückgreifen zu können. Aufgrund der zentralen Datenablage verspricht er sich von der neuen Software die Vermeidung von Mehr- und Doppelarbeiten sowie die deutliche Minimierung der Fehleranfälligkeit. „Wenn wir in der Auftragsbearbeitung nicht mehr wie bisher vier verschiedene Listen parallel pflegen müssen, spart dies zudem Zeit und letztlich auch Kosten“, sagt der Firmenverantwortliche. Für ihn ist das ERP-Projekt wegweisend für den weiteren Erfolg des Sonderfahrzeugbauers, besonders vor dem Hintergrund, dass die Software dank ihrer Skalierbarkeit das Unternehmenswachstum langfristig begleiten kann. •

Klimastress: Wie digitale Schaltzentralen grüner werden

Mit dem wachsenden Einsatz von künstlicher Intelligenz und Cloud Computing steigt auch der Bedarf an leistungsfähigeren Datenzentren. Gleichzeitig müssen diese klimaneutral und nachhaltig werden. Doch wie kann dieser Spagat gelingen?

/// von Benjamin Schrödl und Prof. Dr. Jürgen Peterseim

OB BANKEN, KLINIKEN, TELEKOMMUNIKATIONSUNTERNEHMEN, ENERGIEVERSORGER ODER LOGISTIKER: Die Digitalisierung in diesen und vielen anderen Branchen führt zu einem enormen Bedarf an Rechenkapazitäten und kostet Energie. Aktuell entfallen 1,5 Prozent des weltweiten Energieverbrauchs auf die Rechenzentrumsbranche. Bis 2030 könnte der Anteil wegen der hohen Nachfrage –Cloud- und KI-Workloads erfordern eine besonders hohe Leistungsdichte – auf acht Prozent steigen. Gleichzeitig fordert der EU Green Deal vom ICT-Sektor Klimaneutralität bis 2030. Deutschland geht noch weiter: Mit dem Energieeffizienzgesetz 2023 (EnEfG) sind Datenzentren zu weiteren Energiesparmaßnahmen verpflichtet. Um diese zu erfüllen, müssen viele der über 50.000 deutschen Rechenzentren ihre Nachhaltigkeitsstrategie anpassen.

Energiebedarf und Regulatorik meistern

Wie lässt sich der wachsende Bedarf an leistungsfähigen Datenzentren mit den regulatorisch strengen Vorgaben vereinen, ohne dabei die Wettbewerbsfähigkeit Deutschlands zu schwächen? Die erste gute Nachricht: Aus regulatorischen Gründen dürfen bestimmte Daten Deutschland oder die EU nicht verlassen. Entsprechend braucht es in Deutschland angesiedelte Datenzentren. Nicht nur bei der Modernisierung bestehender Rechenzentren, sondern auch bei notwendigen Neubauten müssen grüne Lösungen von Beginn an mitgedacht und umgesetzt werden. Denn es besteht großes Potential für Effizienzen und Synergien.

Um den Energieverbrauch zu senken und klimaneutral zu werden, lohnt sich für Rechenzentren der Einsatz von erneuerbaren Energien. Ein Blick in den Norden

Deutschlands und die geplanten Offshore-Windparks in der Nord- und Ostsee bietet überzeugende Zukunftsaussichten. Hier sind die Bedingungen für eine stabile und kostengünstige Versorgung mit grüner Energie ideal. Norddeutschland könnte in Zukunft eine Schlüsselrolle spielen, da die Anlagen eine erhebliche Menge an erneuerbarer Energie liefern, die selbst bei schwachem Wind ausreicht, um die benötigte Versorgungssicherheit für Datenzentren zu gewährleisten.

Photovoltaikanlagen installieren, Abwärme nutzen Ein weiteres Mosaikteil auf dem Weg zu mehr Nachhaltigkeit: Eigenstromerzeugung. Dach- und Parkflächen lassen sich ebenso wie Fassaden mit Photovoltaikanlagen bebauen. Eine vollständige Selbstversorgung ist bislang zwar nicht realistisch, dennoch sollte diese Form der Energiegewinnung als preiswerteste Lösung mitgedacht werden.

Beim Neubau von Rechenzentren sollte großes Augenmerk auf die Kühlsysteme gelegt werden. Schließlich entfällt beinahe die Hälfte ihres Energieverbrauchs auf die Kühlung und die störfreie Stromversorgung. Wie lässt sich die bei der Kühlung entstehende Abwärme nutzen? Eine Möglichkeit ist es, die Abwärme in Nahwärmenetze einzuspeisen und zum Heizen von benachbarten Einrichtungen wie Krankenhäusern oder Bürogebäuden zu verwenden. Ein Beispiel für eine erfolgreiche Wärmerückgewinnung ist eine Initiative in Stockholm, bei der überschüssige Wärme ins Fernwärmenetz der Stadt gelangt. Dadurch konnten die Emissionen der entsprechenden Rechenzentren um 50 g CO2 pro Kilowattstunde gesenkt werden.

” Wer jetzt technologische Innovation und nachhaltiges Handeln kombiniert und in langfristige Lösungen investiert, stärkt nicht nur die eigene Marktposition, sondern kommt auch der Netto-Null ein großes Stück näher. (Benjamin Schrödl, Prof. Dr. Jürgen Peterseim)

ÜBERSICHT REGULATORISCHER ANFORDERUNGEN AN GRÜNE RECHENZENTREN

EU Green Deal:

Der EU Green Deal sieht vor, dass Rechenzentren bis 2030 klimaneutral sind. Sie sind dazu angehalten, die besten verfügbaren Technologien zur Energieeinsparung zu nutzen und ihre Energieeffizienz kontinuierlich zu steigern. Zusätzlich soll die Lebensdauer von ICT-Produkten durch ein passendes Ökodesign und ihre Recyclingfähigkeit erhöht werden.

Energieeffizienzgesetz 2023 (EnEfG):

Das EnEfG setzt strenge Vorgaben. Bis 2030 soll der Endenergieverbrauch in Deutschland um 26,5 Prozent gegenüber 2008 gesenkt werden, der Primärenergieverbrauch um 39,3 Prozent. Rechenzentren sind verpflichtet, strenge Energieeffizienzstandards einzuhalten und regelmäßige Energieaudits durchzuführen. Darüber hinaus müssen sie detaillierte Berichte über ihre Energieverbrauchsdaten veröffentlichen.

Power Usage Effectiveness (PUE):

Im EnEfG sind explizite Energieeffizienzziele festgelegt – darunter Zielwerte für den PUEWert. Der Wert, der das Verhältnis zwischen Gesamtenergieverbrauch des Rechenzentrums und Energieverbrauch der IT-Geräte darstellt, darf ab 2027 nicht über 1,5 und ab 2030 nicht über 1,3 liegen.

Die AUTOREN

Benjamin Schrödl (l.),Partner Real Estate und Prof. Dr. Jürgen Peterseim, Director Nachhaltigkeitsberatung bei PwC Deutschland

Wasserstoff als eine mögliche Zukunftslösung

In vielen Datenzentren kommen aktuell Gasmotoren zum Einsatz. Aufgrund des freigesetzten CO2 im Verbrennungsprozess und der Abhängigkeit von fossilen Brennstoffen bremst dieses Vorgehen aktuell die Klimaneutralität. Wer langfristig plant, kann auch hier einen großen Schritt in Richtung grüner Energieversorgung gehen. Bis 2032 soll ein 12.000 Kilometer umfassendes Wasserstoffkernnetz in Deutschland entstehen. Rechenzentren, die heute moderne Gasmotorenkraftwerke installieren, könnten diese zukünftig auf Wasserstoff umstellen, sofern sie sich in der Nähe des Kernnetzes befinden.

Hyperscaler als eine Alternative Unternehmen sollten prüfen, ob sie das interne Rechenzentrum aufgeben und auslagern können. Wer Anwendungen in die Cloud eines Hyperscalers oder IT-Dienstleisters transferiert, kann erhebliche Kosten einsparen und gleichzeitig die strengen „grünen“ Regulierungsanforderungen erfüllen. Anstatt kontinuierlich in Infrastruktur, Hardware und Fachkräfte investieren zu müssen, kön-

nen Unternehmen spezielle Angebote von Hyperscalern oder Cloud-Providern nutzen. Diese Anbieter beziehen ihren Strom aus erneuerbaren Energien zu günstigeren Konditionen. Gleichzeitig können sie den Aufwand für Nachhaltigkeitszertifikate leichter tragen. Auf diese Weise bleiben Unternehmen mehr Ressourcen für weitere Maßnahmen ihrer Net-Zero-Mission.

Kooperationen für das große Ziel Fest steht: Die Balance zwischen Leistungsfähigkeit und Klimaneutralität zu finden, ist eine komplexe Herausforderung. Umso mehr sind Unternehmen, Forschungseinrichtungen und auch der Gesetzgeber gefragt, gemeinsame Projekte voranzutreiben und innovative Konzepte zu entwickeln, mit denen die Transformation gelingt.

Schließlich profitieren am Ende alle von einer nachhaltigen IT-Infrastruktur. Wer jetzt technologische Innovation und nachhaltiges Handeln kombiniert und in langfristige Lösungen investiert, stärkt nicht nur die eigene Marktposition, sondern kommt auch der Netto-Null ein großes Stück näher. •

Mit Cloud auf Erfolgskurs

Warum ist die Cloud mehr als nur ein IT-Thema? Welche Vorteile eröffnet die Migration? Weshalb sollten sich auch Geschäftsführung und Management damit beschäftigen? Und wie läuft eine erfolgreiche Cloud-Migration ab? Der Fensterund Haustürenbauer Rekord zeigt, wie die Cloud Agilität und Wettbewerbsfähigkeit stärkt und die IT-Abteilung entlastet. /// von Armin Scheider-Lenhof

BEI REKORD IST DER NAME PROGRAMM: Der österreichische Fenster- und Haustürenbauer liefert maßgefertigte Produkte innerhalb von 9 bis 15 Arbeitstagen. Möglich machen dies ein branchenweit einmaliges Franchisesystem mit 22 Standorten in Österreich, eine dezentrale Produktion und über 200 Partnerbetriebe für Vertrieb und Montage. Rekord setzt auf die ERP-Branchensoftware für die Fertigungsindustrie von Kumavision, um die Prozesslandschaft effizient zu steuern und Kunden durch kurze Lieferzeiten und hohe Qualität zu begeistern.

Klare Mehrwerte

Die Migration in die Cloud war mehr als ein IT-Projekt – das Warum stand immer im Fokus. Gerhard Gölles, ERP-Projektleiter bei Rekord, erklärt: „Mit der modernen Cloud-Architektur Microsoft Dynamics 365 wollten wir unsere Wettbewerbsfähigkeit nachhaltig verbessern. Es ging darum, die Flexibilität, Effizienz und Skalierbarkeit zu erhöhen. Zudem senkt das Software-as-a-Service (SaaS)-Modell Wartungskosten und den Update-Aufwand.“ Die Technologieplattform Microsoft Dynamics 365 mit ihren verbesserte Automatisierungsfunktionen, der Integration in Microsoft-Anwendungen wie Teams und Office sowie der moderne Benutzeroberfläche sorgt darüber hinaus dafür, dass die Teams produktiver arbeiten und sich auf wertschöpfende Tätigkeiten konzentrieren können. „Die Cloud bringt außerdem modernste Sicherheitsstandards mit, die unser Unternehmen vor Cyber-Bedrohungen schützen“, ergänzt Gölles.

Mehr Agilität, mehr Flexibilität

Die Cloud-Migration unterstützt die Digitalisierungsstrategie von Rekord: Die ERP-Software fügt sich nahtlos in den digitalen Arbeitsplatz ein, den die Mitarbeitenden sehr schätzen. „Ob mit Notebook, Tablet oder Desktop, ob im Büro, zuhause, in der Produktion oder bei Kunden: Wir können überall auf unsere ERP-Software zugreifen“, berichtet Gölles. Die neu gewonnene Agilität zahlt sich auch aus, wenn es um zusätzliche Lösungen – wie etwa Apps aus dem Microsoft AppSource. Diese lassen sich schnell und einfach testen, ohne umfangreiches Projekt wie bei einer lokalen Installation.

Nicht zuletzt überzeugt die Cloud das Management von Rekord durch einfache Skalierbarkeit und globale Verfügbarkeit: „Ob wir 10 oder 100 User hinzufügen, spielt keine Rolle. Wir können neue Funktionen, Standorte oder

Geschäftsbereiche einfach integrieren, ohne Investment in aufwendige IT-Infrastrukturerweiterungen. Die Cloud legt die Basis, um unser Business agil und nachhaltig auszubauen, ohne kostbare Zeit zu verlieren.“

Transparente Kosten

Ein weiterer Vorteil sind die transparenten Kosten. Diese sind pro User und Monat fix. Unterschiedliche, teils komplexer Vertragsmodelle mit unterschiedlichen Laufzeiten sind passé. Möchte Rekord im Zuge des Wachstumskurses neue Märkte erschließen, sind die Kosten für das ERP-System sofort ersichtlich. Aufwendige Investitionen in Server und Lizenzen „auf Vorrat“ entfallen. Mittelfristig sieht Rekord im Betreibermodell Cloud echtes Einsparpotenzial, vor allem durch automatische, monatliche Updates im Hintergrund: „Zwar zahlen wir in der Cloud pro Monat mehr, aber die Gesamtkosten sind durch den Wegfall zeit- und kostenaufwendige Updateprojekte niedriger“, kommentiert Gölles. Auch die Kosten für die Cloud-Migration blieben durch Kumavision-Dienstleistungspakte mit Festpreisen im Budget. Dank Kumavision-Dienstleistungspaketen zum Festpreis blieb die gesamte Cloud-Migration im Budget. Geringe Mehrkosten im einstelligen Prozentbereich entstanden lediglich durch technologisch bedingte Schnittstellen-Anpassungen.

Zielorientierte Vorgehensweise

Ein Neustart auf der grünen Wiese war keine Option, da Rekord die eigene Prozesslandschaft über Jahre optimiert hat. Stattdessen wurden bewährten Prozesse und Daten der lokalen Microsoft-Dynamics-Installation nahtlos in die Cloud migriert. Kumavision verfolgte dabei einen hybriden Ansatz: Die lokale ERP-Installation wurde schrittweise auf die aktuelle Version von Microsoft Dynamics 365 Business Central hochgezogen, während die Cloud-Lösung aufgebaut wurde. Der Übergang erfolgte unterbrechungsfrei, da beide Welten auf demselben Stand und mit identischen Daten arbeiteten.

„Die hybride Vorgehensweise sorgte dafür, dass sich die Mitarbeitenden kaum umstellen mussten und wir gleichzeitig eine hohe Prozess- und Datensicherheit erzielten“, so Gölles. Eine zu Projektbeginn durchgeführte Ist-Analyse der On-Premises-Infrastruktur identifizierte Anforderungen und potenzielle Risiken. Der Umgang mit lokalen Ressourcen und Schnittstellen zur Anbindung von Dritt-

DER AUTOR

Armin Schneider-Lenhof ist Leiter Marketing der KUMAVISION AG

systemen erwies sich dabei als zentrale Herausforderung. Im Anschluss erstellten beide Partner daher einen Fahrplan mit umfangreichen Testläufen. „Es war essenziell, die Migration so zu planen, dass es nur minimale Unterbrechungen im Tagesgeschäft kam“, erinnert sich Gölles. Besonders bei größeren Datenmengen oder komplexen Auswertungen gibt es noch gelegentliche Verzögerungen. „Wir sind aber zuversichtlich, dass die Performance weiter steigt, da Microsoft die SaaS-Infrastruktur kontinuierlich optimiert.“

Plattform für Power

Neben Business Central setzt Rekord auf weitere Microsoft-Tools. „Durch die enge Verzahnung der Microsoft-Plattform profitieren unsere Teams von einer nahtlosen Integration zwischen ERP, E-Mail, Dokumentenmanagement und Kollaborationsplattformen wie Teams“, bringt Gölles die Vorteile auf den Punkt. Zukünftig wird der Fensterspezialist die ERP-Software mit der Microsoft Power BI verknüpfen, um Daten aus verschiedenen Quellen zu analysieren. „Die Business-Intelligence-Lösung hilft uns, wichtige KPIs in Echtzeit zu überwachen und datengetriebene Einblicke zu gewinnen. Die umfassende Nutzung der Microsoft-Technologieplattform unterstützt somit alle digitalen Prozesse und stärkt unsere Effizienz sowie Wettbewerbsfähigkeit“, ergänzt Gölles.

Zukunftssicher aufgestellt

Die Cloud-Migration ist für Rekord ein Erfolg: Automatische Updates, höchste Sicherheitsstandards und flexible Skalierbarkeit unterstützen das Unternehmen auf seinem weiteren Wachstumskurs. Doch nicht nur die Vorteile der Cloud, sondern auch die Kooperation mit dem langjährigen ERP-Partner überzeugten:

„Die Zusammenarbeit mit Kumavision verlief äußerst partnerschaftlich und zielorientiert, sodass wir das Projekt trotz der technischen Komplexität erfolgreich abschließen konnten.“ •

” Die neu gewonnene Agilität zahlt sich auch aus, wenn es um zusätzliche Lösungen – wie etwa Apps aus dem Microsoft AppSource. Diese lassen sich schnell und einfach testen, ohne umfangreiches Projekt wie bei einer lokalen Installation.

Autonom administrieren

Mit Continuous Integration und Continuous Deployment (CI/CD) lassen sich beispielsweise Software-Updates und Systemanpassungen weitgehend autonom realisieren, sodass sich Entwicklerteams verstärkt auf die eigentliche Programmierung konzentrieren können. /// von Johannes Meyer

AUTOMATISIERUNG IST ZUM SCHLÜSSELFAKTOR FÜR DIE EFFIZIENZ, Skalierbarkeit und Zuverlässigkeit von Cloud-Infrastrukturen geworden. Im Mittelpunkt von Automatisierungsstrategien steht der DevOps-Ansatz. Er ermöglicht die Implementierung und den Betrieb von DeploymentPipelines, sodass sich Kunden ausschließlich auf ihren Code konzentrieren und diesen lediglich „committen“ müssen. Damit haben Automatisierungsstrategien sogar Auswirkungen auf den Fachkräftemangel.

Neugewichtung personeller Ressourcen

Dabei ist Automatisierung längst mehr als nur ein Mittel zur Effizienzsteigerung, sondern eine essenzielle Strategie im Personalmanagement geworden: Die Implementierung automatisierter Prozesse ermöglicht es Unternehmen, die Bereitstellung und Wartung ihrer IT-Infrastrukturen erheblich zu beschleunigen, ohne dabei auf eine Vielzahl manueller Eingriffe angewiesen zu sein. Gerade im Zusammenhang mit DevOps-Konzepten erweist sich dieser Ansatz als besonders wirkungsvoll. Mit Continuous Integration und Continuous Deployment (CI/CD) lassen sich beispielsweise Software-Updates und Systemanpassungen weitgehend autonom realisieren, sodass sich Ent-

DER AUTOR

wicklerteams verstärkt auf die eigentliche Programmierung konzentrieren können, anstatt Zeit mit administrativen Aufgaben zu verlieren.

Konkret hat die Einführung vollautomatisierter Deployment-Pipelines zur Folge, dass viele klassische Aufgaben im IT-Betrieb überflüssig werden. Unternehmen benötigen weitaus weniger Personal für manuelle Rollouts, Wartungsarbeiten oder das Troubleshooting von Konfigurationsfehlern. Zugleich steigt der Bedarf an hochqualifizierten Fachkräften, die in der Lage sind, diese Automatisierungslösungen zu entwickeln, zu optimieren und langfristig zu betreiben. Dies führt zu einer grundlegenden Neugewichtung personeller Ressourcen: Der klassische Systemadministrator verliert an Bedeutung, DevOps-Ingenieure, Cloud-Architekten und IT-Sicherheitsanalysten rücken in den Fokus.

Hochgradig automatisierte Cloud

Der Rechenzentrumsanbieter und IT-Dienstleister noris network treibt die Automatisierung von Cloud-Pro-

zessen konsequent voran. Mit der noris Enterprise Cloud (nEC) hat der Anbieter eine Umgebung entwickelt, die es ermöglicht, IT-Infrastrukturen vollständig als Code zu verwalten. Kunden können über Terraform/ OpenTofu ihre gesamte Umgebung automatisiert bereitstellen, verändern und skalieren, ohne dabei auf manuelle Konfigurationen angewiesen zu sein. Wichtig dabei: die konsequente Umsetzung höchster Sicherheitsstandards, etwa durch die Einhaltung der BSI-C5-Vorgaben.

Daneben spielt die ContainerTechnologie eine immer wichtigere Rolle bei der Automatisierung von Cloud-Umgebungen.

Containerisierte Anwendungen effizient entwickeln

Red Hat OpenShift, eine PaaS-basierte Kubernetes-Plattform, bietet die Möglichkeit, containerisierte Anwendungen effizient zu entwickeln, bereitzustellen und zu verwalten. Mit Managed OpenShift lässt sich der Betrieb dieser komplexen Plattform sogar vollständig an den Dienstleister

” Automatisierung mehr als nur ein Mittel zur Effizienzsteigerung, sondern eine essenzielle Strategie im Personalmanagement. (J. Meyer)

Johannes Meyer ist Senior Market Development Manager (Cloud) bei der noris network AG. (Bildquelle: noris network)

auslagern – inklusive Deployments, Wartung, Lastverteilung und Sicherheitsprüfungen in Echtzeit.

Klar ist: Die zunehmende Automatisierung von IT-Prozessen bedeutet nicht nur eine Effizienzsteigerung, sondern auch eine strategische Antwort auf den akuten Mangel an qualifizierten Fachkräften. •

Virtueller Mentor für die Belegschaft

Mit dem digitalen Klon des CEOs oder des Geschäftsführers, stehen dessen Wissen und Grundsätze jeder Person in der Organisation, unabhängig von Funktion oder Position, rund um die Uhr und über alle Zeitzonen hinweg zur Verfügung. In nur sieben Schritten kann er erstellt werden. /// von Gabriele Horcher

FÜR DIE GESCHÄFTSFÜHRUNG IST DIE ZEIT, die sie für den persönlichen Austausch mit Mitarbeitern haben, häufig sehr begrenzt. Doch viele Studien zeigen, dass die Bindung von Angestellten deutlich höher ist, wenn sie den Corporate Purpose kennen und verstehen, und dass diese Menschen auch deutlich bessere Leistungen bringen.

Selbst wenn die interne Kommunikation mithilfe von Videobotschaften, Mission Statement oder Unternehmensleitbild schon einen wirklich guten Job macht – die Haltung, das Denken und die Vision einer Führungspersönlichkeit ist nicht jederzeit für alle im Unternehmen so greifbar und transparent, dass sie ihre eigenen Entscheidungen daran ausrichten können.

Arbeitet die interne Kommunikation dagegen zusätzlich mit einem interaktiven digitalen Klon des CEOs oder des Geschäftsführers, stehen das Wissen und die Grundsätze jeder Person in der Organisation, unabhängig von Funktion oder Position, rund um die Uhr und über alle Zeitzonen hinweg zur Verfügung. Der digitale Klon fungiert dann als virtueller Mentor im Unternehmen.

Wie funktioniert ein digitaler Klon?

Ein digitaler Klon ist die digitale Version einer realen Person in einem Unternehmen. Der digitale Klon kann einer

DIE AUTORIN

interessierten Person Fragen zu einem bestimmten Thema beantworten – auch in vielen unterschiedlichen Sprachen. Er kann Ratschläge geben, Einsichten vermitteln oder als Sparringspartner fungieren, indem er als digitale Version einer Person agiert.

Der digitale Klon wird individuell trainiert – und dies mithilfe der großen Sprachmodelle ChatGPT, Claude und/ oder Gemini, aber mit eigenen vorhandenen Inhalten in Form von Text, Bild, Audio oder Video. Zum Training ist der Upload von Word- oder PDF-Dateien, MP3-/MP4-Dateien oder sogar ganzer Webseiten möglich. Wird der KI-Klon überdies mit persönlichem Material einer spezifischen Person trainiert – etwa mit ihren Ansprachen, Blogbeiträgen, Interviews oder Vorträgen –, kann der Klon auch den Kommunikationsstil, die Argumentation und die Persönlichkeit dieser Person nachempfinden.

Authentisch kommunizieren

Der so trainierte digitale Basis-Klon kann Fragen schriftlich beantworten. Wenn der digitale Klon zusätzlich mit den echten Audio- und Videodateien der Person trainiert wird, kann er auch mit einer geklonten Stimme sprechen. So lassen sich Antworten nicht nur vorlesen, sondern es ist Menschen auch möglich, den Klon virtuell anzurufen,

Die Kommunikationswissenschaftlerin, Business Development- und Vertriebs-Expertin Gabriele Horcher ist Keynote Speakerin, BestsellerAutorin und Transformational Coach.

(Bildquelle: Isabell Keller, Offenbach)

Wenn der digitale Klon mit den echten Audio- und Videodateien der Person trainiert wird, kann er auch mit einer geklonten Stimme sprechen. So lassen sich Antworten nicht nur vorlesen, sondern es ist Menschen auch möglich, ihn anzurufen. (Gabriele Horcher)

Fragen mündlich zu stellen und von ihm gesprochene Antworten zu erhalten.

Ein digitaler Avatar ist die visuelle Weiterentwicklung eines Klons, weil er die virtuelle Person als Bewegtbild darstellt. Der Avatar kann das lebensechte Aussehen, Gestik und Mimik einer Person haben, die vor einer 4K-Kamera gefilmt wurde. Solch ein Avatar kann dann auch Videoanrufe entgegennehmen.

Die Automatisierung von Kommunikation

Digitale Replikate können nicht nur die Fragen einer Person beantworten. Sie können auch Fragen stellen, das Gespräch im Gang halten und so wertvolle Informationen sammeln. Der digitale Klon kann für unterschiedliche Zielgruppen eingesetzt werden. Zum Beispiel für (potenzielle) Kunden, Partner oder Mitarbeiter.

Kann der Klon über die Website oder Social-Media-Kanäle angesprochen werden, kann es sinnvoll sein, nach einer definierten Anzahl von Fragen (ggf. drei bis vier) um eine kostenfreie Registrierung zu bitten. Wird viel internes Know-how preisgegeben, das auch für Marktbegleiter interessant sein könnte, sollte die Aufforderung zur Registrierung gleich bei der ersten Frage erfolgen. Und wenn der digitale Klon für die interne Kommunikation genutzt wird, sollte er nur über das Firmennetzwerk erreichbar sein.

Checkliste: Erstellung eines digitalen Klons

Bei der Erstellung eines digitalen Klons ist es sinnvoll, die folgenden sieben Schritte zu berücksichtigen:

1. Zielsetzung

Legen Sie fest, wofür der digitale Klon eingesetzt werden soll: interne oder externe Kommunikation, Vertrieb, Kundendienst oder Support? Definieren Sie das Ziel, das Sie erreichen wollen, und machen Sie es auch durch Zahlen belegbar.

2. Content-Audit vor dem Training

Überprüfen Sie die Inhalte, die Sie für das Training verwenden wollen, vorab auf Konsistenz und Aktualität. Gegebenenfalls sind auch zusätzliche, neue Inhalte zu erstellen. Legen Sie für jeden Inhalt fest, mit welcher Gewichtung er in die Beantwortung der Fragen einfließen soll.

3. Die Darstellung

Wollen Sie einen Basis-Klon erstellen, mit dem man ‚nur‘ chatten kann? Soll der Klon vielleicht mit einer persönlichen, per Voice Cloning erstellten Stimme sprechen?

Oder wollen Sie gleich mit einem Bewegtbild-Avatar an den Start gehen?

4. Die Interaktion

Es bleibt noch zu definieren, ob der Klon nur Fragen beantworten oder ob er auch selbst Fragen stellen soll. Und ob sich der Klon bei seinen Antworten sehr stark oder doch eher frei an seine Trainingsdaten hält.

5. Das Testen

Nach dem Training muss der digitale Klon getestet werden. Entsprechen die Antworten nicht Ihren Qualitätsanforderungen, kann es beispielsweise sinnvoll sein, den Freiheitsgrad bei der Beantwortung der Fragen anzupassen.

6. Verteilen oder integrieren

Den Link zu Ihrem digitalen Klon können Sie über alle Kommunikationskanäle verbreiten. Dabei kann der Klon auch in eine Website, eine Landingpage, ein Social-Media-Profil oder ein Unternehmensnetzwerk integriert werden.

7. Datenschutz und Nutzungsrechte

Vergewissern Sie sich, dass Sie mit der Nutzung der Inhalte für Ihren Klon nicht die Rechte anderer verletzen. Informieren Sie die Nutzer im Disclaimer darüber, wie die Daten aus ihrer Interaktion mit dem Klon verwendet werden. Wenn Sie den Klon auf Ihrer Website verwenden, ergänzen Sie Ihre Datenschutzbestimmungen.

Fazit

Unternehmen, die die Anziehungskraft und die Faszination nutzen, die von einem digitalen Klon ausgeht, werden als besonders innovativ wahrgenommen. CEOs, Geschäftsführer und Thought Leader werden durch einen digitalen Klon nicht ersetzt. Im Gegenteil: Sie werden ihre Botschaften noch besser verbreiten können. Digitale Klone und Avatare stellen einen neuen und bedeutenden Kommunikationskanal dar. Doch die Geschichte lehrt uns auch: Kein neuer Kommunikationskanal kann einen anderen, bestehenden Kommunikationskanal je vollständig ersetzen. •

SECURITY SERVICES BOOMEN

STANDARDLÖSUNGEN „BRINGEN ES NICHT MEHR“

Trotz Milliardeninvestitionen steigen die Schäden durch Cyberangriffe weiterhin an. Unternehmen nutzen ihre Sicherheitslösungen oft nicht optimal – moderne Security Services helfen hier weiter.

WELTWEIT HABEN UNTERNEHMEN IHRE AUSGABEN FÜR IT-SICHERHEIT ERHÖHT; dennoch nahmen die Schäden durch Cyberangriffe weiter zu. Dies sieht man schön am Beispiel Deutschlands: Laut der Studie „Wirtschaftsschutz 2024“ des Digitalverbands Bitkom beliefen sich die finanziellen Verluste durch Cyberkriminalität und Sabotage im vergangenen Jahr auf etwa 267 Milliarden Euro, was einem Anstieg von 29 Prozent gegenüber dem Vorjahr entspricht. Diese alarmierenden Zahlen werfen die Frage auf: Warum führen steigende Investitionen nicht zu einer entsprechenden Reduzierung der Cyberschäden? Ein wesentlicher Grund liegt darin, dass viele Unternehmen IT-Sicherheitslösungen zwar anschaffen, diese aber oft nicht optimal konfigurieren und einsetzen. Häufig werden lediglich die mitgelieferten Standardprofile verwendet. In einer weiteren Umfrage von Cybersecurity Insiders aus dem Jahr 2023 gaben 70 Prozent der IT-Experten an, dass ihre Organisationen Schwierigkeiten haben, Sicherheitslösungen effektiv zu implementieren und zu nutzen. Der Grund dafür liegt häufig in der Komplexität der Produkte.

Die Lösung liegt auf der Hand

Anstatt die Implementierung in Eigenregie voranzutreiben, empfehlen Experten, die Lösungen in Zusammenarbeit mit dem Hersteller (oder IT-Dienstleister) auf die individuellen Bedürfnisse und Risiken des Unternehmens zuzuschneiden. Deren umfassenden Security Services gehen selbstverständlich über die bloße Bereitstellung von Software hinaus. Denn sie verfolgen den modernen Ansatz des „Prevention first“: Sicherheitslücken schließen, Bedrohungen frühzeitig erkennen und neutralisieren, statt nur auf sie zu reagieren. Der IT-Sicherheitshersteller ESET adressiert diese Herausforderungen mit einem umfassenden Portfolio unterschiedlicher Security Services.

Diese Dienstleistungen bieten

Unternehmen

Zugang zu Expertenwissen on demand und ermöglichen eine kontinuierliche Optimierung ihrer Sicherheitslösungen. Darüber hinaus unterstützen sie bei der proaktiven Gefahrenabwehr und entlasten interne Ressourcen, was besonders in Zeiten des Fachkräftemangels von entscheidender Bedeutung ist.

ESET realisiert dies mit einem dreigliedrigen Ansatz

Produktbezogene Services:

ESET Premium Support / Ultimate umfassen die maßgeschneiderte Implementierung und Optimierung der ESET-Sicherheitslösungen. Sie gewährleisten, dass jedes Produkt optimal auf die spezifischen Bedürfnisse des Unternehmens zugeschnitten ist. Die Namensänderung kam heute erst rein und wird im April vollzogen.

Dedizierte Security Services: ESET bietet spezialisierte Dienstleistungen wie beispielsweise Threat Intelligence, die eine proaktive Überwachung und Anpassung der Sicherheitsinfrastruktur ermöglichen. ESET Detection and Response Advanced unterstützt Administratoren im täglichen Betrieb der EDR-Lösung ESET Inspect.

Managed Detection and Response (MDR): Für Unternehmen, die eine umfassende Betreuung wünschen, bietet ESET MDR-Services, bei denen Künstliche Intelligenz oder Experten die kontinuierliche Überwachung, Erkennung und Reaktion auf Cyberbedrohungen übernehmen: ESET MDR und ESET MDR Ultimate. •

WWW.ESET.DE

Remote statt Return: SO GEHT‘S

Während viele Unternehmen ihre Mitarbeitenden gerade wieder ins Büro holen, setzt YeaHR! konsequent auf Homeoffice. Denn Teamzusammenhalt, Kreativität und Produktivität können auch ohne physische Präsenz gesichert werden. Dafür braucht es allerdings die passende Kultur und einige Leitplanken. /// von Andreas Herde

DIE ENTSCHEIDUNG, VOLLSTÄNDIG AUF REMOTE WORK

UMZUSTELLEN, wurde in unserem Unternehmen nicht bewusst getroffen. Vielmehr war es die Konsequenz aus zwei Entwicklungen: Zum einen ist die Agentur während der Corona-Zeit stark gewachsen – in einer Phase, in der ohnehin alle im Homeoffice arbeiteten. Zum anderen funktioniert unser Recruiting primär über Empfehlungen. Dadurch kamen neue Kollegen hinzu, die nicht zwangsläufig in der Nähe lebten. Heute arbeiten etwa zwei Drittel des Teams in Nordrhein-Westfalen, das restliche Drittel ist deutschlandweit verteilt.

DER AUTOR

ne oder den schnellen Blick über den Schreibtisch hinweg müssen Prozesse klarer definiert sein. Wir haben die Arbeitsweise entlang dieser drei Grundpfeiler aufgebaut:

1. Ein zentraler Erfolgsfaktor ist eine strukturierte Meeting-Kultur, die regelmäßige Abstimmungen sichert. Beispielsweise kann ein wöchentliches Team-Kickoff die wichtigsten Themen für alle sichtbar machen, während spezifische Unit-Meetings und 1:1-Gespräche gezielt Fachthemen und persönliche Abstimmungen ermöglichen. Planungsmeetings am Ende der Woche

Andreas Herde ist Geschäftsführer und Gründer von YeaHR!, einer Spezialagentur für Employer Branding und Personalmarketing.

” In Remote-First-Modellen ist es unerlässlich, dass Aufgaben selbstständig organisiert und priorisiert werden. Unternehmen müssen daher eine Kultur der proaktiven Kommunikation und Selbstorganisation fördern. (Andreas Herde)

Diese Entwicklung führte zu einer grundlegenden Erkenntnis: Wenn Arbeit wirklich ins Leben passen soll, dann muss sie maximal flexibel sein. Doch Remote-First bedeutet weit mehr als Homeoffice. Es erfordert klare Strukturen, eine gelebte Kultur der Eigenverantwortung und bewusste Entscheidungen für oder gegen bestimmte Arbeitsweisen.

Struktur als Fundament –wie Zusammenarbeit in Remote-Teams funktioniert Ein häufig unterschätzter Faktor bei Remote Work ist die Neuorganisation von Zusammenarbeit und Kommunikation. Ohne zufällige Begegnungen an der Kaffeemaschi-

sorgen für Transparenz über anstehende Aufgaben und ein vierteljährliches physisches Teamtreffen stärkt die Zusammenarbeit über den digitalen Raum hinaus.

2. Neben einer verlässlichen Kommunikation spielt die digitale Infrastruktur eine entscheidende Rolle. Plattformen wie MS Teams oder andere Kollaborations-Tools bieten zentrale Anlaufstellen für den Austausch. Gleichzeitig sollte eine klare Regelung für Statusmeldungen und Erreichbarkeiten bestehen, damit digitale Präsenz genauso verständlich ist wie physische Verfügbarkeit im Büro.

3. Ein weiteres Schlüsselelement ist die Eigenverantwortung der Mitarbeitenden. In Remote-First-Modellen ist

es unerlässlich, dass Aufgaben selbstständig organisiert und priorisiert werden. Unternehmen müssen daher eine Kultur der proaktiven Kommunikation und Selbstorganisation fördern. Wer Micromanagement benötigt oder eine enge Steuerung erwartet, wird mit Remote Work kaum langfristig erfolgreich arbeiten können.

Kreativität & Teamdynamik im Remote-First-Modell

Eine der größten Herausforderungen bei Remote Work ist die Frage: Wie bleibt kreatives Arbeiten lebendig, wenn Teams nicht physisch zusammensitzen? Die Erfahrung zeigt: Manches funktioniert remote, anderes nicht. Deshalb gibt es klare Regeln:

• Kreative Prozesse brauchen Live-Zusammenarbeit. Für Workshops, Konzeptentwicklungen oder intensives Brainstorming treffen sich Teams vor Ort. Der persönliche Austausch ist in diesen Fällen unschlagbar.

• Ideenentwicklung kann auch asynchron erfolgen. In vielen Fällen entstehen kreative Lösungen nicht in einem einzigen Meeting, sondern über mehrere Touchpoints hinweg – etwa durch offene Ideenchats, asynchrone Dokumentation oder spontane Ad-hoc-Sessions.

• Informelle Begegnungen dürfen nicht verloren gehen. Der zufällige Austausch an der Kaffeemaschine lässt sich nicht eins zu eins digital ersetzen – aber er kann bewusst gefördert werden: etwa durch digitale „Coffee Dates“ mit neuen Kollegen, oder wöchentliche optionale Social Calls – ohne Agenda, aber mit viel Teamgeist. Und nicht zuletzt durch gemeinsame Workations: Arbeiten und Netzwerken an anderen Orten.

Diese Formate sind nicht nur „nice to have“, sondern entscheidend, um das Wir-Gefühl im Team zu erhalten.

Mitarbeiterbindung durch maßgeschneiderte Benefits

Eine zentrale Frage bei Remote-First-Modellen ist: Wie bleiben Mitarbeitende motiviert und langfristig gebunden, wenn es keinen physischen Arbeitsplatz gibt? Zum Beispiel durch ein individuell gestaltbares Benefit-System, das sich an den realen Bedürfnissen der Mitarbeitenden orientiert. Wir haben das in Form eines speziellen

Budgets gelöst, das jeder Mitarbeiterin und jedem Mitarbeiter zur persönlichen Verfügung steht. Dabei zeigt sich, dass Flexibilität auch hier der Schlüssel ist:

• 25 Prozent der Mitarbeitenden nutzen das Budget für Homeoffice-Ausstattung – etwa für ergonomische Stühle, Noise-Cancelling-Kopfhörer oder zusätzliche Monitore.

• Mehr als 50 Prozent investieren in gemeinsame Reisen & Workations – ein Indikator dafür, dass persönlicher Austausch trotz Remote-Work wichtig bleibt.

• Ein Drittel nutzt Angebote für Sport & Gesundheit – ein klarer Hinweis darauf, dass Work-Life-Balance über den Arbeitsalltag hinausgedacht werden muss.

Auffällig ist, dass Coworking-Spaces kaum genutzt werden, obwohl sie theoretisch ein attraktives Angebot sein könnten. Das zeigt: Flexibilität bedeutet nicht, alles anzubieten – sondern die richtigen Dinge bereitzustellen.

Fazit: Vertrauen als Schlüssel zum Erfolg

Die erfolgreiche Umsetzung eines Remote-First-Modells hängt von mehreren Faktoren ab. Neben einer klaren Kommunikationsstruktur und geeigneten digitalen Tools ist vor allem die gelebte Unternehmenskultur entscheidend. Eigenverantwortung muss gefördert, aber auch eingefordert werden. Drei zentrale Learnings zeigen sich aus der Praxis: Erstens ist Struktur essenziell. Ohne feste Routinen und klar definierte Kommunikationsprozesse kann Remote Work schnell ineffizient werden. Zweitens ist nicht jede Aufgabe für Remote geeignet – physische Treffen sind für strategische und kreative Prozesse oft unverzichtbar. Drittens ist Vertrauen der wichtigste Erfolgsfaktor. Unternehmen, die ihren Mitarbeitenden von Anfang an zutrauen, eigenverantwortlich zu arbeiten, werden langfristig bessere Ergebnisse erzielen. Fest steht: Einheitliche Arbeitsmodelle gehören der Vergangenheit an. Unternehmen, die in der Lage sind, individuelle Lösungen für ihre Mitarbeitenden zu schaffen, werden langfristig erfolgreicher sein. Der Schlüssel liegt in einer Kultur, die Flexibilität ermöglicht, ohne an Klarheit und Verbindlichkeit zu verlieren. •

Zwischen Ethik und Entlastung

Künstliche Intelligenz im HR-Bereich bietet viele Möglichkeiten zur Prozessoptimierung und strategischen Entscheidungsfindung. Zu beachten gilt es bei deren Einsatz Potenziale und Herausforderungen der KI-Tools in den Bereichen Recruiting, Mitarbeiterverwaltung und Personalentwicklung sowie wichtige ethische Aspekte. /// von Oliver Rozic

BEI KI SCHEIDEN SICH IMMER NOCH

DIE GEISTER: Während einige erwarten, dass KI alle administrativen Aufgaben überflüssig macht, warnen andere vor inhärenten Vorurteilen, Datenrisiken und Kontrollverlust. Die Wahrheit liegt – wie so oft – irgendwo dazwischen: KI hat das Potenzial, HR-Teams nachhaltig zu entlasten. Der Schlüssel liegt in einem durchdachten und verantwortungsvollen Einsatz der Technologie.

Automatisierung reicht nicht –KI muss mitdenken

Lange Zeit drehte sich der Einsatz von KI im Personalwesen primär um Automatisierung: Software analysiert Lebensläufe, schlägt Kandidaten vor oder erstellt Standarddokumente. Doch moderne KI-Tools können mehr. Sie unterstützen bessere Entscheidungen auf Basis von Datenanalysen, erkennen Muster und machen konkrete Handlungsempfehlungen.

Besonders in drei Bereichen zeigt sich der Mehrwert von KI im Personalwesen:

1. Recruiting & Talentmanagement KI-gestützte Software kann nicht nur Lebensläufe schneller auswerten, sondern auch Muster in erfolgreichen Karriereverläufen erkennen. Durch die Untersuchung von Leistungsdaten bisheriger Top-Performer lassen sich passende Kandidatenprofile definieren. KI-Modelle berücksichtigen neben strukturierten Daten wie Lebensläufen auch Soft Skills. Durch die Kombination dieser Faktoren entsteht eine differenzierte Einschätzung der Bewerber, die über klassische Matching-Methoden hinausgeht.

2. Intelligente Fehlererkennung

Die korrekte Verarbeitung von Daten hat im HR-Bereich einen besonders hohen Stellenwert. Zum einen han-

Oliver Rozic ist Vice President Product Management HR & Payroll bei Sage.

delt es sich um sensible, gesetzlich geschützte Informationen (z.B. durch die DSGVO). Zum anderen unterliegt die Lohnverrechnung strengen Vorgaben zur Berechnung des Nettogehalts. Fehler können nicht nur zu gesetzlichen Verstößen führen, sondern maßgeblich das Vertrauen der Mitarbeiter beschädigen, wenn z.B. das ausgezahlte Gehalt nicht stimmt. KI-gestützte Systeme erkennen durch Mustervergleiche Unstimmigkeiten, indem sie ausgezahlte Gehälter mit Vormonaten abgleichen. Sie identifizieren Abweichungen und analysieren deren Ursachen, etwas falsch hinter-

” Neben technologischen und ethischen Fragen ist die Akzeptanz in der Belegschaft ein wichtiger Erfolgsfaktor für den Einsatz von KI. Denn viele Mitarbeitende stehen der Automatisierung im HR-Bereich skeptisch gegenüber. (Oliver Rozic)
DER AUTOR

legte Steuerklassen oder fehlerhafte Berechnungsgrundlagen.

3. Lernen & Entwicklung

Auch in der Karriereentwicklung eröffnet KI neue Möglichkeiten. Während Weiterbildung bisher oft nach dem Gießkannenprinzip verteilt wurde, setzen KI-gestützte Lernplattformen auf individuelle Entwicklungspläne. Sie analysieren individuelle Stärken, Karriereziele und Unternehmensanforderungen, um personalisierte Lernpfade zu entwickeln. Diese adaptive Herangehensweise steigert die Effizienz der Qualifizierungsmaßnahmen und sorgt für eine gezieltere Talentförderung.

Ethische Herausforderungen: KI braucht klare Regeln

Der Einsatz von KI im HR-Bereich geht mit Herausforderungen einher. Die zugrundeliegenden Sprachmodelle sind nur so gut wie die Daten, mit denen sie trainiert werden. Verzerrte Datensätze können zu unfairen Entscheidungen führen. Ein Beispiel dafür sind automatische Bewerberfilter, die aufgrund historischer Unternehmensentscheidungen bestimmte Profile bevorzugen oder benachteiligen. Deshalb ist es essenziell, dass KI-Modelle regelmäßig überprüft, divers trainiert und mittels menschlichen Urteilsvermögen ergänzt werden.

Auch Datenschutz und Transparenz sind entscheidend: HR-Entscheidungen beeinflussen Karrieren und Existenzen – hier darf KI keine Black-Box sein, sondern muss nachvollziehbare Entscheidungen treffen bzw. Empfehlungen aussprechen.

Akzeptanz:

Vertrauen in KI schaffen

Neben technologischen und ethischen Fragen ist die Akzeptanz in der Belegschaft ein wichtiger Erfolgsfaktor für den Einsatz von KI. Viele Mitarbeitende stehen der Automatisierung im HR-Bereich skeptisch gegenüber – insbesondere, wenn es um Themen wie Bewerberauswahl oder Leistungsbewertung geht. Unternehmen sollten daher frühzeitig eine klare Kommunikationsstrategie entwickeln. Nur wenn klar ist, wo KI unterstützt und wo der Mensch unersetzbar bleibt, entsteht Vertrauen.

Fazit:

KI als strategischer HR-Partner KI ist kein Selbstzweck, sondern ein Werkzeug, das richtig genutzt werden muss. Während KI in anderen Geschäftsbereichen längst als Standard gilt, dominiert im HR-Bereich weiterhin ein reaktiver Ansatz. Stellen werden ausgeschrieben, wenn jemand kündigt, Schulungen werden angeboten, wenn Defizite offensichtlich sind. Dieser Ansatz ist nicht mehr zeitgemäß.

Die Zukunft gehört Unternehmen, die KI nicht als reines Automatisierungstool, sondern als strategisches Instrument begreifen. Erfolgreiche HR-Strategien kombinieren technologische Unterstützung mit menschlicher Expertise. Unternehmen, die den KI-Einsatz ethisch reflektieren, datenbasiert optimieren und strategisch steuern, profitieren nachhaltig – ohne den Menschen aus dem Blick zu verlieren. •

Sichern Sie sich jetzt Ihren wöchentlichen kostenfreien Redaktionsnewsletter!

Im Auftrag: Steuerung komplexer Prozesse

Eine neue Generation digitaler Agenten automatisiert unterschiedlichste Unternehmensabläufe: Sie können autonom arbeiten, Entscheidungen treffen und Maßnahmen ergreifen, um festgelegte Ziele zu erreichen. Dadurch liefern sie reale Ergebnisse, die die Produktivität von Unternehmen erhöht. /// von Gary Sidhu

DER AUTOR

Gary Sidhu ist SVP Produkt Engineering bei GTT.

DIE ENTWICKLUNG KÜNSTLICHER INTELLIGENZ (KI) hat mit agentischen KI-Systemen einen bedeutenden Meilenstein erreicht. Diese digitalen Agenten unterscheiden sich fundamental von bisherigen KI-Lösungen: Statt wie diese Systeme nur auf Anfragen zu reagieren, agieren sie auto-

nom und proaktiv in ihrer Umgebung. Dabei treffen die fortschrittlichen Lösungen eigenständige Entscheidungen, setzen diese um und lernen kontinuierlich aus ihren Erfahrungen.

Demnach liegt der entscheidende Unterschied zu anderen KI-Technologien wie der generativen KI in

Vom Pilot zum Roll-out

ihrer Autonomie und Handlungsfähigkeit. Während generative KISysteme darauf spezialisiert sind, basierend auf gelernten Mustern neue Inhalte wie Texte, Bilder und Code zu erstellen, gehen digitale Agenten deutlich weiter. Ihre Fähigkeiten zum Planen und logischen Schlussfolgern versetzen agentische KI in die Lage, komplexe Aufgaben zu übernehmen und selbstständig optimale Handlungsstrategien zu entwickeln.

Nutzen digitaler Agenten

Die gesamten Eigenschaften machen agentische KI zu einem Werkzeug mit großem Potenzial für Unternehmen. Sie ermöglichen die Au-

Durch eine schrittweise Einführung können Unternehmen den größtmöglichen Nutzen aus KI-Lösungen ziehen, vorausgesetzt, sie verfügen über eine ausreichende Menge an qualitativ hochwertigen Daten. Dieser Leitfaden beschreibt einen pragmatischen Ansatz und gibt praktische Tipps für die Implementierung. /// von Dr. José Cavia

DER AUTOR

Dr. José Cavia ist Manager Architect bei der Salesfive GmbH.

DIE EINFÜHRUNG VON KI-LÖSUNGEN

GLIEDERT SICH grob in die Phasen Vorbereitung, Implementierung und Optimierung. Zunächst werden die Use Cases und die damit verbundenen Ziele für den KI-Einsatz definiert. Je präziser diese festgelegt sind, z.B. anhand von KPIs, desto besser kön-

nen Unternehmen den Mehrwert von KI-Lösungen beurteilen. Typische Ziele sind die Optimierung von Prozessen im Vertrieb, eine effektivere Auslastung der Supportmitarbeiter sowie eine höhere Conversion Rate im Rahmen von Marketingkampagnen. Über die Ziele ist definiert, welche Art von

KI-Tools benötigt werden. So sagen prädiktive KI-Lösungen Ereignisse oder Trends zuverlässig voraus, wodurch Unternehmen beispielsweise ihre Vertriebsprozesse mittels datenbasierter Prognosen optimieren können. Generative KI-Tools wiederum erzeugen automatisch Content wie Texte, Bilder oder Videos. Hierzu gehören beispielsweise Antworten auf Kundenanfragen, womit SupportTickets automatisiert und damit schneller bearbeitet werden können.

Daten konsolidieren und bereinigen  Im Rahmen der Projektvorbereitung werden die relevanten Daten identifiziert, die häufig in unterschiedlichen

tomatisierung komplexer Prozesse, die bisher menschliches Urteils- und Anpassungsvermögen erforderten. Die autonome und daher effiziente Bearbeitung von Aufgaben entlastet Mitarbeiter, wodurch ihnen auch mehr Zeit für strategische Arbeit zur Verfügung steht. Zudem kann der Einsatz agentischer KI technologische Innovation vorantreiben und als Ausgangspunkt für die Entwicklung neuer Produkte, Services und Geschäftsmodelle dienen.

Heute sind die Einsatzgebiete digitaler Agenten bereits vielfältig. In der

ment. Außerdem erhalten Kunden in der direkten Kommunikation mit agentischer KI personalisierte Empfehlungen und proaktive Unterstützung. Im Bereich der Cybersicherheit erkennen und bekämpfen die KI-Lösungen neue Bedrohungen in Echtzeit.

Wettbewerbsvorteile durch strategische Integration sichern Die erfolgreiche Implementierung agentischer KI-Systeme erfordert eine sorgfältige Planung. Es kommt zunächst darauf an, klare Ziele und Erfolgskennzahlen für ihren Einsatz

” Die erfolgreiche Implementierung agentischer KI-Systeme erfordert eine sorgfältige Planung. (Gary Sidhu)

Fertigung, der Logistik und anderen Branchen steuern sie zum Beispiel Roboter und das Supply-Chain-Manage-

zu definieren. Danach besteht eine große Herausforderung in der nahtlosen Integration der Lösungen in die

vorhandene IT-Infrastruktur. Training und Betrieb der Systeme setzen zudem die Verfügbarkeit ausreichender und qualitativ hochwertiger Daten voraus. Hinzu kommen ethische Aspekte der KI-Nutzung, die Unternehmen von Anfang an berücksichtigen und adressieren müssen. Bei einer richtigen Umsetzung gibt es auch robuste Sicherheitsmaßnahmen, die Missbrauch verhindern und einen sicheren Betrieb gewährleisten. Nicht zuletzt müssen Unternehmen die Rollen und Verantwortlichkeiten der Menschen und der agentischen KI genau regeln, um für eine effektive Zusammenarbeit zu sorgen. Wenn der eigene Implementierungsplan diese Punkte einbezieht, steht der effektiven Nutzung agentischer KI nichts im Weg. Mit digitalen Agenten können Unternehmen besser arbeiten, die steigenden Erwartungen der Menschen an den Kundenservice erfüllen und neue Chancen für Wachstum und mehr Rentabilität erschließen. •

Systemen, etwa einer CRM- und einer ERP-Lösung, abgelegt sind. Diese müssen integriert werden, um einen reibungslosen Datenaustausch zu gewährleisten. Sind mehrere Datenquellen vorhanden, erfolgt die Integration über eine Middleware effizienter als über die punktuelle Anbindung per APIs. Im nächsten Schritt ist sicherzustellen, dass die KI-Lösung mit einer ausreichenden Menge qualitativ hochwertiger Daten trainiert werden kann, um korrekte und aussagekräftige Ergebnisse zu erhalten. Die nöti-

sondere auf eine Bereinigung der Daten, indem beispielsweise Dubletten entfernt, Fehler korrigiert und veraltete Informationen aktualisiert werden.

Erfolgreiche Implementierung Nach diesem Setup werden die KI-Modelle entwickelt und trainiert. Zur Evaluierung empfiehlt sich der Einsatz einer Konfusionsmatrix, die präzise auswertet, wie viele Vorhersagen ein KI-Modell korrekt und falsch getroffen hat. Liefert das KI-Modell zuverlässige Ergebnisse, erfolgt die

” Die identifizierten Daten müssen integriert werden, um einen reibungslosen Datenaustausch zu gewährleisten. (Dr. José Cavia)

ge Datenmenge hängt vom Anwendungsfall ab. Die Sicherstellung der Datenqualität wiederum zielt insbe-

Einführung. Dabei ist ein sukzessives Vorgehen nach dem Motto „Think big, start small“ ratsam. Konkret wird

in einer Pilotphase das erste KI-Modell entwickelt, trainiert und sukzessiv eingeführt. Es folgt ein intensiver Test im Live-Betrieb und ggf. eine Feinjustierung auf Basis gesammelter Erfahrungen. Erfüllt das Ergebnis die definierten Ziele, so bildet der vollständige Roll-out den weiteren Schritt. Anschließend kann das nächste KI-Modell nach demselben Muster eingeführt werden. Die Performance der KI-Modelle wird kontinuierlich überwacht und an veränderte Rahmenbedingungen angepasst.

Aktives Change-Management

Um die Akzeptanz von KI bei den Mitarbeitern zu sichern, empfiehlt es sich, diese von Beginn an in das Projekt einzubinden. Eine transparente Kommunikation über den Veränderungsprozess, dessen Meilensteine sowie die Auswirkungen auf die Belegschaft mindert Widerstände und Berührungsängste. •

Warum wir ein anderes Mindset brauchen

Die Zukunft rast auf uns zu – schneller, als wir uns vorstellen können. Dabei dürfen wir digitale Innovationen nicht nur als Option, sondern als strategisches Muss betrachten. /// von Robin de Brujin und Katharina Jäger

UNSERE INNOVATIONSKRAFT BLEIBT

AKTUELL ZURÜCK: Eine aktuelle Civey-Befragung im Auftrag des BVDW zeigt, dass 75 Prozent der Befragten Deutschland im internationalen Vergleich für wenig innovativ halten. Noch alarmierender – nur zwölf Prozent der privatwirtschaftlichen Entscheider arbeiten aktiv an der Entwicklung neuer Ideen, Produkte und Technologien.

Diese Zahlen zeigen: Es braucht einen grundlegenden Mindset-Change. Verpasste Innovationszyklen lassen den Wettbewerbsdruck steigen und kurzfristiges Denken führt uns in die Sackgasse. Innovation ist kein Selbstzweck, sondern die Grundlage wirtschaftlicher Zukunftsfähigkeit.

Doch Innovation entsteht nicht von allein, sie erfordert Offenheit für Exploration, strategische Weitsicht und die Bereitschaft, bestehende Strukturen zu hinterfragen. Hier setzt die Future Innovation & Technology (FIT) Expert Group des BVDW an. Wir wollen ein Mindset für Zukunftstechnologien prägen und die Kompetenzen der Digitalen Wirtschaft mit Industrie und Wissenschaft vernetzen.

Die Grundlagen für Zukunftsarbeit

Im ersten Sprint haben wir die Grund-

lagen für die Zukunftsarbeit gelegt: Innovation, Exploration, Foresight und Upskilling standen hierbei im Fokus. Diese Handlungsfelder sind essenziell, um Trends frühzeitig zu erkennen und in innovative Lösungen umzusetzen – kurz gesagt, um Zukunft zu gestalten.

Es geht darum, neue Denkweisen und Geschäftsmodelle zu entwickeln, die auf die sich ständig verändernden Bedürfnisse der Gesellschaft eingehen. Dabei hilft uns die Exploration, über den Tellerrand hinauszuschauen und neue, wünschenswerte Zukünfte zu entdecken. Aufbauend darauf ermöglicht es uns Foresight, zukünftige Entwicklungen zu antizipieren und darauf basierend langfristige Strategien zu entwickeln. Zuletzt ist Upskilling die entscheidende Komponente. Es stellt den Aufbau an Kompetenzen für die Zukunftsarbeit sicher, um einen nachhaltigen Mindset-Change zu gewährleisten.

Nicht alles, was neu ist, ist auch gut. Deshalb erfordert Zukunftsarbeit eine Balance zwischen Bewahrung und Erneuerung – das Prinzip der Ambidextrie. Unternehmen müssen Bestehendes optimieren (Exploitati-

DIE AUTOREN

on) und gleichzeitig Raum für Neues schaffen (Exploration). Wer sich nur auf den Erhalt bewährter Strukturen konzentriert, verliert den Anschluss. Wer nur in Zukunftsvisionen denkt, ohne den operativen Kern zu sichern, gefährdet die Stabilität. Ein echter Mindset- Change bedeutet, beide Perspektiven zu vereinen.

Die Pipeline ist voll Auf dieser Basis widmet sich die FIT-Expert Group in den kommenden Jahren zahlreichen Themen. Unter anderem dem Quantencomputing – einer Technologie, die das Potenzial hat, zahlreiche Branchen zu revolutionieren. Doch wie können wir sie für die Digitale Wirtschaft nutzbar machen? Und welche Anwendungsfelder sind bereits heut denkbar? Darauf geben wir noch in diesem Jahr Antworten.

Gemeinsam vor die Welle

Innovation ist kein Selbstläufer. Sie erfordert Mut, eine klare Vision und die Bereitschaft, bekannte Pfade zu verlassen.

Als BVDW wollen wir nicht nur Trends analysieren, sondern aktiv Impulse setzen – für eine Digitale Wirtschaft, die sich nicht nur anpasst, sondern Zukunft gestaltet. •

Katharina Jäger ist Head of Innovation & Technology beim Bundesverband Digitale Wirtschaft (BVDW) e. V..

Robin De Bruijn ist Experte für digitale Transformation und Director Business & Transformation Strategy bei denkwerk.

Disaster Recovery

Wie schützt Cloud-Disaster-Recovery Firmen vor Naturkatastrophen und Hackerangriffen?

Digitale Souveränität

Es ist wichtig, zu wissen, wie stabil, sicher, und transparent die eigene IT-Landschaft ist.

Experten-Talk

Welche Rolle spielt Green IT bei der IT-Security und der Nachhaltigkeit Ihrer IT?

Künstliche Intelligenz

Die Honigtöpfe der Hacker: Cyberkriminelle nutzen KI, um Unternehmen in die Irre zu führen.

Virtual Desktop Infrastructure

VDI zentralisiert sensible Daten und Anwendungen auf sicheren Servern.

KI-Compliance

EU AI Act, NIS-2 und DORA setzen hohe Standards für Compliance, Cybersicherheit und Resilienz.

ZEIT IST GELD

Ob Cyberangriff, Hardware-Defekt oder Naturkatastrophe:

Die Folgen sind oft dramatisch – von Umsatzeinbrüchen bis zu langfristigen Imageschäden. Laut Veeam Trend Report 2024 setzen 88 Prozent daher auf Cloud-Services für ihre Disaster-Recovery-Strategie. Doch wie schützt Cloud-Disaster-Recovery Unternehmen wirklich? /// von Henrik Hasenkamp

IT-AUSFÄLLE SIND LÄNGST KEIN AUSNAHMEFALL MEHR, sondern ein alltägliches Risiko für Unternehmen jeder Größe. Dabei geht es nicht nur um den unmittelbaren Verlust von Daten, sondern auch um erhebliche finanzielle Einbußen, gesetzliche Konsequenzen und langfristige Imageschäden. Eine zuverlässige Disaster-RecoveryStrategie setzt hier an, um den Geschäftsbetrieb aufrechtzuerhalten und Risiken zu minimieren. Viele Unternehmen verlassen sich auf traditionelle Backup- und Wiederherstellungslösungen, doch oft genügen diese nicht den geschäftlichen Anforderungen. Lange Wiederherstellungszeiten gefährden den Geschäftsbetrieb, und unzureichende Backup-Frequenzen erhöhen das Risiko von Datenverlusten.

Cyberrisiken mit einer soliden Strategie absichern Cyberattacken sind nach wie vor eine der Hauptursachen für ungeplante IT-Ausfälle. Doch auch Hard- und Software-Defekte, menschliche Fehler oder Naturkatastrophen können schwerwiegende Störungen verursachen. Ein strukturiertes Disaster-Recovery-Konzept stellt sicher, dass Geschäftsprozesse im Notfall schnellstmöglich wieder aufgenommen werden. Entscheidend sind dabei zwei zentrale Kennzahlen: die Recovery Time Objective (RTO), die definiert, wie lange ein System maximal ausfallen darf, bevor es den Geschäftsbetrieb gefährdet, und die Recovery Point Objective (RPO), die vorgibt, wie viele Daten maximal verloren gehen dürfen.

Kürzere RTO- und RPO-Zeiten bedeuten höhere Sicherheit, gehen jedoch oft mit steigenden Kosten einher. Cloudbasierte Disaster-Recovery-Lösungen bieten hier einen entscheidenden Vorteil, da sie hohe Verfügbarkeit mit flexibler Skalierbarkeit verbinden und gleichzeitig kosteneffizient bleiben.

Ein weiterer wichtiger Punkt ist die steigende Regulierung in vielen Branchen. Unternehmen müssen sicherstellen, dass ihre Disaster-Recovery-Strategien mit gesetzlichen Vorgaben wie der DSGVO oder branchenspezifischen Compliance-Anforderungen übereinstimmen.

Dabei kann die Implementierung einer zuverlässigen Cloud-basierten Lösung helfen, diese regulatorischen Anforderungen zu erfüllen und gleichzeitig betriebliche Risiken zu minimieren.

Wie Cloud-Disaster-Recovery Unternehmen schützt Cloud-Disaster-Recovery ermöglicht es Unternehmen, Daten nicht nur zu sichern, sondern auch geografisch verteilt zu speichern, sodass sie im Ernstfall schnell wiederhergestellt werden können. Manuelle Wiederherstellungsmaßnahmen entfallen zugunsten automatisierter Prozesse, die Ausfallzeiten erheblich reduzieren. Flexible Kostenmodelle sorgen zudem dafür, dass Unternehmen nur für tatsächlich genutzte Ressourcen zahlen, anstatt hohe Investitionen in eigene Backup-Infrastrukturen tätigen zu müssen.

Durch kontinuierliche Datenreplikation und intelligente Speicherarchitekturen garantieren cloudbasierte Lösungen eine nahezu unterbrechungsfreie Geschäftskontinuität. Selbst bei schwerwiegenden IT-Ausfällen bleiben Anwendungen verfügbar, ohne dass Nutzer den Ausfall bemerken.

Neben der technischen Resilienz profitieren Unternehmen von einer erhöhten operativen Effizienz. Durch die Automatisierung von Backup-Prozessen und den Einsatz von KI-gestützter Bedrohungserkennung können IT-Abteilungen entlastet und gleichzeitig die Sicherheit erhöht werden. Dadurch wird nicht nur die Wiederherstellung im Ernstfall verbessert, sondern auch der gesamte IT-Betrieb optimiert.

Disaster Recovery as a Service (DRaaS) als moderne Lösung Neben klassischen Backup-Ansätzen bieten Cloud-Anbieter mittlerweile umfassende Disaster-Recovery-as-a-Service-Lösungen (DRaaS). Diese ermöglichen es Unternehmen, ihre gesamte IT-Infrastruktur in der Cloud zu spiegeln und im Notfall ohne größere Ausfallzeiten auf alternative Systeme umzuschalten.

Durch die kontinuierliche Synchronisation der Systeme lassen sich Anwendungen und Daten schnell wiederherstellen. Unternehmen können ihre Schutzstrategien individuell anpassen und profitieren von einer vereinfachten Verwaltung, die im Vergleich zu traditionellen Lösungen oft kosteneffizienter ist. Eine fundierte Risikoanalyse bildet die Basis für eine wirksame DRaaS-Strategie, indem sie die kritischen Systeme identifiziert und festlegt, welche Daten im Ernstfall vorrangig wiederhergestellt werden müssen.

Ein weiterer Vorteil von DRaaS liegt in seiner Skalierbarkeit. Unternehmen können flexibel Ressourcen anpassen, ohne in zusätzliche Hardware investieren zu müssen. Das macht DRaaS besonders für wachsende Unternehmen oder solche mit saisonalen Schwankungen attraktiv. Zudem ermöglichen Pay-as-you-go-Modelle eine transparente Kostenstruktur, die es Unternehmen erlaubt, ihre Ausgaben effizient zu steuern.

Den richtigen Cloud-Anbieter wählen

Die Auswahl eines geeigneten Cloud-Anbieters erfordert eine sorgfältige Prüfung verschiedener Kriterien. Unternehmen sollten sicherstellen, dass der Anbieter Sicher-

bleiben auch bei Netzwerkausfällen funktionsfähig und gewährleisten den unterbrechungsfreien Betrieb. Einige Anbieter haben bereits Far-Edge-Computing-Lösungen entwickelt, die dezentrale Strukturen optimal in ein Disaster-Recovery-Konzept integrieren.

Edge Computing bringt zusätzliche Herausforderungen mit sich, insbesondere in Bezug auf Datensicherheit und Latenzzeiten. Eine sorgfältige Planung ist erforderlich, um sicherzustellen, dass kritische Daten effizient zwischen Edge-Standorten und der Cloud synchronisiert werden. Unternehmen, die eine hybride Strategie verfolgen, sollten daher Lösungen wählen, die sowohl Cloud- als auch Edge-Ressourcen nahtlos miteinander verbinden. •

” Ein strukturiertes Disaster-Recovery-Konzept stellt sicher, dass Geschäftsprozesse im Notfall schnellstmöglich wieder aufgenommen werden. Entscheidend sind dabei zwei zentrale

Kennzahlen: die Recovery Time Objective (RTO) und die Recovery Point Objective (RPO).

heitszertifikate und Compliance-Anforderungen wie die DSGVO erfüllt. Neben Flexibilität und Skalierbarkeit spielen auch die Qualität des Kundenservices und die geografische Lage der Rechenzentren eine wichtige Rolle. Rechtliche Rahmenbedingungen und technische Anforderungen müssen berücksichtigt werden, um mögliche Risiken wie Vendor-Lock-in zu vermeiden und hybride oder Multi-Cloud-Ansätze flexibel nutzbar zu machen.

Cloud-Disaster-Recovery und Edge Computing:

Eine starke Kombination

Moderne IT-Infrastrukturen bestehen zunehmend aus einer Kombination zentraler Rechenzentren und verteilten Edge-Computing-Standorten. Besonders in Branchen wie Industrie, Logistik oder Gesundheitswesen ist die schnelle Datenverarbeitung am Entstehungsort entscheidend. Cloud-Disaster-Recovery lässt sich gezielt mit Edge Computing kombinieren, um kritische Prozesse lokal abzusichern, während die Cloud als Skalierungsund Backup-Ressource fungiert. Lokale Edge-Systeme

DER AUTOR

Henrik Hasenkamp ist CEO die Strategie von gridscale.

(Henrik Hasenkamp)

SICHERHEIT DURCH SOUVERÄNITÄT

Wie wichtig die eigene IT in Firmen ist, zeigt sich sofort, wenn etwas ausfällt. Denn die IT bildet heutzutage das Rückgrat vieler klein- und mittelständischer Unternehmen. Ausfälle können relativ schnell in die Insolvenz führen, wie ein aktueller Fall beim Maxx-Hotel in Aalen gezeigt hat. Es ist daher auch in guten Zeiten wichtig, sich klarzumachen, wie stabil, sicher, performant und transparent das Gesamtkonstrukt der eigenen IT-Landschaft ist. /// von Thierry Kramis

IN DEN MEISTEN UNTERNEHMEN HAT SICH DIE IT IN EINEM KONTINUIERLICHEN PROZESS über Jahrzehnte weiterentwickelt. Wenn alles reibungslos funktioniert, stehen Fragen wie „Wo liegen meine Daten eigentlich?“ und „Welche Akteure können sich Zugriff darauf verschaffen?“ hintenan. Das Problem dabei ist: Es gibt ja selten nur die eine IT-Plattform, auf der alles läuft. Vielfach sind viele alte und neue Systeme On-Premises und in der Cloud untereinander vernetzt. Dort alle Abhängigkeiten und Angriffspunkte zu kennen und zu managen, ist eine besondere Herausforderung.

DER AUTOR

Thierry Kramis ist CEO und Gründer der Seabix AG.

Nutzen einige Dienste Public-Cloud-Anbieter wie Microsoft Azure, Google Cloud oder Amazons AWS, ist häufig gar nicht klar, welche staatlichen Akteure sich eventuell Zugriff verschaffen können.

Die Aussage der Sprecherin des Weißen Hauses, dass Elon Musk als offizieller Berater der US-Regierung selbst darüber entscheidet, ob ein Interessenkonflikt zwischen seinen geschäftlichen Aktivitäten und seiner politischen Rolle besteht, verdeutlicht, wie brüchig bisherige Gewissheiten über Transparenz und Rechtsstaatlichkeit sowie die Mechanismen zur Vermeidung von Machtmissbrauch in einigen Rechtssystemen geworden sind. Hinzu kommen Hackerangriffe, die laut der letztjährigen KMU-Studie der Gothaer Versicherungen 48 Prozent aller Unternehmen als das größte Risiko einstufen.

Datensouveränität wird immer wichtiger Datensouveränität bedeutet, Transparenz über alle Daten, Anwendungen und Abhängigkeiten zu haben, Zugriffsrechte zu kontrollieren und Datenbewegungen 100prozentig selbst steuern oder auch blockieren zu können . Dazu gehören aber nicht nur Daten: Im Oktober 2019 hat die Trump-Administration amerikanischen Unternehmen jegliche Transaktionen und Dienstleistungen für Unternehmen und Personen in Venezuela untersagt. Das führte dazu, das Adobe alle Lizenzen für seine Produkte in dem Land deaktiviert hat. Dies kann Personen auch bei Microsoft passieren: Wer gegen die einzelne Lizenzbedingungen verstößt, kann schlagartig den kompletten Zugriff auf OneDrive, Outlook-E-Mails, Office-Programme und Teams-Unterhaltungen sowie Telefonie verlieren. Für Unternehmen stellen moderne Lizenzmodelle daher eine latente Gefahr dar.

Reflexartig jetzt alles wieder ins eigene Rechenzentrum zu holen, ist allerdings kontraproduktiv. Gerade in kleineren Unternehmen ist die Arbeitslast der IT oft hoch. Mitarbeitende haben häufig nicht die Zeit, sich beispielsweise im Themenbereich Security intensiv weiterzubilden und auf der Höhe der Zeit zu halten. Eine kluge Wahl, welche Anwendungen und Daten in die Cloud gehören und welche auf lokale Server, kann das Sicherheitsniveau steigern und die Last der Verwaltungsaufgaben für die IT-Abteilung senken.

Vereinfachung und Standardisierung vorantreiben

Das A und O dabei ist eine möglichst weitgehende Standardisierung, beispielsweise über die Einführung eines System- und siloübergreifenden Management-Layers. Er erlaubt die Steuerung und Kontrolle einer Vielzahl von Systemen von einer Oberfläche aus. Damit sinken die Aufwände fürs Service-, Fehler- und Update-Management und steigen die Möglichkeiten, einen hohen Grad an Automatisierung voranzutreiben.

Diesen Aspekt sollten IT-Verantwortliche nicht unterschätzen. Die mangelhafte Kenntnis eines Systems, das

man selten benötigt, öffnet Fehlerquellen und führt zu Verzögerungen, weil eventuell die richtigen Mitarbeitenden nicht greifbar sind. Damit steigen die Kosten, ohne einen Nutzen zu erzielen. Geht es beispielsweise darum, einen neuen Mitarbeiter in allen IT-Systemen einzurichten (beim sogenannten Onboarding), können die Zeiten von Stunden auf Minuten oder sogar Sekunden sinken, wenn sich alle beteiligten Systeme verstehen. Das gilt für das IAM (Identity Access Management), Buchhaltung und Personalsysteme sowie das Einrichten und Kommissionieren der Hardware (Notebook, Smartphone, Telefonie, Drucker). Je weniger Systeme hierbei involviert sind, um so einfacher, effizienter und vor allem auch sicherer wird es. Mit der Konsolidierung sinken Schulungs- und Service-Aufwände (wie das Patchmanagement). Eine vollumfängli-

Zugriff auf alle Daten europäischer Tochterunternehmen von US-Firmen zu, ohne dass diese sich wehren können oder dürfen. Neben dem Cloud-Standort ist es also wichtig zu wissen, wo Cloud-Partner ihren Sitz haben und zu welcher Firmengruppe sie gehören. Neben den rechtlichen Fragen gilt es auch, eine Cloud-Strategie zu entwickeln: Für viele Firmen sind Hybrid-Cloud-Strategien die beste Lösung. Hier können sie selbst entscheiden, welche Daten auf eigenen Servern On-Premises und welche in einer Private- oder Public-Cloud gespeichert werden sollen. Wichtig ist, dass die eingesetzte Software-Plattform ein einfaches Verlagern der Datenbestände zwischen den Standorten und Clouds unterstützt. Damit lassen sich eine Risikodiversifizierung und flexible Kostenkontrolle einfach umsetzen. •

” Der US-amerikanische Cloud-Act sichert US-Geheimdiensten den Zugriff auf alle Daten europäischer Tochterunternehmen vonUS-Firmen zu, ohne dass diese sich wehren können oder dürfen. Neben dem Cloud-Standort ist es also wichtig zu wissen, wo Cloud-Partner ihren Sitz haben und zu welcher Firmengruppe sie gehören.

che Integration der verbleibenden Systeme senkt außerdem Bearbeitungszeiten, Fehlerquoten und damit Kosten. Nebenbei steigt die Zufriedenheit der Mitarbeitenden, weil vieles automatisch und fehlerfrei funktioniert.

Transparenz, wo Daten liegen und wer Zugriff hat Zeitgleich mit der Konsolidierung beschäftigen sich Unternehmen auch mit den Storage-Fragen, wo Daten und Anwendungen liegen sollen. Angesichts der starken Umwälzungen in den USA kommen hier nur Europa und die Schweiz als Cloud-Standorte in Frage . Das gilt auch für den Firmenstandort des Cloud-Betreibers: Der US-amerikanische Cloud-Act sichert US-Geheimdiensten den

(Thierry Kramis)

GREEN CYBERSECURITY: WIE GELINGT NACHHALTIGE IT-SICHERHEIT?

Die IT-Security hält Unternehmen immer wieder auf Trab. Und neuerdings sollen Unternehmen auch noch möglichst nachhaltig sein. Wir haben Experten gefragt: „Welche Rolle spielt Green IT bei der IT-Security? Und welche Möglichkeiten der Nachhaltigkeit sehen Sie in der IT-Sicherheit?“ /// von Konstantin Pfliegl

STEFFEN ULLRICH

TECHNOLOGY FELLOW BEI GENUA

• Die Aufgabe von IT-Security-Produkten ist es zu schützen. In dem heutigen Umfeld bedeutet das schnelle und kostengünstige Anpassbarkeit an die zunehmenden und sich ständig verändernden Bedrohungen. Für eine Optimierung auf höchste Effizienz und damit niedrigsten Energieverbrauch für eine bestimmte Leistung sind jedoch über lange Zeit stabile Anforderungen optimal. Das heißt, Effizienzoptimierungen in IT-Sicherheitsprodukten sind nur in Teilen über längere Zeit hilfreich und damit kosteneffektiv. Die steigende Gefahrenlage erfordert außerdem mehr und tiefer gehende Analysen sowie mehrschichte Sicherheit, was ebenso einer sparsamen Nutzung von Ressourcen entgegensteht. Zwar können auch IT-Security-Lösungen von Green-IT-Methoden wie Konsolidierung von Computing durch Virtualisierung profitieren, allerdings geht dies oft mit Sicherheitskompromissen einher, die nicht in allen Fällen akzeptabel sind. Das heißt, die Möglichkeiten für die Umsetzung von Green IT in IT-Sicherheitslösungen sind beschränkter als bei anderer IT.

Die eigentliche Bedeutung von IT-Sicherheit im Kontext von Green IT ist eher die Ermöglichung von Nachhaltigkeit. So ist ohne Digitalisierung und Vernetzung eine effektive Nutzung erneuerbarer Energien wie Windkraft und Solar nicht möglich, denn diese bedeuten eine weitverteilte dezentrale Energieerzeugung mit dynamischer Leistungsabgabe und einem daran angepasste smarten Verbrauch. Und ohne IT-Sicherheit gibt es keine robuste Digitalisierung, das heißt, IT-Sicherheit ist ein kritischer Teil der Energiewende. •

PR & COMMUNICATIONS MANAGER BEI TREND MICRO

• Green IT und IT-Security sind zwei zentrale Herausforderungen, die Unternehmen heute bewältigen müssen. Während IT-Sicherheit den Schutz sensibler Daten und Systeme gewährleistet, trägt Green IT zur Energieeffizienz und Nachhaltigkeit der IT-Infrastruktur bei. Beide Bereiche greifen zunehmend ineinander und bieten Synergien zur Verbesserung von Sicherheit und Umweltbilanz.

Software as a Service

Ein wichtiger Faktor ist die Nutzung von SaaS-Lösungen aus zentralen, nachhaltig betriebenen Rechenzentren. Diese bieten Skaleneffekte und ermöglichen eine ressourcenschonende IT-Sicherheitsstrategie. Unternehmen profitieren von kontinuierlichen Updates, einer besseren Absicherung und einem reduzierten CO2-Fußabdruck. Anbieter setzen auf zentrale Bedrohungsanalysen von Telemetriedaten und effiziente Bereitstellung, die Cloud-Ressourcen optimal nutzen.

Besonders der KI-Boom stellt Rechenzentren vor Herausforderungen. Das Training großer Modelle benötigt enorme Rechenleistung und Energie. Zentral gehostete Modelle in nachhaltigen Cloud-Umgebungen bieten eine effizientere Alternative zum energieintensiven OnPremise-Betrieb. Durch Technologien wie Flüssigkeitskühlung, Abwärmenutzung und erneuerbare Energien kann der Energieverbrauch gesenkt werden. Die Verbindung von Green IT und IT-Security schafft eine widerstandsfähigere und lebenswertere digitale Welt. Nachhaltige Sicherheitslösungen schützen nicht nur Systeme, sondern fördern auch eine umweltfreundliche Unternehmensstrategie. •

Steffen Ullrich Bild: Genua
Tobias Grabitz Bild: Trend Micro
TOBIAS GRABITZ

STRATEGY & NEW MARKETS LEAD BEI A1 DIGITAL

CISO IN RESIDENCE BEI ZSCALER

• Nachhaltigkeit und Sicherheit sind zwei Themen von großer Bedeutung in unserer heutigen Gesellschaft und haben daher auch einen großen Stellenwert in der IT-Branche. Die steigende Anzahl von Hacker-Angriffen, insbesondere durch GenAI und veraltete IT-Infrastrukturen erzeugen jährlich einen Schaden in Milliardenhöhe in Europa. Zusätzlich erzeugt jeder Hacker-Angriff einen maßgeblichen Energieaufwand durch erhöhte Rechnerauslastung, welches zusätzlich signifikante Kosten erzeugt hinsichtlich der Rekord Energie-Preise.

Daher sind gemeinsame Investitionen in IT Security als auch Green IT unabdingbar, um einen finanziellen nachhaltigen Schutz gegen Hacker zu gewährleisten. Eine der nachhaltigen Maßnahmen in IT-Security sind zum Beispiel energieeffiziente Rechenzentren. Durch den Einsatz von effizienten Sicherheitstechnologien (etwa Firewalls, Traffic-Filtration) und energieeffiziente Cloud-Lösungen können Unternehmen ihren Energieverbrauch senken und gleichzeitig die Sicherheit durch modernste Infrastruktur erhöhen. Hierzu eine besonders interessante Lösung in diesem Bereich ist die Kooperation zwischen Exoscale, dem Cloud-Service-Provider der A1 Digital, und dem österreichischen Unternehmen Diggers, um energieeffizientere Rechenzentren zu schaffen. Die innovative Flüssigkühlungslösung verspricht eine erhebliche Reduktion des Energieverbrauchs von rund 30 Prozent in Rechenzentren. Der Ansatz von Diggers ermöglicht die Weiternutzung der entstehenden Wärme der Rechenzentren, was die Nachhaltigkeit erheblich verbessert. •

• Nachhaltigkeit und Cybersicherheit müssen keine Prioritäten sein, die miteinander im Widerstreit stehen, sie sollten sich vielmehr ergänzen. ESG-Initiativen (Environmental, Social, Governance) stehen angesichts der globalen Diskussionen um den Klimawandel und der gesteckten Ziele zur Emissionsreduktion auf der Agenda der Unternehmensentscheider, die dabei die Unterstützung durch das IT-Team benötigen. Auch die IT-Sicherheit kann zur Zielerreichung beitragen.

Zero-Trust-Ansatz

Im Hinblick auf die CO2-Bilanzierung sollte das IT-Team die Vorhaltung der Hardware und deren Energieverbrauch für Strom und Kühlung evaluieren. Hier kann ein Cloud-nativer Zero Trust-Ansatz für die Cybersicherheit durch die Konsolidierung von Hardware zur Senkung des Stromverbrauchs beitragen und Kennzahlen liefern, die zum Erreichen der gesteckten Reduktionsziele beitragen. Zeitgleich kann durch einen solchen Ansatz die Resilienz gestärkt werden, da sich damit die Angriffsfläche von Infrastrukturen reduzieren lässt.

Zscaler setzt für den Betrieb seiner mehr als 160 Rechenzentren für seine Zero-Trust-Exchange-Plattform vollständig auf erneuerbare Energien. Die zugrunde liegende Architektur wurde von Grund auf nach der Vorgabe effizienter Skalierbarkeit und Prozessoptimierung entwickelt. Als multimandantenfähige Plattform werden Ressourcen optimal eingesetzt und damit die Anzahl der Rechenzyklen, im Vergleich zu herkömmlichen, Hardware-basierten Ansätzen, reduziert. •

David Motaabbed Bild: A1 Digital
Christoph Schuhwerk Bild: Zscaler
CHRISTOPH SCHUHWERK

THOMAS BOELE

REGIONAL DIRECTOR SALES ENGINEERING CER/DACH BEI CHECK POINT SOFTWARE

• Green IT kann bei IT-Security eine große Rolle spielen. Wenn Unternehmen ihre IT-Security-Systeme energieeffizient gestalten, dann lässt sich auch der Energieverbrauch im Betrieb reduzieren. Eine Richtgröße, die Beachtung finden sollte, ist der Energieverbrauch pro GBit an Datendurchsatz bei Next-Generation-Security-Gateways. Zudem wird das Risiko einer Kompromittierung durch Crypto Miner und Ransomware stark reduziert. Durch das Mining von Kryptowährungen entsteht nach Schätzungen jedes Jahr ein Verbrauch von 125 Terrawattstunden. Der neuerliche Anstieg und das Bedeutungswachstum von Bitcoin & Co. haben dazu beigetragen, dass sich die Beliebtheit von Kryptominern nach all den Jahren nicht verringert hat. Nach dem Höhepunkt 2018, als die Malware von unseren Sicherheitsforschern teilweise bei 40 Prozent der untersuchten Unternehmen gefunden wurde. Ist es zwar ruhiger um die Bedrohung geworden, aber Crypto Miner wie XMRig wurde beispielsweise im November bei einer Kampagne, die auf Gaming Engines abzielt, entdeckt.

Weniger Energiekosten durch proaktive Abwehr

Durch die Prävention, also proaktive Abwehr von Cyberangriffen, können eine Grundinfektion verhindert und somit auch Energiekosten eingespart werden. Sie entstehen beispielsweise durch die Wiederherstellung der Systeme durch das Laden von Backups oder aber das komplette Neuaufsetzen der betroffenen Systeme. Ein völlig unnötiger Ressourceneinsatz. Ein weiterer Fall mit vermeidbarem Energieverbrauch ist Data Poisoning von KI-Tools. Diese Art von Hacking-Technik kann zu viel zusätzlichem Energieverbrauch infolge Re-Training führen, wenn die Modelle kompromittiert werden. Dies lässt sich durch Sicherheitsmaßnahmen verhindern.

Letztlich gilt es, die richtigen Technologien einzusetzen und auf moderne Ansätze wie hybride Netzwerk-Architekturen beispielsweise Mesh-Netzwerke zu setzen. Nicht immer müssen die Daten in SASE-Umgebungen über die Cloud geroutet werden – über einen Hybrid-Ansatz werden Hops eingespart, somit sind weniger Systeme, die Energie verbrauchen an der Übertragung beteiligt. Im Bereich von Rechenzentren kann hohe Verfügbarkeit auch durch Scale-Out-Security-Gateway-Designs erzielt werden, anstatt eine klassisches Aktiv-Passiv-Design anzustreben. •

• IT-Sicherheit bleibt für Unternehmen eine ständige Herausforderung. Bei Eset sehen wir Green IT nicht als zusätzliche Belastung für Unternehmen, sondern als integralen Bestandteil moderner IT-Sicherheitsstrategien. Nachhaltigkeit und Cybersecurity ergänzen sich hervorragend und bieten Unternehmen die Chance, ihre digitale Infrastruktur zukunftsfähig zu gestalten.

Moderne Sicherheitslösungen

Das Ziel sind ressourcenschonende Sicherheitslösungen, die Unternehmen zuverlässig schützen, ohne unnötig Rechenleistung zu verbrauchen – Produkte, welche die Systemlast minimieren und so aktiv helfen, Energie zu sparen:

Energieeffizienz:

Sicherheitslösungen sollten darauf ausgelegt sein, ressourcenschonend zu arbeiten. Wir optimieren kontinuierlich die Software, um gleiche oder bessere Sicherheitsleistungen bei geringerem Energieverbrauch zu erzielen.

Cloud-basierte Lösungen:

Cloud-Anbieter nutzen Virtualisierungs-Technologien, die mehrere virtuelle Maschinen auf einem physischen Server betreiben. Dies führt zu einer besseren Auslastung der Hardware und reduziert den Bedarf an einzelnen Servern, was den Stromverbrauch senkt. Zudem betreiben sie hochmoderne, auf maximale Energieeffizienz – auch für die Infrastruktur – ausgelegte Rechenzentren.

Unterstützung von Remote-Arbeit: Moderne Sicherheitslösungen ermöglichen sichere Remote-Arbeit, was indirekt zur Reduzierung von CO2-Emissionen durch vermindertes Pendeln beiträgt.

Maschinelles Lernen und verhaltensbasierte Analysen, um Cyberbedrohungen effizient zu erkennen – und gleichzeitig Ressourcen zu schonen: So unterstützen wir zum Beispiel moderne CoPilot+-PC-Systemarchitektur auf Basis von ARM-Technologie und tragen so aktiv zu einer GreenIT-Struktur bei. Diese energieeffiziente Architektur senkt den Energie- und Rohstoffverbrauch, unterstützt native KI-Technologien und stärkt somit die Sicherheit nachhaltig und zukunftsgerichtet. •

Thomas Boele Bild: Check Point Software
Micheal Schröder Bild: Eset

DAS ASS IM ÄRMEL DER

IT-SICHERHEIT

Virtual Desktop Infrastructure (VDI) bietet moderne Lösungen für die IT-Sicherheit und -Verwaltung in Unternehmen. Diese virtuelle Rechnertechnologie zentralisiert sensible Daten und Anwendungen auf sicheren Servern, während Endnutzer über Remote-Protokolle auf ihre personalisierten Umgebungen zugreifen. /// von Hermann Behnert

DIE VDI-LÖSUNG VEREINT DAMIT FLEXIBILITÄT mit robusten Sicherheitsfunktionen, die Unternehmensdaten effektiv vor modernen Cyberbedrohungen schützen. Sie ermöglicht flexibles Arbeiten und gewährleistet, dass Daten sicher über geschützte Kanäle übertragen werden –unabhängig vom Endgerät des Nutzers.

Zentrale Sicherheitsaspekte

Da Anwendungen auf zentralen Servern laufen und Endgeräte letztlich nur Bildinformationen anzeigen, minimiert VDI erheblich die Risiken von Malware. Thin Clients, einfache Endgeräte mit begrenzter eigener Rechenleistung, sorgen gemeinsam mit zentralem Image- und Patch-Management für eine kontrollierte und sichere Umgebung, die Ransomware sowie Zero-Day-Exploits vorbeugt.

Der geschützte Zugriff auf Unternehmensdaten erfolgt unabhängig vom verwendeten Endgerät und unterstützt mobile Arbeitsmodelle wie „Bring Your Own Device“ (BYOD) und „Work from Everywhere“. Durch zentrale Verschlüsselung und compliance-gerechte Speicherung erfüllt VDI auch DSGVO-Anforderungen und verhindert unkontrollierte Datenspeicherung auf unsicheren Geräten. Zudem isoliert eine Mikrosegmentierung virtuelle Desktops, verhindert laterale Bedrohungsausbreitung und erleichtert die schnelle Eindämmung von Sicherheitsvorfällen. Regelbasierte Zugriffskontrollen stellen sicher, dass Nutzer nur auf notwendige Ressourcen zugreifen. In Kombination

mit dem Zero Trust-Ansatz “Vertraue niemandem” und Multi-Faktor-Authentifizierung (MFA) wird so ein hohes Maß an Sicherheit und kontinuierliche Überprüfung aller Zugriffe gewährleistet. Ein strukturiertes Vulnerability Management ergänzt diese Schutzmaßnahmen. CVEs – bekannte Schwachstellen in Software – können durch ein konsequentes Patch-Management frühzeitig erkannt und geschlossen werden, bevor sie ausgenutzt werden. Diese Kombination

Netzwerkkapazitäten und Sicherheitsrichtlinien genau unter die Lupe nehmen, um eine reibungslose Integration zu gewährleisten.

Ein detaillierter Migrationsfahrplan hilft dabei, potenzielle Stolpersteine frühzeitig zu erkennen und auszuräumen. Mindestens ebenso wichtig ist die menschliche Komponente: Gezielte Schulungsprogramme bereiten sowohl IT-Teams als auch Endanwender optimal auf die neue Technologie vor. Dies fördert nicht nur

DER AUTOR

Hermann Behnert

ist technischer Leiter und Geschäftsführer der SCHIFFL IT Service GmbH.

aus VDI, Mikrosegmentierung und zusätzlichen Schutzmaßnahmen schafft eine mehrschichtige Sicherheitsarchitektur, die Unternehmensdaten zuverlässig schützt und gleichzeitig flexible Arbeitsmodelle ermöglicht.

Integration von VDI in die bestehende IT-Infrastruktur

Eine erfolgreiche VDI-Implementierung verlangt mehr als nur technisches Know-how – sie erfordert ein durchdachtes Zusammenspiel mit der bestehenden IT-Infrastruktur. Entscheidend ist dabei eine sorgfältige Bestandsaufnahme: Unternehmen müssen ihre aktuellen Systeme,

die Akzeptanz des Systems, sondern stellt auch sicher, dass dessen Potenzial von Anfang an voll ausgeschöpft wird.

Der Weg zum Ziel

VDI überzeugt als Komplettpaket: Die Technologie vereint flexibles Gerätemanagement mit umfassendem Datenschutz. Durch das Zusammenspiel von zentraler Verwaltung, Mikrosegmentierung und modernen Sicherheitskonzepten entsteht eine zuverlässige Verteidigungsstrategie. Damit positionieren sich Unternehmen optimal für die Herausforderungen der digitalen Arbeitswelt. •

VORSICHT VOR DEN HONIGTÖPFEN DER HACKER

Die digitalen Fallen werden immer perfider: Cyberkriminelle nutzen künstliche Intelligenz, um Unternehmen – in Echtzeit und mit dynamischer Anpassung – gezielt in die Irre zu führen. Nur umfassende Sicherheitsansätze und Gegenmaßnahmen unter Einbezug der Belegschaft helfen gegen diese Bedrohung. /// von Thomas Kress

KÜNSTLICHE INTELLIGENZ HAT DIE ART UND WEISE, WIE CYBERKRIMINELLE ANGRIFFE DURCHFÜHREN, auf ein neues Level gehoben. Die Zeiten plumper Phishing-Mails mit offensichtlichen Fehlern sind vorbei. Heute generiert KI täuschend echte E-Mails, simuliert vertraute Stimmen in Anrufen und erstellt Deepfake-Videos, die nicht von der Realität zu unterscheiden sind.

Besonders perfide sind die sogenannten „Honigtöpfe” – digitale Fallen, die gezielt auf menschliche Schwächen ausgerichtet sind. Sie locken mit vermeintlich legitimen Anfragen, dringenden Sicherheitsmeldungen oder manipulierten Geschäftsprozessen.

Waren Honeypots bisher ein Mittel der Verteidigung, wird es nun immer öfters von Angreifern eingesetzt. Ein Moment der Unachtsamkeit genügt, und der Schaden kann enorm sein. Doch wie funktionieren diese Fallen genau, und welche Gegenmaßnahmen helfen wirklich?

– KI sorgt dafür, dass solche Betrugsversuche glaubwürdiger erscheinen als je zuvor. Noch gefährlicher sind Deepfake-Technologien, mit denen Stimmen und Gesichter täuschend echt imitiert werden können. Führungskräfte, die scheinbar persönlich eine dringende Überweisung anweisen, oder gefälschte Videokonferenzen, in denen betrügerische Anweisungen erteilt werden, sind keine Science-Fiction mehr, sondern Realität.

Honigtöpfe sind jedoch nicht nur in der direkten Kommunikation zu finden, sondern auch in IT-Systemen und digitalen Prozessen versteckt. Manipulierte SoftwareUpdates, scheinbar vertrauenswürdige Cloud-Dienste oder gefälschte Geschäftsprozesse können als Einfallstor für Cyberangriffe dienen. Durch KI lassen sich solche Täuschungen dynamisch anpassen und in Echtzeit optimieren, so dass sie selbst für erfahrene IT-Teams schwer zu entdecken sind. Die Methode des „Adversarial Machine Learning“ ermöglicht es Hackern, Sicherheitsalgorithmen

” Honigtöpfe sind nicht nur in der direkten Kommunikation zu finden, sondern in IT-Systemen und digitalen Prozessen versteckt. Manipulierte Software-Updates, scheinbar vertrauenswürdige CloudDienste oder gefälschte Geschäftsprozesse dienen als Einfallstor für Angriffe.

Die unterschätzte Gefahr der KI-basierten Cyberangriffe Cyberkriminelle setzen KI gezielt ein, um menschliche Schwächen auszunutzen. Während klassische Phishing-Mails oft an Rechtschreibfehlern oder ungeschickten Formulierungen zu erkennen waren, sind KI-generierte Nachrichten nahezu perfekt. Sie passen sich individuell an den Kommunikationsstil von Unternehmen an, enthalten korrekte Namen, interne Informationen und wirken täuschend echt. Eine vermeintliche Anweisung der Geschäftsführung oder ein dringender Sicherheitsalarm gezielt zu manipulieren und Schutzmechanismen zu unterlaufen. Unternehmen stehen vor der Herausforderung, nicht nur ihre Mitarbeitenden zu sensibilisieren, sondern auch technische Kontrollmechanismen laufend zu hinterfragen und zu aktualisieren.

Besonders perfide sind KI-gestützte Angriffe auf interne Prozesse. Beispielsweise kann KI-gesteuerte Malware Unternehmensnetzwerke infiltrieren und sich unauffällig anpassen, um über lange Zeit hinweg Daten auszulesen. Automatisierte Angriffssysteme analysieren kontinuierlich

Verhaltensmuster, um Schwachstellen in Arbeitsabläufen zu identifizieren und gezielt auszunutzen. Selbst gut abgesicherte IT-Infrastrukturen sind dadurch potenziellen Angriffen ausgesetzt, wenn menschliche Fehler durch perfekt simulierte Täuschungsversuche ausgenutzt werden.

Umfassende Sicherheitsansätze

Die wichtigste Maßnahme gegen KI-gestützte Cyberangriffe ist ein umfassender Sicherheitsansatz. Unternehmen müssen ihre Mitarbeitenden regelmäßig sensibilisieren und in modernen Betrugstaktiken schulen. Das Bewusstsein für die neuen Täuschungsmethoden ist essenziell, denn viele Angriffe basieren auf Social Engineering, also der Manipulation von Menschen durch Vertrauen und Dringlichkeit.

Zusätzlich sind technische Maßnahmen unerlässlich: Mehrstufige Authentifizierung, Netzwerkanalysen mit KI-gestützter Bedrohungserkennung, Mikrosegmentierung auf Applikationsebene und eine strikte Zugriffskontrolle helfen, Betrugsversuche frühzeitig zu erkennen. Unternehmen sollten auch intern klare Prozesse definieren: Sensible Entscheidungen wie Finanztransaktionen oder Passwortänderungen sollten immer über mehrere Kommunikationswege bestätigt werden – niemals nur per E-Mail oder Telefon. Während KI von Hackern missbraucht wird, bleibt sie dennoch eines der besten Werk-

Cybersicherheit ist längst kein reines IT-Problem mehr, sondern betrifft sämtliche Unternehmensbereiche. KI kann entweder eine Bedrohung oder ein Schutzschild sein – je nachdem, wie bewusst sie eingesetzt wird. Die Erkennung und Vermeidung von Hacker-Honigtöpfen erfordert kontinuierliche Wachsamkeit und eine Kombination aus technologischem Fortschritt und menschlicher Entscheidungsfähigkeit. Unternehmen, die in robuste Sicherheitsstrukturen investieren, schaffen nicht nur Schutz vor aktuellen Bedrohungen, sondern stärken langfristig ihre digitale Resilienz.

Ein Blick in die Zukunft

Schaut man weiter voraus, zeigt sich, dass sich sowohl Angriffs- als auch Verteidigungsmechanismen stetig weiterentwickeln. KI wird in der Lage sein, ihre eigenen Schwachstellen zu erkennen und selbstständig zu optimieren. Gleichzeitig bedeutet das jedoch auch, dass Angreifer ihre Techniken mit zunehmender Geschwindigkeit weiterentwickeln werden. Unternehmen müssen daher nicht nur in KI-basierte Abwehrstrategien investieren, sondern auch auf adaptive Sicherheitsstrukturen setzen, die sich flexibel an die Bedrohungslandschaft anpassen. Ohne diese dynamische Weiterentwicklung wird es zunehmend schwieriger, sich gegen KI-gestützte Bedrohungen zu schützen. •

” Besonders perfide sind KI-gestützte Angriffe auf interne Prozesse: Automatisierte Angriffssysteme analysieren kontinuierlich Verhaltensmuster, um Schwachstellen in Arbeitsabläufen zu identifizieren und gezielt auszunutzen.

(Thomas Kress)

DER AUTOR

Thomas Kress ist IT-Sicherheitsexperte und Inhaber der TKUC Group.

zeuge zur Verteidigung. Moderne Sicherheitssysteme nutzen KI, um Angriffe in Echtzeit zu erkennen und automatisch Gegenmaßnahmen einzuleiten. Doch ein rein technischer Ansatz reicht nicht aus. Der menschliche Faktor bleibt die größte Schwachstelle – und gleichzeitig die stärkste Verteidigungslinie. Ein geschultes Bewusstsein für verdächtige Anfragen und ein konsequenter Umgang mit Sicherheitsrichtlinien reduzieren das Risiko erheblich.

KI-Compliance:

DAS MÜSSEN UNTERNEHMEN WISSEN

KI bietet große Chancen, bringt aber regulatorische Herausforderungen mit sich: EU AI Act, NIS-2 und DORA setzen hohe Standards für Compliance, Cybersicherheit und Resilienz. Die ISO 42001 hilft, KI-Projekte sicher und effizient umzusetzen /// von Felix Laumann

DER AMERIKANISCHE TECH-KONZERN

OPENAI zählt Deutschland zu den führenden Ländern bei der Nutzung von künstlicher Intelligenz. In der Praxis stehen deutsche Unternehmen bei der Nutzung von KI jedoch vor großen Compliance-Hürden: Die EU hat mit dem AI Act und weiteren Richtlinien und Verordnungen einen anspruchsvollen regulatorischen Rahmen geschaffen. Unternehmen – vor allem solche, die in kritischen Bereichen wie Finanz- oder Gesund-

gelten. So sind Unternehmen verpflichtet, Sicherheitsvorfälle innerhalb von 24 Stunden nach Kenntnisnahme an das BSI zu melden und ihre Mitarbeiter über Cyberrisiken aufzuklären. Der Digital Operational Resilience Act (DORA) ergänzt NIS-2 für die Finanzbranche, die noch strengere Anforderungen umsetzen muss.

Strenge Auflagen für den KI-Einsatz Neben den höheren Anforderungen an ihre Cybersicherheit müssen Un-

DER AUTOR

Felix Laumann

ist Director of Data Science bei Mimecast. Bild: Mimecast

heitswesen tätig sind – müssen eine Vielzahl von Vorschriften umsetzen, um Rechtssicherheit bei KI-Anwendungen zu erhalten.

Zahlreiche neue Regelwerke zur Cybersicherheit

Der EU AI Act stellt Unternehmen vor Herausforderungen, nachdem viele von ihnen im vergangenen Jahr bereits stark gefordert waren, ihre Cyberresilienz zu stärken. So erweiterte etwa die NIS-2-Richtlinie den Kreis der Unternehmen, die den kritischen Infrastrukturen zugerechnet werden und für die entsprechend strenge Auflagen im Bereich der IT-Sicherheit

ternehmen auch ihre KI-Anwendungen auf den Prüfstand stellen. Mit dem EU AI Act legt die Europäische Union den weltweit ersten umfassenden Rechtsrahmen für KI-Sicherheit vor. Er zielt darauf ab, einen sicheren, vertrauenswürdigen und ethischen Einsatz von KI-Technologien zu gewährleisten. Zu diesem Zweck nimmt er eine risikobasierte Klassifizierung von KI-Anwendungen vor und legt entsprechend dieser Einstufung unterschiedliche Anforderungen fest. Nicht nur, aber auch für die Umsetzung der zahlreichen regulatorischen Vorgaben ist ein strukturiertes Management von IT-Systemen im

Allgemeinen und KI-Anwendungen im Besonderen unerlässlich. Unternehmen müssen nicht nur die Einhaltung von Vorschriften gewährleisten, sondern auch aus Effizienzgründen klare Prozesse für die Entwicklung, den Betrieb und die Überwachung ihrer KI-Anwendungen etablieren. Einheitliche Standards helfen, beide Ziele zu erreichen.

Compliance herstellen

Ein solcher Standard ist die ISO 42001. Sie bietet Unternehmen und anderen Organisationen einen strukturierten Ansatz für das Management von KI-Systemen und stellt sicher, dass sie ethisch und vertrauenswürdig betrieben werden. Unternehmen können damit eine robuste KI-Governance etablieren und Risiken von KI-Anwendungen minimieren. ISO 42001 hat KI und den AI Act im Fokus, doch sie unterstützt auch Cybersicherheit und operationelle Resilienz und trägt so dazu bei, NIS-2 und DORA umzusetzen. Da Angriffe auf KI-Systeme zunehmend über Social Engineering und Manipulation von Nutzern erfolgen, gewinnt Human Risk Management an Bedeutung: Unternehmen müssen nicht nur technische Schutzmaßnahmen etablieren, sondern auch sicherstellen, dass Mitarbeiter über potenzielle Risiken und Angriffsmethoden aufgeklärt sind.

Ein strukturiertes KI-Management nach ISO 42001 stärkt Cybersicherheit und Compliance. Zertifizierte Rahmenwerke helfen Unternehmen, regulatorische Anforderungen effizient umzusetzen. •

Bild/Copyright: Rawpixel.com –stock.adobe.com

Gartner: KI-Agenten werden Konto-Schwachstellen bis 2027 doppelt so schnell ausnutzen

Laut einer Prognose des Marktforschungsunternehmens Gartner werden KI-Agenten bis 2027 die Zeit, die zur Ausnutzung von kompromittierten Konten benötigt wird, um 50 Prozent verkürzen. „Die Übernahme von Online-Konten (Account Takeover, ATO) bleibt eine ernsthafte Bedrohung, da schwache Authentifizierungsdaten wie Passwörter auf vielfältige Weise in die Hände von Angreifern gelangen – etwa durch Datenlecks, Phishing, Social Engineering oder Malware“, sagt Jeremy D’Hoinne, VP Analyst bei Gartner. „Hacker setzen Bots ein, um massenhaft Login-Versuche bei unterschiedlichen Diensten zu automatisieren – in der Hoffnung, dass dieselben Zugangsdaten mehrfach verwendet wurden.“ Mit KI-Agenten lassen sich künftig noch mehr Schritte dieses Angriffs automatisieren – von Social-Engineering-Manipulationen mit Deepfake-Stimmen bis hin zur vollständigen Übernahme von Nutzerkonten. Als Reaktion darauf werden

Anbieter neue Lösungen für Web-, App-, API- und Sprachkanäle entwickeln, um KI-gesteuerte Angriffe besser zu erkennen, zu überwachen und zu blockieren. •

Marketer-Kreativität und KI-Innovation bestimmen das Marketing der Zukunft

KI hält unvermindert Einzug in die verschiedensten Lebensund Arbeitsbereiche. Juniper Networks, ein führender Anbieter von sicheren KI-nativen Netzwerkplattformen, zeigt, wie Unternehmen mit KI gerade im Marketing gänzlich neue Chancen nutzen können. Im Marketing ist es Status quo, dass Fachleute ihre Kampagnen aufwendig manuell entwerfen und durchführen. Mit KI stehen jetzt aber die Werkzeuge zur Verfügung, um in großem Umfang datengesteuert und automatisiert zu arbeiten. In dieser neuen Ära bleibt der Marketer die kreative Kraft, während die KI die Rolle des Innovators spielt, indem sie Tools anbietet, die Präzision, Skalierbarkeit und Effizienz verbessern. KI kann Unternehmen damit helfen, die Kundenbindung zu verbessern und neue Marktchancen zu ergreifen. •

Bildungssektor nicht ausreichend auf Zunahme bei Cyber-Angriffen vorbereitet

KnowBe4, Plattform für Cybersicherheit, die sich umfassend mit Human Risk Management befasst, hat den Bericht ‚From Primary Schools to Universities, The Global Education Sector is Unprepared for Escalating Cyber Attacks‘ veröffentlicht. Laut mehreren Berichten wird der Bildungssektor im Jahr 2025 die am stärksten von Cyberangriffen betroffene Branche sein. Die Zahl der Cyber-Angriffe hat dort stark zugenommen. Der Bericht zeigt die erheblichen Auswirkungen von Sicherheitsschulungen auf die Verringerung des Human Risks in Bildungseinrichtungen. Nachdem sie ein Jahr oder länger an nachhaltigen Schulungen und Phishing-Simulationen teilgenommen hatten, sank die Anfälligkeit der Mitarbeiter in kleinen Bildungseinrichtungen für Phishing-Angriffe drastisch – von 33,4 Prozent auf 3,9 Prozent. •

Forterro und AWS vereinbaren neue strategische Partnerschaft zur Beschleunigung von Cloud-ERP-Transformationen

Der europäische Softwareanbieter Forterro hat eine langfristige strategische Partnerschaft mit Amazon Web Services (AWS) angekündigt, um seine Cloud-Lösungen auf AWS anzubieten.

Damit können Kunden die ERP-Lösungen von Forterro schnell einsetzen und gleichzeitig die Zuverlässigkeit,

Sicherheit und Skalierbarkeit von AWS nutzen. Die Partnerschaft steht im Einklang mit dem wachsenden Trend zur Cloud-Nutzung, insbesondere bei mittelständischen Industrieunternehmen, die von On-Premise-Lösungen auf die Cloud umsteigen. Forterro, das hauptsächlich diesen Sektor bedient, konnte seinen Cloud-Umsatz im Vergleich zum Vorjahr um 177 Prozent steigern. •

Mehr Chancen durch die Crowd

Als zeitgemäße, digitale Form der Finanzierung unternehmerischer Projekte ermöglicht Crowdinvesting das Sammeln von Fremdkapital auch außerhalb des Banken-Sektors über eine Online-Plattform oder eine eigene Emissionsseite. Doch wie lässt sich das rechtskonform, in Einklang mit dem Geldwäschegesetz und ohne Risiko umsetzen? Entscheidend sind fünf Faktoren. /// von Tim J. Sauer

ALS GRÖSSTE EUROPÄISCHE VOLKSWIRTSCHAFT MIT EINEM STARKEN MITTELSTAND bietet Deutschland ein attraktives Umfeld für Crowdfunding – insbesondere in den Bereichen Immobilien und nachhaltige Energie. Während in kleineren, wohlhabenden Ländern wie der Schweiz, den Niederlanden oder Dänemark Crowdinvesting bereits stärker etabliert ist, zeigen sich die Deutschen trotz vielversprechender Rahmenbedingungen weiterhin verhalten. Der Markt entwickelt sich nur langsam, was vor allem an regulatorischen Hürden und einem noch fehlenden breiten Vertrauen in diese alternative Finanzierungsform liegt. Mit dem richtigen Set-up lassen sich alternative Finanzierungsmodelle und damit neue Chancen gewinnbringend nutzen.

Crowdfunding oder auch Crowdinvesting: zwei wesentliche Modelle

Beim Reward-based Crowdfunding finanzieren Unterstützer ein Projekt oder Produkt und erhalten dafür eine nicht-monetäre Gegenleistung, wie beispielsweise eine exklusive Produktversion oder Vergünstigungen. Diese Form wird häufig für kreative, soziale oder technologische Projekte genutzt.

Anders verhält es sich beim Equity-based Crowdfunding (in Deutschland auch Crowdinvesting): Hier investieren Kapitalgeber in Unternehmen oder Projekte und erhalten im Gegenzug Anteile, Zinsen oder Gewinnbeteiligungen, indem sie sogenanntes Mezzanine-Kapital bereitstellen und damit die Lücke zwischen Eigenkapital und Bankkrediten schließen. Neben einer potenziell höheren Rendite birgt diese Anlageform jedoch auch ein erhöhtes Risiko, da Investoren am Erfolg aber auch Misserfolg des Unternehmens beteiligt sind. In Deutschland unterliegt Crowdinvesting strengen regulatorischen Vorgaben wie dem Vermögensanlagengesetz, das bestimmte Schutzmechanismen für Investoren sicherstellt.

Gleichzeitig eröffnet Crowdfunding neue Chancen, insbesondere für private Investoren, die Zugang zu Anlageklassen erhalten, die sonst institutionellen Anlegern vorbehalten sind. Gerade in Zeiten niedriger Bankzinsen suchen viele Anleger nach renditestärkeren Alternativen – hier kann diese Art des Investments eine wertvolle Ergänzung im Portfolio sein.

Zentrale Faktoren für ein erfolgreiches Crowdinvesting Erfolgreiche Crowdfunding-Projekte zeichnen sich durch eine strategische Herangehensweise aus, die sowohl Investoren als auch Unternehmen langfristige Vorteile bieten. Fünf zentrale Faktoren helfen dabei, die Weichen für eine erfolgreiche Abwicklung zu stellen und Crowdinvesting als gewinnbringendes Finanzierungsinstrument zu nutzen:

1. Das passende Finanzinstrument

Die Wahl des richtigen Modells ist essenziell. Unternehmen müssen genau prüfen, ob ein nachrangiges Darlehen, eine digitalisierte Inhaberschuldverschreibung oder ein klassisches Wertpapier die beste Lösung ist. Die richtige Wahl beeinflusst nicht nur die Attraktivität für Investoren, sondern auch die langfristige Finanzierungsstrategie eines Projekts.

2. Der richtige Partner

Erfolgreiches Crowdinvesting benötigt erfahrene Experten. Neben der richtigen Plattform sind Partner wie regulierte Haftungsdächer für Finanzdienstleister oder Spezialanbieter für digitale Wertpapieremissionen entscheidend. Diese unterstützen Unternehmen dabei, regulatorische Vorgaben einzuhalten und ermöglichen es, Finanzierungsmodelle strategisch zu optimieren. Wer mit etablierten Partnern zusammenarbeitet, profitiert von vorhandenen Schnittstellen im Investmentbereich sowie im Tech- und Legal-Set-up.

” Die regulatorische Landschaft für Crowdinvesting verändert sich –und einige Neuerungen könnten sich als Gamechanger erweisen.
(Tim J. Sauer)

3. Effiziente Zahlungsabwicklung

Wer Zinseinnahmen erzielt, muss die Kapitalertragsteuer korrekt abführen. In Deutschland beträgt sie 25 Prozent, dazu kommen der Solidaritätszuschlag und gegebenenfalls die Kirchensteuer. Die Steuerbeträge müssen genau berechnet und an das Finanzamt überwiesen werden. Spezialisten für Paymentlösungen wie die secupay AG übernehmen diese Aufgabe, indem sie die Steuer automatisch abführen und den Investoren entsprechende Steuerbescheinigungen ausstellen.

4. Vielfalt an Zahlungsmethoden

Ein reibungsloser Zahlungsprozess ist für die Conversion Rate entscheidend. Plattformen sollten daher eine breite Palette an Zahlungsmethoden anbieten, von Lastschrift und Kreditkarte bis hin zu Pay-by-Bank-Lösungen. Dies senkt die Einstiegshürden für Investoren und erhöht die Wahrscheinlichkeit erfolgreicher Finanzierungen.

DER AUTOR

Tim J. Sauer ist Channel Manager der Bereiche Crowdfunding und Financial Services bei der secupay AG

5. Synergien durch Netzwerke

Crowdinvesting-Plattformen, die auf bestehende Investoren- und Business Angel-Netzwerke zugreifen, können ihre Reichweite gezielt erweitern und Finanzprodukte effizient skalieren. Kooperationen mit Banken und FinTechs eröffnen zudem den Zugang zu bestehenden Kundenstämmen und Zahlungsinfrastrukturen.

Neue Spielregeln für Crowdfunding in Europa

Die regulatorische Landschaft für Crowdinvesting verändert sich – und einige Neuerungen könnten sich als Gamechanger erweisen: Die Markets in Crypto-Assets Regulation (MiCAR) der EU führt erstmals einen einheitlichen Regulierungsrahmen für digitale Vermögenswerte ein. Seit Dezember 2024 ist die Verordnung vollständig anwendbar und reguliert sämtliche Kryptowerte, die bisher nicht unter bestehende Finanzmarktgesetze fielen.

Ein weiterer Meilenstein für Crowdinvesting-Plattformen ist die European Crowdfunding Service Provider-Verordnung (ECSP-VO). Seit ihrer Einführung im Jahr 2021 schafft sie einen einheitlichen regulatorischen Rahmen innerhalb der EU und ermöglicht es Plattformen, grenzüberschreitend zu agieren.

Mit dem Gesetz über elektronische Wertpapiere (eWpG), das im Juni 2021 in Deutschland in Kraft getreten ist, wurde die Grundlage für eine moderne Wertpapieremission geschaffen. Das eWpG erlaubt die Ausgabe elektronischer Wertpapiere ohne physische Urkunde und reduziert so bürokratische Hürden.

Aufbruch in die digitale Investmentwelt Crowdfunding ist in Deutschland nach wie vor ein Nischenphänomen. Doch Regulierung und Digitalisierung verändern den Crowdfunding-Markt grundlegend. Unternehmen profitieren von effizienterer Kapitalbeschaffung, Investoren von mehr Flexibilität – einfachere Abläufe und eine wachsende Akzeptanz digitaler Finanzprodukte treiben die Entwicklung weiter voran und eröffnen neue Chancen für alternative Finanzierungsmodelle. •

Diese Start-ups befeuern die Digitalisierung

Damit Unternehmen die Digitalisierung vorantreiben können, benötigen sie smarte Lösungen. Hier kommen innovative Start-ups mit neuen Technologien und Geschäftsmodellen ins Spiel. /// von Konstantin Pfliegl

CHANCE STATT HINDERNIS.

Auch wenn sich viele Unternehmen mit dem Thema Digitalisierung noch etwas schwer tun, haben die meisten Unternehmenslenker und Entscheider verstanden, dass die digitale Transformation keine Option mehr ist, sondern eine Pflicht, wenn sie langfristig konkurrenzfähig bleiben wollen.

Und hier kommen Start-ups ins Spiel. Die jungen Unternehmen haben innovative Geschäftsideen und konzentrieren sich häufig auf technologieorientierte Produkte und Dienstleistungen – Tools, die angestammte Unternehmen bei der Umsetzung von Digitalisierungsmaßnamen unterstützen.

DIGITAL BUSINESS stellt vier spannende Start-ups aus dem DACH-Raum vor. Sie bieten Tools für Compliance, KISEO, Business Intelligence und Logistik.

komplex ist. Die Certivity-Software ermöglicht es, dass aktuelle gesetzliche Vorschriften an der richtigen Stelle in den Engineering-Prozess integriert werden, und gleichzeitig sichergestellt wird, dass die regelmäßigen Aktualisierungen der jeweiligen Vorschriften berücksichtigt werden.

Das Start-up wurde im Jahr 2021 von Nico Wägerle (CEO), Bogdan Bereczki (CPO), Jörg Ulmer (CTO) und Sami Vaaraenmi (CSO) gegründet. Es ist seitdem auf 50 Mitarbeiter aus 18 Ländern gewachsen.

Die erste Version der Software wurde im Jahr 2022 gelauncht. In diesem Jahr gewann Certivity auch seinen ersten Kunden und wurde in den Xpreneurs-Inkubator der UnternehmerTUM und dem Legal Tech Colab aufgenommen.

Im vergangenen Jahr wurde Certivity durch das appliedAI Institute for Europe als eines der 27 vielversprechendsten KI-Start-ups Deutschlands ausgezeichnet. Im selben Jahr erhielt es den Preis „Digitales Start-up des Jahres 2024“ des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK).

CERTIVITY: Compliance-Unterstützung

DAS MÜNCHNER JUNGUNTERNEHMEN CERTIVITY unterstützt Ingenieure mit einer KI-gestützten Software-Lösung bei der Einhaltung regulatorischer Produkt-Compliance-Prozesse. Die Software analysiert und strukturiert relevante Vorschriften, interne Normen und Standards oder auch Spezifikationen und identifiziert automatisch die geltenden Anforderungen für ein Produkt. Änderungen in den Vorschriften werden in Echtzeit überwacht und direkt in bestehende Compliance-Prozesse integriert.

Durch die nahtlose Anbindung an Engineering-Tools wie Doors, Polarion, Codebeamer und Jira soll der manuelle Aufwand erheblich reduziert werden. Certivity hat das Ziel, mit seiner Lösung Unternehmen Zeit und Kosten zu sparen, sie sollen Fehler zu vermeiden und regulatorische Anforderungen effizient einhalten.

Certivity löst also das Problem, dass die Berücksichtigung von Vorschriften in der Produktentwicklung sehr

Die Gründer des Start-ups haben noch viel vor. Der nächste Schritt ist der erfolgreiche Abschluss der nächsten Finanzierungsrunde in diesem Jahr. Mit diesem Kapital sollen gezielt in die Erweiterung der Software und die Weiterentwicklung der proprietären Künstlichen Intelligenz investiert und der Markt erweitert werden.

„Langfristig verfolgt Certivity die Vision, den Engineering Intelligence Layer zu schaffen – eine KI-gestützte Plattform, die technisches Wissen aus regulatorischen und engineering-relevanten Dokumenten strukturiert, intelligent verknüpft und gezielt nutzbar macht“, erklärt Certivity-Mitgründer und CEO Nico Wägerle. Aktuell basiere die Produktentwicklung noch weitgehend auf manueller Informationsverarbeitung, insbesondere bei internen Normen, Standards, Vorschriften und Spezifikationen. „Diese Dokumente enthalten das zentrale Wissen für die Entwicklung neuer Produkte, doch ihre fragmentierte und unstrukturierte Form erschwert den Zugriff und die effiziente Nutzung.“ Mit der eigenen Technologie wolle man diesen Prozess radikal vereinfachen, automatisieren und Ingenieuren eine intelligente, KI-gestützte Lösung bieten, die technisches Wissen jederzeit strukturiert und kontextbezogen verfügbar macht. •

LOGISTIKBUDE:

Management von Mehrweg-Assets

Die im Jahr 2021 aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund ausgegründete Logistikbude automatisiert das Management von Mehrweg-Assets wie Paletten, Behältern und Gestellen. Mit einer Software-as-a-Service-Lösung bietet das Unternehmen Echtzeit-Transparenz über Bestände, Bedarfe und Umlaufzeiten. Prozesse im Bereich Ladungsträger wie die Verbuchung von Bewegungen oder die Abstimmung mit Tauschpartnern sollen automatisiert werden.

OTTERLY.AI:

SEO-Analyse für künstliche Intelligenz

• Der Suchmaschinenmarkt ist massiv im Umbruch –und Suchriesen wie Google bekommen Konkurrenz von ChatGPT und Konsorten. Das Problem: Alle Produkte sind Blackboxen. Unternehmen haben keinen Überblick darüber, wie sichtbar ihre Marken und Produkte in der KI sind. Hier setzt Otterly.AI an. Es handelt sich um eine Analyse- und Monitoring-Lösung für KI-Suchen und LLMs (Large Language Models). Es ist also wie ein SEO-Analyse-Tool für moderne KI-Suchmaschinen.

Otterly.AI wurde erst im Jahr 2024 gegründet. Doch das Team hat bereits ein marktreifes Produkt und die ersten 2.000 Kunden gewonnen. Zudem ist Otterly.AI seit dieses Jahres SEMrush-Partner, einer der großen Anbieter im SEO-Markt. Als logischer nächster Schritt zur Analyse und Messung von der Sichtbarkeit eines Unternehmens in Künstlicher Intelligenz beziehungsweise in LLMs steht laut dem Team des Start-ups die Unterstützung bei der Optimierung. „Es gibt schon viele Agenturen, die Dienstleistungen anbieten, und wir wollen die richtigen Werkzeuge zum Optimieren anbieten“, so das Otterly.AI-Team. Generative Engines Optimization (GEO) sei das neue Search Engine Optimization (SEO). •

Otterly.AI:

Mit dem Tool behalten Unternehmen den Überblick über die Sichtbarkeit ihrer Marken und Produkten in künstlicher Intelligenz wie ChatGPT & Co.

Bild: Otterly.AI

Bereits wenige Monate nach der Gründung unterschrieb der erste Kunde und nutzt die Software täglich zum Mehrweg-Management. Im November vergangenes Jahr setzten bereits 25 Kunden auf das SaaS-Tool der Logistikbude. Auch die Nagel-Group gehört dazu und optimiert mit der Software der Logistikbude ihr Mehrweg-Management an allen Unternehmensstandorten. Die Logistikbude wurde als „Digitales Start-up des Jahres 2024“ des Bundesministeriums für Wirtschaft und Klimaschutz ausgezeichnet.•

ARC INTELLIGENCE:

Business Intelligence für den Mittelstand

• Ebenfalls im vergangenen Jahr gegründet wurde ARC Intelligence aus Berlin. Bei ARC handelt es sich um eine End-to-End-BI-Software (Business Intelligence), die den Mittelstand dabei unterstützt, Rohdaten in wertvolle Informationen zu verwandeln und datenbasierte Entscheidungen zu optimieren.

„Die Software deckt den gesamten Prozess von der Datenintegration über die Analyse bis hin zu präzisen Insights ab“, erklärt CEO Clemens Wessendorff. Dabei automatisiert ARC kritische Prozesse wie das Reporting und die Erstellung von Dashboards, sodass Unternehmen ohne teure Daten-Teams oder komplizierte Software-Stacks vollständige Transparenz und Kontrolle über ihre Daten erhalten. Die KI-basierten Plattform lässts ich dabei nahtlos auf bestehende IT-Landschaften aufsetzen. Sie sorgt laut ARC Intelligence für messbare Effizienzsteigerungen bei Kunden.

ARC Intelligence kann bereits einige Meilensteine vorweisen. So gab es den erfolgreichen Abschluss einer ersten Finanzierungsrunde in Höhe von 1 Millionen Euro, angeführt von 468 Capital. Und es gibt bereits erste namhafte Kunden in den Bereichen Produktion, Controlling und Finanzmanagement. •

ARC Intelligence:

Das Start-up bietet eine Business-Intelligence-Tool, das den Mittelstand dabei unterstützt, Rohdaten in wertvolle Informationen zu verwandeln.

Bild: ARC Intelligence

Überleben im Umbruch

Der Druck wächst: Hohe Arbeitskosten, steigende Energiepreise, große Bürokratielasten sowie eine komplexe Steuerlandschaft stellen die deutsche Industrie vor erhebliche Herausforderungen. Doch mit dem richtigen Mindset und vor allem einem zeitgemäßen Führungsverständnis werden aus Getriebenen wieder Treiber der Veränderung. /// von Andreas Blaut

VERÄNDERUNGEN GEHÖREN ZUM UNTERNEHMENSLEBEN DAZU. Auch unser Unternehmen, die EPS GmbH, hat keinen gradlinigen Verlauf genommen, stand in mancher Phase nah am Abgrund und hat dann doch wieder den Weg zurück zu neuen Erfolgspfaden gefunden. Die Wurzeln der Firma reichen zurück zum ehemaligen Philips-Werk in Siegen. Als Philips den Standort aufgab, wurde EPS zunächst Teil des Unternehmens PSI, das Industriedrucker herstellte. Doch bereits 2002 wurde die EPS GmbH ausgegliedert Infolge der Finanz- und Wirtschaftskrise und einem tiefen Fall wurde das Unternehmen von der Stemas AG übernommen.

DER AUTOR

Andreas Blaut ist Geschäftsführer der EPS GmbH.

nichts vor: Auch mit der neuen politischen Mehrheit in Berlin nach dem 23. Februar ist die Welt keine grundsätzlich andere und keine bessere.

Viele mittelständische Industrieunternehmen sind durch globale Wettbewerbsbedingungen gezwungen, ihre Geschäftsstrategien und Prozesse zu überdenken. Die alten Konzepte, die alten Prozesse und auch Produkte – sie sind keine Antwort mehr auf die Marktanforderungen von heute und schon gar nicht von morgen. Vor allem die digitale Transformation durchpflügt derzeit eine klassische Branche nach der nächsten.

” Führungskräfte mit charismatischer Ausstrahlung leben die Werte und Standards vor, die sie von ihren Mitarbeitenden erwarten. ( Andreas Blaut)

Seitdem agiert EPS als eigenständiges Unternehmen innerhalb einer größeren Elektronikgruppe, zu der auch Elprog, Frank, Eker und Pressfinish gehören. Zusammen mit dem Team ist es gelungen, das Unternehmen binnen weniger Jahre bis heute von Grund auf zu verändern und einen neuen unternehmerischen Startup-Geist einkehren zu lassen. Möglich war das durch ein rundum verändertes Mindset und eine radikal andere Form der Führung: die transaktionale Führung. Dazu später gleich noch mehr.

Tiefe Krisenerfahrung als Motivation, es künftig anders zu machen

Diese Zeit hat uns wertvolle Lektionen gelehrt, aus denen wir – wie viele andere mittelständische Unternehmen –Kraft und Zuversicht für die weit größeren Herausforderungen unserer Zeit schöpfen sollten. Machen wir uns

Der Schlüssel zur Zukunft liegt in einem zeitgemäßen Verständnis von Führung

Die wichtigste Stellschraube dabei übersehen und vernachlässigen viele Unternehmen jedoch: die eigenen Mitarbeitenden. Sie sind die wichtigste Ressource und entscheidend dafür, ob ein Unternehmen als Sieger oder Verlierer besonders aus der digitalen Transformation hervorgeht. Doch eine stärkere Mitarbeiterbindung erreicht man nicht über Nacht – und vor allem nicht mit einem „Weiter so“ in der Führung. Die neuen Zeiten und die digitale Transformation erfordern eine rundum veränderte und inspirierende Führungskultur. Im wahrsten Wortsinn geht es darum, aus ehemaligen Beschäftigten, die nur Aufträge ausführen, Mitarbeitende an der Veränderung zu machen. Letztlich müssen auch etablierte mittelständische Unternehmen ihr Start-up-Gen wieder freilegen,

zu Inkubatoren neuer Ideen werden. 2021 habe ich die transformationale Führung bei EPS eingeführt. Wir standen damals gleich von mehreren Seiten unter Druck –und mussten unsere Art, zu arbeiten und zu führen, verändern. Das Krankheitsrisiko war sehr hoch durch Corona. Gleichzeitig war es schwer, Bauteile zu beschaffen, weil bisherige Lieferketten auseinandergerissen waren. Daher gab es für mich nur die einzige Möglichkeit, die Kompetenzen und Ideen der Mitarbeiter maximal zu nutzen, Vertrauen zu investieren und Freiräume zu geben. Sonst hätte es insbesondere in dieser Situation nicht funktioniert. Der transformationale Führungsstil hebt sich durch seine Fähigkeit hervor, nicht nur das Verhalten, sondern auch die Einstellungen der Mitarbeitenden zu transformieren. Im Gegensatz zum transaktionalen Führungsstil, der auf einem Austausch von Belohnung gegen Leistung basiert, setzt die transformationale Führung auf die Förderung von Mitarbeitenden, intellektuelle Stimulation und das Vorleben moralischer Werte. Dies inspiriert die Mitarbeitenden, ihrer Arbeit einen neuen Sinn zu geben und persönliche Interessen zugunsten höherer Ziele zurückzustellen.

Die transformationale Führung bietet die folgenden vier Vorzüge:

1. VORBILDFUNKTION:

Führungskräfte mit charismatischer Ausstrahlung leben die Werte und Standards vor, die sie von ihren Mitarbeitenden erwarten. Diese Vorbildfunktion stärkt die ethische und leistungsbezogene Ausrichtung der Mitarbeitenden, da sie unbewusst durch Beobachtung und Lernen am Modell beeinflusst werden.

2. INSPIRATION DURCH VISION:

Transformationale Führungskräfte vermitteln eine klare und attraktive Vision. Diese Vision gibt den Mitarbeitenden ein starkes Zielbewusstsein und motiviert sie, indem sie ihre Aufgaben in einen größeren Zusammenhang einbetten.

3. FÖRDERUNG VON EIGENVERANTWORTUNG:

Diese Führungsform regt zur geistigen Auseinandersetzung an, indem sie Diskussionen über Werte und Erwartungen fördert. Führungskräfte agieren als Problemlöser und ermutigen Mitarbeitende, den Status quo zu hinterfragen und Veränderungsprozesse aktiv mitzugestalten. Dies stärkt die Identifikation der Mitarbeitenden mit Unternehmensstrategien und fördert ihre Selbstständigkeit.

4. INDIVIDUELLE UNTERSTÜTZUNG:

Führungskräfte fungieren als Coaches und fördern die persönliche Entwicklung der Mitarbeitenden, indem sie auf individuelle Bedürfnisse und Entwicklungspotenziale eingehen. Dies berücksichtigt unterschiedliche Anforderungen in Bezug auf Arbeitsinhalte, Autonomie und Verantwortungsbereiche.

Trotz der Vorteile gibt es einige Herausforderungen bei der Implementierung transformationaler Führung, insbesondere in Unternehmen mit einer stark transaktionalen Kultur. Geduld und ein schrittweiser Ansatz sind wichtig, ebenso wie die Vermeidung von Narzissmus bei Führungskräften. Um den Wandel zu unterstützen, sind Feedback-Instrumente, Monitoring-Systeme und Entwicklungsmaßnahmen hilfreich. Führungskräfte sollten sich als „transformationale Zelle“ verstehen und mit gutem Beispiel vorangehen, um den Einfluss in ihrem direkten Umfeld zu maximieren.

Partnerschaftlichkeit, Professionalität und Flexibilität sind die zentralen Werte unseres Unternehmens. Durch eine grundlegend veränderte Unternehmens- und Führungskultur ist es gelungen, auch in anderen mittelständischen Unternehmen die Neugierde, die Bindung und das Engagement in der Belegschaft neu zu entfachen.

Der Schlüssel dazu liegt nicht irgendwo extern, am Markt, beim Staat, bei den Steuern, sondern in den Firmen selbst. •

Ihr Premium IT-Dienstleister für zukunftssichere Cloud-Lösungen

• Maximale Sicherheit und Vertrauen: Hochsichere, zertifizierte Rechenzentren in Deutschland

• Flexibilität nach Maß: Private, Public oder Hybrid-Cloud –individuell anpassbar und hochverfügbar

• Passgenaue Lösungen: Vielfältige Cloud-Services für Ihre individuellen Anforderungen

• Sicher und rechtskonform: Expertenwissen für Governance, Compliance und Datenschutz

• Klarheit bei den Kosten: Transparente Kostenstruktur –keine versteckten Gebühren

Vorreiter eines globalen Wandels

Die Automatisierung von Containerterminals ist nicht länger eine Vision, sondern Realität. Autonome Zugmaschinen setzen neue Maßstäbe in Effizienz und Sicherheit. Die Automatisierung markiert auch den Beginn eines umfassenden Wandels in der gesamten Logistikbranche und formt neue Jobprofile bei der Zusammenarbeit von Mensch und Maschine. /// von Hendrik Kramer

Die Rolle der Automatisierung in der Logistik

Die Logistikbranche steht an einem Wendepunkt. Weltweit steigen die Anforderungen an Effizienz, Nachhaltigkeit und Skalierbarkeit, während gleichzeitig der Fachkräftemangel zunimmt. Containerterminals haben sich als Vorreiter etabliert, indem sie schrittweise Automatisierungslösungen einführen, die neue Maßstäbe setzen. Die Erfahrungen aus diesen Projekten sind für die gesamte Branche relevant. Als der Anbieter einer Automatisierungslösung für Containertransport fokussiert sich Fernride aktuell auf die Zusammenarbeit mit Containerterminals. Richtungsweisend ist unsere direkte Erfahrung aus dem Realbetrieb mit autonomen Zugmaschinen. Unser Branchenbericht zeigt: Der Anteil moderat automatisierter Terminals ist seit 2023 von 34 Prozent auf 53,5 Prozent gestiegen. Da Containerterminals zunehmend unter dem Druck stehen, ihre Prozesse zu optimieren und effizienter zu gestalten, während sie gleichzeitig mit Arbeitskräftemangel und steigenden Anforderungen an schnelleren und sichereren Containertransport konfrontiert sind, übernehmen sie eine Vorreiterrolle in der Einführung innovativer Lösungen, insbesondere in der Automatisierung. Als Anbieter einer innovativen Lösung haben wir eine steile Lernkurve, und dies sind die Erkenntnisse aus unseren Projekten mit unseren „Early-Adopter”-Kunden.

Automatisierung:

Mehr als nur Effizienzsteigerung

1. Produktivität und Durchsatz maximieren: Das Potenzial ist sehr groß, den Containerumschlag zu optimieren und Wartezeiten erheblich zu reduzieren.

DER AUTOR

Hendrik Kramer ist CEO von Fernride. Er wurde 2024 von der Logistics Hall of Fame zum „Logistics Leader of the Year” gewählt.

2. Zuverlässigkeit und Sicherheit: Dank „Human-Assisted Autonomy“ bleibt der Mensch in den Prozess integriert, um reibungslose Abläufe sicherzustellen.

3. Flexible und kostengünstige Einführung: Unsere autonomen Zugmaschinen nutzen bestehende Infrastrukturen und benötigen keine speziellen Fahrwege und lassen sich in gemischte Verkehrsbereiche einbinden.

4. Automatisierung bedeutet nicht Jobverlust, sondern Wandel: Die Automatisierung bietet neue Möglichkeiten zur Weiterbildung und zur Schaffung neuer Arbeitsplätze. Neue Berufe entstehen, wie „Fleet Supervisor“, die autonome Fahrzeuge überwachen und optimieren. In Zeiten des Fachkräftemangels bietet Automatisierung eine nachhaltige Lösung für die gesamte Logistikbranche.

Herausforderungen für die Branche –und wie wir sie lösen können

Trotz aller Vorteile stehen die Betreiber der Containerterminals vor Herausforderungen. Die Integration neuer Technologien in bestehende Systeme stellt für 62 Prozent der Terminalbetreiber eine Hürde dar. Auch die hohen Investitionskosten bremsen die Umsetzung, da 46 Prozent der Unternehmen aufgrund der anfänglichen finanziellen Belastung zögern. Zudem gibt es Widerstände innerhalb der Belegschaft: 43 Prozent der Terminals berichten von Herausforderungen bei der Akzeptanz der Mitarbeitenden. Mit zunehmender Digitalisierung steigt das Risiko von Cyberangriffen, was die Notwendigkeit robuster Sicherheitslösungen weiter erhöht. Um diese Herausforderungen zu bewältigen, empfiehlt sich eine schrittweise Integration der Automatisierung, um Risiken zu minimieren und die Akzeptanz zu fördern. Der Ausbau digitaler Infrastrukturen und Integration mit Terminalbetreibersystemen steigert die Effizienz. Gleichzeitig ist es entscheidend, Mitarbeiter frühzeitig in den Prozess einzubinden und durch Schulungen sowie transparente Kommunikation für Akzeptanz zu sorgen. Schließlich kann eine enge Zusammenarbeit innerhalb der Branche, gepaart mit gemeinsamen Standards und klaren regulatorischen Rahmenbedingungen, die Einführung neuer Technologien erleichtern und beschleunigen.

MEHR ERFAHREN

Hier geht es zum Podcast mit Hendrik Kramer.

Fernride arbeitet eng mit der Hamburger Hafen und Logistik AG (HHLA) zusammen, um im Hamburger Hafen das autonome Fahren voranzutreiben. Im Fokus steht die Entwicklung und Integration autonomer Zugmaschinen, die den Containertransport zwischen Kaikante und Lager übernehmen. Diese Fahrzeuge werden mit fortschrittlicher Sensorik und Kameras ausgestattet und nutzen die "human-assisted autonomy"Technologie, die eine Fernsteuerung durch Teleoperatoren ermöglicht.

Schrittweise Automatisierung: Containerterminals setzen auf technologische Weiterentwicklung

Die Mehrheit der Containerterminalbetreiber plant oder initiiert Automatisierung, bevorzugt jedoch einen schrittweisen Ansatz statt vollständiger Automatisierung. Unser Branchenbericht deckt diese Trends auf. Rund 36 Prozent setzen auf Teilautomatisierung, um neue Technologien

Best-Practice-Vorgehen der Containerterminalbetreiber Containerterminalbetreiber setzen auf eine schrittweise Automatisierung, um Effizienzsteigerungen gezielt umzusetzen. Der Fokus liegt auf hochwirksamen Bereichen wie automatisierten Kränen und Zugmaschinen, während notwendige Infrastrukturprüfungen frühzeitig

” Automatisierung bedeutet nicht Jobverlust, sondern Wandel: Die Automatisierung bietet neue Möglichkeiten zur Weiterbildung und Schaffung neuer Arbeitsplätze. Neue Berufe entstehen, wie „Fleet Supervisor“, die autonome Fahrzeuge überwachen und optimieren. (Hendrik Kramer)

phasenweise zu integrieren und Kosten sowie Risiken zu steuern. Ein weiteres Drittel, etwa 32 Prozent, befinden sich noch in der Evaluierungsphase und prüfen Technologien auf Wirtschaftlichkeit und Zukunftssicherheit. Bereits 15 Prozent treiben die Automatisierung aktiv voran, während 12 Prozent eine vollständige Automatisierung anstreben, trotz hoher Investitions- und Implementierungshürden. Nur 5 Prozent haben keine Pläne, Automatisierungslösungen zu integrieren.

Zukünftige Automatisierungsschwerpunkte sind fortschrittliche Kranautomatisierung, IoT- und Sensorintegration sowie KI-gestützte Entscheidungsfindung und Digital-Twin-Technologie. Zugmaschinen werden als praktikable Lösung zur Effizienzsteigerung ohne größere Infrastrukturänderungen gesehen. Die Branche betrachtet Automatisierung als einen fortlaufenden Prozess, der kontinuierliche Upgrades und Optimierungen erfordert, um langfristig wettbewerbsfähig zu bleiben.

erfolgen. Investitionen werden in Phasen aufgeteilt, um finanzielle Belastungen zu minimieren, und modulare, skalierbare Technologien ermöglichen eine flexible Integration. Wie schon vorher angedeutet, sind Schulungen essenziell, um Mitarbeitende optimal auf neue Technologien vorzubereiten und die Akzeptanz zu erhöhen.

Containerterminals als Blaupause für die gesamte Logistik Was wir aus der Automatisierung von Containerterminals lernen, lässt sich auf viele Bereiche der Logistik übertragen. Unternehmen, die sich jetzt mit Automatisierung auseinandersetzen, sichern sich einen entscheidenden Vorteil.

Die Frage ist nicht mehr, ob Automatisierung kommt, sondern wie wir sie am besten nutzen. Die Logistikbranche hat die Chance, diese Transformation aktiv zu gestalten: für mehr Effizienz, Nachhaltigkeit und Wettbewerbsfähigkeit. Die Zukunft der Logistik beginnt jetzt. •

Weniger Aufwand, mehr Impact

IT und Nachhaltigkeit wachsen zusammen: KI-Lösungen unterstützen Unternehmen zunehmend dabei, komplexe Reportingpflichten wie die CSRD effizient zu bewältigen. Durch automatisierte Wesentlichkeitsanalysen gewinnen Nachhaltigkeitsverantwortliche Zeit für strategische Maßnahmen und schaffen echten Impact – ohne sich im Verwaltungsaufwand zu verlieren. /// von Andreas Maslo

RUND 15.000 UNTERNEHMEN IN DEUTSCHLAND sind nach der aktuell geltenden CSRD verpflichtet, detailliert über ihre ökologischen und sozialen Auswirkungen zu berichten. Viele mittelständische Firmen stehen unter Druck, diesen Anforderungen und über 100 ESG-bezogenen Regelungen in Europa gerecht zu werden.

Die doppelte Wesentlichkeit im Fokus

Kern der CSRD – ebenso wie jeder Nachhaltigkeitsstrategie – ist die doppelte Wesentlichkeit. Unternehmen müssen dabei nicht nur die Auswirkungen ihres Handelns auf Umwelt und Gesellschaft (Impact) analysieren, sondern auch bewerten,

wie Nachhaltigkeitsaspekte die eigene wirtschaftliche Lage beeinflussen könnten (finanzielle Wesentlichkeit). Diese Analyse ist für viele Unternehmen Neuland und erfordert umfassendes Fachwissen, ein stabiles Datenfundament sowie ein tiefes Verständnis der eigenen Wertschöpfungskette, der Branche und deren Stakeholdern.

Künstliche Intelligenz als Gamechanger   KI-gestützte Softwarelösungen übernehmen auch hier Aufgaben, die bisher aufwändig manuell oder durch externe Beratungen erledigt wurden. Mithilfe automatisierter Wesentlichkeitsanalysen und umfassender Benchmarkdaten können Unternehmen nun in kürzester Zeit relevante Erkenntnisse gewinnen. User:innen werden durch die verschiedenen Phasen des Assessments geführt: Welche Themen können für das Unternehmen besonders relevant sein? Wo liegen Chancen und Risiken? Unternehmen erhalten in wenigen Minuten Antworten auf diese zentralen Fragen.

Die Software analysiert dabei sowohl aus der Inside-Out-Perspektive (wie beeinflusst das Unternehmen seine Umwelt und die Gesellschaft?) als auch aus der Outside-In-Perspektive (welchen Einfluss haben externe umwelt- oder gesellschaftsbezogene Einflüsse auf das Unternehmen?).

DER AUTOR

Andreas Maslo ist Co-Gründer der VERSO GmbH.

Dies ermöglicht ein ganzheitliches Bild für Berichterstattung und strategische Entscheidungen.

Zeit für das Wesentliche

Durch die Automatisierung der Berichtspflichten können Nachhaltigkeitsverantwortliche sich wieder auf ihre Kernaufgaben konzentrieren: Nachhaltigkeitsstrategien entwickeln, wirksame Maßnahmen umsetzen und echten Impact erzielen.

Indem sie den Aufwand für bürokratische Aspekte verschlankt, ermöglicht KI Freiraum für die Umsetzung von Maßnahmen, Innovationen, Stakeholder-Dialog und echter Transformation. Als führender deutscher Anbieter von Nachhaltigkeitsmanagement-Software und ESG-Pionier sehen wir KI als zentrale Zukunftstechnologie für mehr Nachhaltigkeit im Mittelstand. Sie bietet die Chance, komplexe Anforderungen zu bewältigen und dabei wertvolle Ressourcen zu schonen. Die digitale und nachhaltige Transformation im deutschen Mittelstand ist eine „Twin Transformation”.

Die Zukunft ist jetzt

Der Einsatz von KI im Nachhaltigkeitsmanagement und -reporting ist kein Zukunftsszenario mehr. Unternehmen, die früh auf diese Technologien setzen, sichern sich nicht nur Vorteile in der Berichterstattung, sondern auch eine strategische Grundlage für die nachhaltige Transformation und daraus entstehende Wettbewerbsvorteile. Nachhaltigkeit ist. zum Business-Imperativ geworden. •

Datenschutzland Deutschland: Innovationshemmer oder Vorbild?

Während die EU mit dem European Health Data Space (EHDS) Innovationen fördert, setzt Deutschland auf eine restriktive Strategie. Die Hürden für Cloud-Nutzung, Drittland-Transfers und neue Technologien sind höher als in vielen anderen EU-Ländern. /// von Melanie Ludolph

WER DEN EINDRUCK HAT, DASS DIE

DSGVO VOR ALLEM den Umgang mit Gesundheitsdaten stark reguliert, dürfte staunen, wenn man sich die Vorgaben nach deutschem Recht ansieht – denn diese sind nicht nur noch restriktiver, sondern auch komplexer.

Nahezu jedes Gesetz mit Bezug zu Gesundheitsdaten enthält eigene Datenschutzregeln. Schaut man auf Bundesebene gilt etwa für Cloud-Dienste seit kurzem die Vorgabe, eine C5-Zertifizierung oder gleichwertige Sicherheitsstandards nachweisen zu müssen (§ 393 SGB V). Auch digitale Gesundheitsanwendungen (DiGA) unterliegen strengen Hosting-Vorgaben: Gesundheitsdaten dürfen nur innerhalb der EU/EWR gespeichert werden, Drittlandtrans-

Datenübermittlungen in Drittländer etwa durch Standardvertragsklauseln ermöglicht, ist der Spielraum für deutsche Unternehmen deutlich kleiner.

Deutschland vs. Europa:

Wo bleibt die Digitalisierung?

Während Deutschland auf Datenschutz setzt, fördern andere Länder digitale Innovationen: Frankreich und die Niederlande haben nationale Gesund-

Cyberangriffen und KI-Fehlentscheidungen bieten hohe Sicherheitsanforderungen Schutz für Unternehmen und Patienten. Diese Sicherheitsgarantien haben ihren Preis. Strikte Hosting-Vorgaben und Zertifizierungen treiben die Kosten für Unternehmen erheblich in die Höhe. Besonders für Start-ups mit innovativen Ideen stellen diese Anforderungen eine erhebliche Hürde

DIE AUTORIN

Melanie Ludolph ist Rechtsanwältin bei der europäischen Wirtschaftskanzlei Fieldfisher. Seit fast zehn Jahren berät sie Unternehmen und internationale Konzerne aus verschiedenen Branchen zu allen Aspekten des Datenschutzrechts sowie angrenzenden Rechtsgebieten. Bild: Fieldfisher

” Strikte Hosting-Vorgaben und Zertifizierungen treiben die Kosten für Unternehmen erheblich in die Höhe. (Melanie Ludolph)

fers sind nur bei Vorliegen eines Angemessenheitsbeschlusses erlaubt. Hinzu kommt die föderale Ebene: Berliner Krankenhäuser müssen sich etwa an § 24 Landeskrankenhausgesetz halten, wonach Gesundheitsdaten grundsätzlich nur innerhalb des Krankenhauses oder in Kooperation mit anderen Krankenhäusern verarbeitet werden dürfen. Drittlandtransfers sind nur unter strengen Bedingungen erlaubt, externe Dienstleister müssen der Senatsverwaltung gemeldet werden. Während die DSGVO

heitsdatenräume für Forschung geschaffen. Dänemark nutzt KI-gestützte Diagnose-Tools in der öffentlichen Gesundheitsversorgung. Deutschland diskutiert weiterhin über rechtliche Rahmenbedingungen für digitale Patientenakten und Telemedizin.

Maximale Sicherheit –aber zu welchem Preis?

Manche argumentieren, dass Deutschlands hohe Datenschutzstandards langfristig ein Vorteil sein könnten. In Zeiten von Datenlecks,

dar. Während große Unternehmen die finanziellen und organisatorischen Mittel haben, sich an die Regeln anzupassen, kämpfen junge Firmen mit den hohen Kosten für Infrastruktur, Zertifizierungen und Datenschutz-Compliance. Deutschland setzt damit weiterhin auf Sicherheit statt Skalierbarkeit. Die Herausforderung wird sein, eine Balance zwischen Datenschutz, Sicherheit und wirtschaftlicher Innovationskraft zu finden, um den Anschluss an die digitale Zukunft nicht zu verlieren. •

Sprachtalent fürs Online-Banking

Servicethemen lassen sich bei der Sparkasse Rhein Neckar Nord nicht nur in den Filialen klären. Seit kurzem erhalten Kunden mit Fragen zum Online-Banking auch Unterstützung von EVA, einem innovativen Videoavatar. EVA ist nicht nur permanent verfügbar, sondern auch ein echtes Sprachtalent – sieben Sprachen beherrscht sie fließend. /// von Robert Fischer

DIE SPARKASSE RHEIN NECKAR NORD ist mit mehr als 700 Angestellten in der Metropolregion Rhein-Neckar mit 29 Filialen und 20 Selbstbedienungs-Standorten vertreten. Und ihre Kunden werden immer digitaler. Ein Grund für die Verantwortlichen ihre Digitalisierungsstrategie auszubauen: Seit kurzem bietet die Bank ihren Kunden mit EVA eine digitale, interaktive Videoberatungsassistentin an, die mit Service-Angeboten rund um das Online-Banking punktet.

Bessere Erreichbarkeit

Der Bankenmarkt befindet sich im Wandel. Online und Mobile Banking-Trends verändern das Konsumentenverhalten ebenso wie die voranschreitende Digitalisierung der Gesellschaft. „Kunden wollen Bankgeschäfte nicht von Filialöffnungszeiten abhängig machen“, weiß Bernd Schindler, verantwortlich für den Bereich Medialer Vertrieb der Sparkasse Rhein Neckar Nord. Die Bank hat dies erkannt und so ihre klassische Wertschöpfungskette um intelligente, in-

tuitiv bedienbare digitale Lösungen ergänzt.

„Zielsetzung war es, unseren Kunden einfache und klar verständliche Services an die Hand zu geben, die sie beim Online-Banking unterstützen, ganz gleich wann und von wo aus auch immer sie dies tun möchten“, erklärt Bernd Schindler. EVA ist auch dann verfügbar, wenn die Schalter der Filialen geschlossen sind: 24 Stunden am Tag, sieben Tage die Woche. Und dank Internet spielt es keine Rolle, wo sich die Kunden gerade aufhalten, weil sie EVA von überall aus erreichen.

EVA löst zahlreiche Anliegen der Kunden rund um das Online-Banking: ganz gleich ob sie Fragen zur Sparkassen- und der pushTAN-App haben, ihr Konto entsperren möchten, ihre PIN-Nummer vergessen haben oder ein höheres Kontolimit beantragen möchten. Dabei beherrscht EVA sieben Sprachen fließend. Möglich macht dies die technologische Grundstruktur des Avatars. Dieser wird einmal programmiert und damit befähigt, im Mensch-Maschine-Dia-

Robert Fischer ist Head of Marketing & Communications bei der PTA IT-Beratung GmbH.

log mit der passenden Mimik situationsangemessen zu reagieren. KI-basierte Deep-Learning-Algorithmen lernen den Avatar an und lassenEVA vertraut und menschlich wirken.

Flexibel einsetzbar

Dadurch, dass der Videoavatar als Webanwendung konzipiert ist und als Software as a Service bereitgestellt wird, konnte dieser ohne großen Aufwand auf der Sparkassen Website eingebunden werden. „Die Integration von EVA in unsere bestehende IT-Infrastruktur war vollkommen unkompliziert und auch die Ausleitung auf jene Bereiche, bei denen sich unsere Kunden sicher authentifizieren und anmelden müssen, meistert EVA hervorragend“, so Bernd Schindler. Und auch in der Frage, vor welchem Hintergrund aus sie agieren soll, profitiert die Sparkasse. Im Gegensatz zu einer Schauspielerin, die gefilmt wird, lässt sich ein künstlicher Avatar bequem im Bildausschnitt unabhängig vom Hintergrund positionieren. „Hätten wir auf eine professionelle Schauspielerin gesetzt, wäre eine solch flexible Skalierung nur mit sehr viel mehr Aufwand realisierbar gewesen“, erklärt Bernd Schindler. Der Videoavatar zeichnet sich zudem dadurch aus, dass er sämtliche Kundenanfragen in End-to-End-Prozesse einbettet, also die Bankkunden so lange durch einen angestoßenen Prozess geführt werden, bis ihre Anfrage zufriedenstellend gelöst ist. •

” Der Avatar wird einmal programmiert und reagiert im Mensch-MaschineDialog mit der passenden Mimik situationsangemessen. (Robert Fischer)
DER AUTOR

Dell GmbH

Unterschweinstiege 10 60549 Frankfurt am Main www.delltechnologies.com

Dell Technologies unterstützt Organisationen und Pripersonen dabei, ihre Zukunft digital zu gestalten und Arbeitsplätze sowie private Lebensbereiche zu transformieren. Das Unternehmen bietet Kunden das branchenweit umfangreichste und innovativste Technologie- und Services-Portfolio für das Datenzeitalter mit dem Ziel, den menschlichen Fortschritt voranzutreiben – darunter Laptops, Desktops, Server, Netzwerke, Speichersysteme, Hybrid-Cloud-Lösungen und vieles mehr.

xSuite Group GmbH

Hamburger Str. 12 22926 Ahrensburg +49 4102 88380 info@xsuite.com www.xsuite.com

xSuite Group entwickelt und vermarktet Anwendungen zur Automatisierung dokumentenbasierter Geschäftsprozesse und ist Experte für die Rechnungsverarbeitung mit SAP, inkl. E-Invoicing, Auftragsmanagement sowie durchgängige P2P-Prozesse (Beschaffen/Bezahlen). Über 300.000 User verarbeiten mit xSuite mehr als 80 Mio. Dokumente pro Jahr. Die Lösungen werden in der Cloud und hybrid betrieben und sind für alle SAP-Umgebungen zertifiziert (ECC-Systeme, SAP S/4HANA, SAP S/4HANA Cloud). Managed Services ergänzen das Angebot.

d.velop AG

Schildarpstraße 6-8

48712 Gescher +49 2542 9307-0 info@d-velop.de www.d-velop.de

Die d.velop-Gruppe entwickelt und vermarktet StandardSoftware zur durchgängigen Digitalisierung von dokumentenbezogenen Geschäftsprozessen On-Premises, in der Cloud und im hybriden Betrieb. Das Produktportfolio reicht vom Compliance-fähigen Dokumenten-Repository bzw. Archiv und digitalen Akten über die interne Kollaboration bis zur externen Zusammenarbeit über Organisationsgrenzen hinaus. Produkte von d.velop sind aktuell bei mehr als 13.350 Geschäftskunden mit über 3,25 Millionen Anwender:innen im täglichen Einsatz.

Esker Software Entwicklungs- und Vertriebs-GmbH Dornacher Straße 3a 85622 Feldkirchen info@esker.de www.esker.de

Esker bietet eine globale Cloud-Plattform zur Automatisierung von Dokumentenprozessen und unterstützt Finanz-, Einkaufs- und Kundendienstabteilungen bei der digitalen Transformation in den Bereichen Order-to-Cash (O2C) und Source-to-Pay (S2P). Die Lösungen von Esker werden weltweit eingesetzt und beinhalten Technologien wie künstliche Intelligenz (KI), um die Produktivität und die Transparenz im Unternehmen zu erhöhen. Zugleich wird damit die Zusammenarbeit von Kunden, Lieferanten und Mitarbeitenden gestärkt .

easy software

Jakob-Funke-Platz 1 45127 Essen +49 201 650 69-166 info@easy-software.com www.easy-software.com

Digitalisierungsexperte und führender ECM Software-Hersteller, easy, steht seit 1990 für rechtssichere, digitale Archivierung & effiziente, automatisierte Prozesse - auch im SAP-Umfeld. Über 5.400 Kunden in über 60 Ländern und allen Branchen vertrauen auf das Unternehmen und sein starkes Partnernetzwerk. Die erstklassigen Archivierungs-, ECM-, DMS-, P2P- und HCM-Softwarelösungen & Services sind das digitale Zentrum für datenbasierte Intelligenz und machen Menschen und Organisationen erfolgreich.

Sybit GmbH

Sankt-Johannis-Straße 1-5 78315 Radolfzell +49 7732 9508-2000 sales@sybit.de www.sybit.de

We Create Customer Experience Champions! Vom KI-gestützten CRM bis zum umfassenden Kundenportal: Die Sybit GmbH ist darauf spezialisiert, Customer Journeys End-to-End zu gestalten.

Ob Lösungen für Vertrieb, eCommerce, Service oder Marketing: Sybit ist der Partner für ganzheitliches Customer Experience Management. Als Europas führende Beratung für CX vertrauen uns über 500 Konzerne und weltweit agierende mittelständische Unternehmen.

2025

/// Cloud-Migration

Vorsicht: Stolpersteine

Es gibt zahlreiche Herausforderungen, die nicht nur technologischer, sondern auch organisatorischer und wirtschaftlicher Natur sind.

/// Quantentechnologie

Revolution der Geschwindigkeit

Sekunden statt Jahre: Quantencomputer können komplexe Berechnungen millionenfach schneller durchführen als herkömmliche Supercomputer.

/// HR – Fachkräftemangel

Employer Branding als Lösung

Fallstudie Siemens:

Hohe Klickraten, verbesserter Cost per Click, über 100 Kommentare und Fragen, 95% positive Bewertungen, 3,9 Millionen Impressionen.

/// Datenmanagement

Zukunftsfähigkeit

Firmen brauchen mehr denn je hohe Datenqualität durch Integration, Bereinigung und Standardisierung von Daten aus verschiedenen Quellen.

IMPRESSUM

DIGITAL BUSINESS Magazin www.digitalbusiness-magazin.de

HERAUSGEBER UND GESCHÄFTSFÜHRER

Matthias Bauer, Günter Schürger

So erreichen Sie die Redaktion

Chefredaktion:

Heiner Sieger (v. i. S. d. P.), heiner.sieger@win-verlag.de

Tel.: +49 (89) 3866617-14

Redaktion:

Konstantin Pfliegl, konstantin.pfliegl@win-verlag.de

Tel. +49 (89) 3866617-18

Stefan Girschner, stefan.girschner@win-verlag.de

Tel.: +49 (89) 3866617-16

Mitarbeiter dieser Ausgabe: André Barthel, Hermann Behnert, Joern Bittner, Andreas Blaut, Thomas Boele, Robin de Brijin, Iris Bruns, Dr. Werner Engelbrecht, Robert Fischer, Giordano di Fronzo, Tobias Grabitz, Henrik Hasenkamp, Andreas Herde, Katharina Jäger, Hendrik Kramer, Dr. Sebastin Krammer, Thierry Kramis, Felix Laumann, Thomas Lorenz, Melanie Ludolph, Andreas Maslo, Johannes Meyer, Gabriele Möller-Horcher, David Motaabbed, Timur Nurdogan, Prof. Dr. Jürgen Peterseim, Tim Sauer, Armin Schneider, Oliver Rozic, Benjamin Schrödel, Michael Schröder, Christoph Schuhwerk, Gary Sidhu, Steffen Ullrich

Stellvertretende Gesamtanzeigenleitung

Bettina Prim, bettina.prim@win-verlag.de, Tel.: +49 (89) 3866617-23

Media Consultant: Gabriele Leyhe, Gabriele.leyhe@win-verlag.de, Tel.: +49 (89) 3866617-24

Anzeigendisposition

Auftragsmanagement@win-verlag.de Chris Kerler (089/3866617-32, Chris.Kerler@win-verlag.de)

Abonnentenservice und Vertrieb

Tel: +49 89 3866617 46 www.digitalbusiness-magazin.de/hilfe oder eMail an abovertrieb@win-verlag.de mit Betreff „www.digitalbusiness“ Gerne mit Angabe Ihrer Kundennummer vom Adressetikett

Artdirection/Titelgestaltung: DesignConcept Dagmar Friedrich-Heidbrink Bildnachweis/Fotos: stock.adobe.com, Werkfotos

Druck: Vogel Druck und Medienservice GmbH Leibnizstraße 5 97204 Höchberg Produktion und Herstellung Jens Einloft, jens.einloft@win-verlag.de, Tel.: +49 (89) 3866617-36

Anschrift Anzeigen, Vertrieb und alle Verantwortlichen WIN-Verlag GmbH & Co. KG Balanstraße 73, Gebäude Nr. 21A, EG, 81541 München Telefon +49 (89) 3866617-0 Verlags- und Objektleitung Martina Summer, martina.summer@win-verlag.de, Tel.: +49 (89) 3866617-31, (anzeigenverantwortlich)

Zentrale Anlaufstelle für Fragen zur Produktsicherheit Martina Summer (martina.summer@win-verlag.de, Tel.:089/3866617-31)

Bezugspreise

Einzelverkaufspreis: 11,50 Euro in D, A, CH und 13,70 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Jahresabonnement (6 Ausgaben): 69,00 Euro in D, A, CH und 82,20 Euro in den weiteren EU-Ländern inkl. Porto und MwSt. Vorzugspreis für Studenten, Schüler, Auszubildende und Wehrdienstleistende gegen Vorlage eines Nachweises auf Anfrage. Bezugspreise außerhalb der EU auf Anfrage. 29. Jahrgang; Erscheinungsweise: 6-mal jährlich

Die nächste Ausgabe erscheint am 3. Juni 2025

Redaktionell erwähnte Firmen dieser Ausgabe

A1 Digital, ams.erp solution, Appian, ARC Intelligence, Avelios Medical, AWS, BVDW, Certivity, Check Point Software, ConSense, Consultix, EPS, Eset, Ferndride, Fieldfisher, Forterro, Ftapi, Gartner, Genua, gridscale, GTT, Juniper Networks, KnowBe4, Kumavision, Logistikbude, Mimecast, Horcher, noris network, PwC Deutschland, PTA, Otterly.ai, Sage, Salesfive, Schiffl IT, Seabix, secupay, SoftwareOne, Trend Micro, Veeva Systems Verso, YeaHR!, Zscaler

Einsendungen: Redaktionelle Beiträge werden gerne von der Redaktion entgegen genommen. Die Zustimmung zum Abdruck und zur Vervielfältigung wird vorausgesetzt. Gleichzeitig versichert der Verfasser, dass die Einsendungen frei von Rechten Dritter sind und nicht bereits an anderer Stelle zur Veröffentlichung oder gewerblicher Nutzung angeboten wurden. Honorare nach Vereinbarung. Mit der Erfüllung der Honorarvereinbarung ist die gesamte, technisch mögliche Verwertung der umfassenden Nutzungsrechte durch den Verlag – auch wiederholt und in Zusammenfassungen –abgegolten. Eine Haftung für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion vom Herausgeber nicht übernommen werden.

Copyright © 2025 für alle Beiträge bei der WIN-Verlag GmbH & Co. KG

Kein Teil dieser Zeitschrift darf ohne schriftliche Genehmigung des Verlages vervielfältigt oder verbreitet werden. Unter dieses Verbot fällt insbesondere der Nachdruck, die gewerbliche Vervielfältigung per Kopie, die Aufnahme in elektronische Datenbanken und die Vervielfältigung auf CD-ROM und allen anderen elektronischen Datenträgern.

Ausgabe: 02/2025

ISSN 2510-344X

Unsere Papiere sind PEFC zertifiziert

Wir drucken mit mineralölfreien Druckfarben

Außerdem erscheinen beim Verlag:

AUTOCAD Magazin, BAUEN AKTUELL, r.energy, DIGITAL ENGINEERING Magazin, DIGITAL MANUFACTURING, e-commerce Magazin, DIGITAL PROCESS INDUSTRY, PlastXnow

Kennen Sie schon unser Sonderheft Security vom DIGITAL BUSINESS Magazin?

Wer sich mit IT-Security beschäftigt – gleich ob für Produktion, Industrie oder Online-Handel – kommt an diesem Sonderheft nicht vorbei.

Hier gibt es geballtes redaktionelles Wissen vom DIGITAL BUSINESS Magazin.

• Erscheinungstermin: 30.09.25

• Redaktionsschluss: 01.09.25

• Auflagen: Print und ePaper: ca. 178.981

• Verbreitung: Abonnenten, Deutsche Bahn, Veranstaltungen und Direktversand

• Veröffentlichung als Print- und Digital-Beilage zur Ausgabe 5/2025 DIGITAL BUSINESS

Die Mediadaten unseres Sonderhefts Security finden Sie hier:

Abonnieren Sie den WIN-verlagsübergreifenden

KI Newsletter!

Bleiben Sie auf dem Laufenden mit den neuesten Entwicklungen und Trends aus der Welt der Künstlichen Intelligenz. Unser kostenfreier Newsletter vom WIN-Verlag wird monatlich versendet und bietet Ihnen spannende Einblicke, exklusive Inhalte und Expertenmeinungen der verschiedenen Branchen.

Melden Sie sich jetzt an und verpassen Sie keine Ausgabe!

Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.