Skip to main content

OPINOMIC TECH INNOVATION 032026

Page 1


03/2026

AI-Investitionen Wohin fliesst das Geld der Investoren?

AI in der Chefetage Schnellere Entscheidungen, mehr Ha ungsrisiken?

Krypto-Regulierung Zwischen Ordnung und Aufbruch

«Die Bereitscha , bei digitalen Technologien mutiger zu werden, nimmt zu»
Christian Keller im Interview

Der Standortfaktor für Innovation heisst Zusammenarbeit

Ein attraktiver Innovationsstandort entsteht nicht durch einzelne Leuchttürme. Er entsteht durch Interaktion und das, was dazwischen passiert. Durch Integration und Kooperation. Durch Zusammenarbeit. Auf allen Ebenen. Wer heute im Wettbewerb um Talente, Technologien und Investitionen bestehen will, braucht mehr als gute Geschichten. Es braucht ein Ökosystem, das Innovation zugänglich macht und verbindet. Und das verlässlich funktioniert. Innovation ist Teamsport – heute vor allem im Technologiebereich. Entscheidend ist, ob aus Ideen praxistaugliche Lösungen werden. Ob Forschung in Anwendung kommt. Ob aus Prototypen Produkte werden. Das gelingt dort, wo Menschen und Institutionen gut zusammenspielen. Kooperation und Integration sind Schlüsselfaktoren: Ohne diese bleibt selbst die beste Idee isoliert. Vor allem auch massgebend ist, dass neue Technologien in der Lage sind, traditionelle Geschäftsmodelle nicht bloss zu zerstören, sondern auf ein neues Level zu bringen.

Das zeigt sich besonders deutlich beim Thema künstliche Intelligenz. Oft stehen die USA und China im Rampenlicht. Die USA dominieren bei Kapital und Kommerzialisierung. China skaliert Anwendungen sehr schnell. Die Schweiz hat andere Stärken. Sie ist ein führender Standort für AI-Talente und für praktikable Integrationslösungen. Talente sind dabei der Engpass. Wer sie gewinnt, gewinnt Zukunft.

Warum kommen diese Köpfe hierher? Weil sie sich heute aussuchen können, wo sie arbeiten wollen. Dabei spielt die Kombination von exzellenten Jobs und hoher Lebensqualität die Hauptrolle. Der Wirtschaftsraum Zürich ist global vernetzt und gleichzeitig kompakt. Effizient und trotzdem nah an Natur und Kultur. Zürich selbst ist

Lukas Huber Geschä sführer der Greater Zurich Area AG

Weltstadt im Boutique-Format. Das ist kein Zufall. Der Standort hat sich über Jahre systematisch zu einem führenden Hub für wissensbasierte Industrien entwickelt und gleichzeitig darauf geachtet, eine Top-Lebensqualität zu bieten. Dahinter stand eine klare Idee: Unternehmen folgen heute den Talenten. Nicht umgekehrt. Diese Strategie zahlt sich heute aus.

Das AI-Ökosystem im Wirtschaftsraum Zürich, der Greater Zurich Area, zu der bald einmal 10 Kantone gehören, ist dafür ein gutes Beispiel. In der Grossregion arbeiten heute über 200 Tech- und AI-Unternehmen. Top-Universitäten liefern Forschung und Nachwuchs. Globale Tech-Firmen integrieren Know-how in die Breite. Start-ups bringen Tempo und Unternehmergeist. So verstärkt sich das System selbst. Auf

Unternehmensebene ist Google ein illustratives Beispiel, wie Zusammenarbeit echten Impact schafft. Google ist nicht nur Arbeitgeber. Es ist eine Brutkammer, die laufend neue Gründerinnen und Gründer hervorbringt. Ehemalige Mitarbeitende von Google Zürich haben in den letzten 20 Jahren im Wirtschaftsraum über 110 Start-ups aufgebaut. Daraus sind rund 1’700 Jobs entstanden. Und der Effekt reicht weit über Tech hinaus. Google-basierte Services ermöglichen in der Schweiz rund 34’000 Arbeitsplätze. Solcher Impact entsteht nur, wenn ein Unternehmen aktiv im Ökosystem mitwirkt. Und wenn das Ökosystem dafür offen ist. Ein wichtiges strategisches Standort-Fundament sind die ETH und die Universität Zürich. Sie sind Innovationsmaschinen. Seit den 1970er-Jahren sind allein über 600 ETH-Spin-offs entstanden. Rund 200 davon im ICTBereich. Viele davon arbeiten heute an AI und Machine Learning. Das zeigt: global anerkannte Spitzenforschung ist da. Entscheidend ist der Transfer. Transfer braucht Nähe und Vertrauen. Und er braucht Partner, die gemeinsam vorangehen. Kooperation ist primär, aber nicht nur Sache der Wirtschaft und der Wissenschaft. Sie braucht auch die Unterstützung der öffentlichen Hand. Ein innovationsfreundlicher Standort entsteht im Alltag. Er zeigt sich in Geschwindigkeit und unbürokratischen Verfahren. Er zeigt sich in Unterstützung und Verlässlichkeit. Behörden müssen ermöglichen, nicht bremsen. Sie müssen zuhören und pragmatisch handeln. Nicht alles ist sofort machbar. Aber vieles ist möglich, wenn man gemeinsam für das Wohl des Standortes denkt. So hat z. B. der Kanton Zürich seine Enabler-Rolle ernst genommen und die AI Sandbox Zurich geschaffen. Ein sicherer Rahmen zum Testen, bei dem Start-ups und öffentlicher Sektor gemeinsam lernen. Dieses Prinzip setzt auch die Standortmarketingorganisation der Greater Zurich Area, die GZA AG, seit Jahren wirkungsvoll um. Sie sucht nicht einzelne Akteure, die besonders laut sind, sondern innovative Unternehmen mit dem Willen, sich nachhaltig ins Ökosystem einzubringen und gemeinsam zu handeln. Die Erfolge der letzten Jahre sind kein Zufall. Sie sind das Ergebnis von konsequenter Selektion zugunsten des Wirtschaftsraumes und von interdisziplinärer Zusammenarbeit. Sie sind auch das Ergebnis einer „echten“ Public-Private-Partnership: Kantone, Regionen und Städte sind dabei ebenso zentral wie Unternehmen und Hochschulen. Alle Akteure haben dabei Verantwortung für einen attraktiven Standort übernommen. Wann war das je wichtiger als heute? Die geopolitische Lage ist unsicher. Märkte schotten sich zunehmend ab. Blockbildung und das Recht des Stärkeren beginnen, die „rule of law“ zu überlagern. Der Wettbewerb um Talente wird härter. Kooperation und Integration werden dabei zu neuen Resilienzfaktoren. Und sie brauchen unternehmerische Empathie. Empathie ist kein weicher Wert. Sie ist Standortfaktor und Führungsqualität in einem. Sie hilft, unternehmerische Interessen und Herausforderungen zu verstehen. Sie hilft bei der Konfliktlösung und trägt zu zukunftsfähigen Entscheidungsfindungen bei. Kooperation und Integration sind die Schlüssel zur Innovation. Sie sind nicht Option, sondern Pflicht. Wer Standort sagt, muss Zusammenarbeit meinen. Wer Innovation will, muss Brücken bauen. Zwischen Forschung und Markt. Zwischen Staat und Wirtschaft. Zwischen Start-ups und Grossunternehmen. Zwischen moderner Technologie und traditionellen Geschäftsmodellen. So entsteht Impact. So bleibt der Standort attraktiv – und innovativ!

OPINOMIC AG Dammstrasse 19, 6300 Zug, Schweiz / Herausgeber Jeton Radi / Redaktion (verantwortlich) Rüdiger Schmidt-Sodingen / Art Department Einhorn Solutions GmbH, Sylvio Murer (Art Direction) / Distribution Finanz und Wirtscha / Druck DZZ Druckzentrum Zürich AG / Sie erreichen uns unter info@opinomic.ch und opinomic.ch

Digitale Transformation

Wie Europas Innovationsstrategie wieder auf Kurs kommt

Europa hat ein Innovationsproblem. Nur vier der 50 weltweit führenden Technologieunternehmen stammen aus Europa, und in den vergangenen fünf Jahrzehnten ist keine europäische Firma mit einer Bewertung von über 100 Milliarden Euro entstanden.

Der Grund: Viele Unternehmen stecken in der von Wirtschaftswissenschaftler:innen titulierten «Mid Tech Falle» fest. Sie sind zu weit entwickelt, um mit den günstigen Produktionskosten von Schwellenmärkten zu konkurrieren, zugleich aber nicht agil genug, um mit den Hightech Innovationen aus den USA oder China Schritt zu halten.

Um dieser Falle zu entkommen, fördern lokale Regierungen und die EU in den vergangenen Jahren vermehrt Unternehmen mit Subventionen und Innovationsprogrammen. Ein Beispiel ist das Förderprogramm «Horizon Europe», das bis 2027 fast 100 Milliarden Euro bereitstellt. Laut einer Studie vom ifo Institut für Wirtschaftsforschung haben bisher jedoch weniger als fünf Prozent dieser Mittel zu echten technologischen Durchbrüchen geführt. Europäische Entscheidungsträger:innen sind sich der Dringlichkeit und Herausforderung ihrer Situation dabei durchaus bewusst.

Laut einer aktuellen Cognizant-Studie sind 85 Prozent der Führungskräfte auf Vorstandsebene besorgt oder sehr besorgt, dass ihre gegenwärtige IT-Landschaft ihren KI-Fortschritt hemmen wird. 63 Prozent sehen in der Komplexität der Modernisierung ein wesentliches Hindernis.

Um die Mid Tech Falle zu überwinden, braucht es komplementäre Herangehensweisen und eine gezielte Nutzung vorhandener Stärken. Dazu gehört, traditionelle Branchen wie die Automobilindustrie, Telekommunikation oder Energiewirtschaft neu zu denken und Governance Modelle an die Anforderungen des digitalen Zeitalters anzupassen.

Eine Kultur für Innovation scha en Laut einer Untersuchung von Forbes Research nennt mehr als jede dritte Führungskraft digitale Transformation und Innovation als eines der meistdiskutierten Themen. Genau darin liegt das Problem: Statt sich auf Strategie und Governance zu verständigen, drehen sich Debatten häufig um einzelne Technologien. Damit digitale Initiativen Wirkung entfalten, müssen alle Funktionen eines Unternehmens auf Veränderung vorbereitet sein und unter einem gemeinsamen Governance Rahmen agieren – von Einkauf und Recht bis zur Personalentwicklung. Moderne Governance entscheidet dabei nicht nur

über Freigaben und Compliance, sondern über die Fähigkeit, Daten nutzbar zu machen. Wenn Unternehmen Daten aus operativen Systemen, Lieferketten, Servicekanälen und Partnernetzwerken zusammenführen, entstehen belastbare Grundlagen für Automatisierung, bessere Entscheidungen und resilientere Prozesse.

Die Beschaffung etwa konzentrierte sich herkömmlich vor allem auf Kostenkontrolle und Lieferantenmanagement. Heute kann sie Innovation vorantreiben, indem Mitarbeitende ermutigt werden, mit KI gestütztem Sourcing oder dynamischen Risikoanalysen zu experimentieren. Das kann eine Neubewertung von Lieferanten ermöglichen und den Weg für effizientere Abläufe öffnen. Gleichzeitig entsteht Raum für Rechtsabteilungen, Verträge im Hinblick auf Datennutzung und ethische KI zu modernisieren, oder für HR Teams, gezielt neue Kompetenzen im Personalbestand auszubauen.

Das richtige Gleichgewicht finden Innovationsprogramme folgen häufig einem von zwei Extremen: Entweder sie werden von wenigen Entscheidungsträger:innen «top down» vorangetrieben – eine Form erzwungener Innovation –oder sie setzen auf vollständige Offenheit, bei der alle jederzeit neue Ideen verfolgen sollen. Beides führt selten zum Erfolg. Organisationen benötigen in der Regel eine Balance aus beiden Ansätzen. Zu viel Druck von oben kann

«Wer weiterhin nach dem Prinzip ‹So haben wir es immer gemacht› handelt, gerät tiefer in die Mid Tech Falle und läuft Gefahr, von ihr vollständig erfasst zu werden.»

zu Verzögerungen und Widerstand im mittleren Management führen, insbesondere wenn die Notwendigkeit neuer Technologien infrage gestellt wird. Zu viel Freiheit hingegen kann riskieren, dass Initiativen ohne klare Zielsetzung verfolgt werden und in Unübersichtlichkeit münden.

Um die richtige Balance zu finden, ist eine kontinuierliche Ausrichtung an der Innovationsstrategie entscheidend. Entscheidungsträger:innen sollten sich stets fragen, ob eine Initiative auf die zuvor definierten gemeinsamen Ziele einzahlt. Zudem ist es wichtig, nicht zu vergessen, dass transformative Innovation nicht ausschließlich in Hightech Sektoren oder agilen Start ups entsteht. Häufig erzielen Unternehmen in traditionellen Branchen die größten Erfolge, wenn sie etablierte Produkte, Dienstleistungen oder Prozesse neu denken.

So haben laut der European Banking Authority bereits 92 Prozent der Banken in der EU KI Anwendungen eingeführt, etwa für Kundenprofiling, Risikomanagement oder die automatisierte Zusammenfassung von Dokumenten. Die Deutsche Bank nutzt KI unter anderem, um personalisierte «Next Best Offers» im Wealth Management zu erstellen als auch Finanzkriminalität wie Betrug, Geldwäsche oder Steuerhinterziehung zu erkennen.

Erfolg neu bewerten Damit Innovation messbaren Wert schafft, müssen Initiativen dort ansetzen, wo sich Unternehmen differenzieren – etwa bei Kundenerlebnis, Produktivität oder Umsatzgenerierung. Angesichts des steigenden Drucks, die Wirkung von KI nachzuweisen, zeigt sich, dass klassische Leistungsmaßstäbe wie «fünf neue Produkte in diesem Quartal einführen» den ganzheitlichen Effekt kaum abbilden.

Statt funktionsspezifischer Zielvorgaben braucht es Governance Modelle, die sich an Ergebnissen orientieren. Übergeordnete Ziele wie eine höhere Kundenbindung oder verbessertes

Nutzerengagement durch eine neue App helfen, alle Teams auf einen gemeinsamen Fokus auszurichten.

Die europäische Automobilindustrie verdeutlicht diese Herausforderung. Zölle, wachsende Konkurrenz aus China und kürzere Produktlebenszyklen setzen Hersteller stark unter Druck. Zwar haben Investitionen in Technologie zugenommen, doch starre Organisationsstrukturen, veraltete Governance Rahmen und fragmentierte Prioritäten bremsen eine großflächige Umsetzung. Die Folge: Der verheißene Mehrwert bleibt häufig aus. Das zeigt, dass Innovationsstrategien über die bloße Einführung von neuen Technologien hinausgehen müssen. Im Mittelpunkt sollten nachhaltiges Wachstum, Profitabilität und langfristige Widerstandsfähigkeit stehen.

Innovation entlang des europäischen Rechtsrahmens

Dank des EU-AI-Acts wird europäischen Unternehmen praxistaugliche Orientierung gegeben und ein Regelungsumfeld etabliert, das Fortschritt und Verantwortung ausbalanciert, ohne Innovation auszubremsen. Ein solcher Rahmen schafft die Voraussetzungen, Daten sicher über interne und externe Systeme hinweg zu verknüpfen. Das ermöglicht Firmen beim Einsatz von KI aus der Experimentierphase in die Operationalisierung überzugehen. Anwendungen entstehen dann nicht mehr nur in Innovationssilos, sondern entlang konkreter Wertschöpfung: Sind Datenflüsse, Zuständigkeiten und Kontrollen klar definiert, lassen sich Ziele nachhaltig vorantreiben und zugleich wirtschaftliche Gewinne verwirklichen.

Strategisches Neudenken anstatt «Business As Usual» Neben politischen Rahmenbedingungen beginnt die erfolgreiche Weiterentwicklung von Innovationsstrategien mit Hilfe neuer Technologien jedoch vor allem bei den Unternehmen selbst. Die Kluft zwischen Firmen, die KI fest in ihr Betriebsmodell integrieren, und jenen, die

Steckbrief

Cognizant zählt zu den weltweit führenden Unternehmen für professionelle Dienstleistungen. Die Firma unterstützt Unternehmen bei der Modernisierung von Technologien, der Neugestaltung von Prozessen und der Entwicklung neuer Arbeitsweisen, damit diese in unserer sich schnell verändernden Welt wettbewerbsfähig bleiben.

Manoj Mehta ist Präsident der EMEARegion bei Cognizant. In dieser Funktion verantwortet er die strategische Ausrichtung und die operative Leistungsfähigkeit von Cognizants Geschä in Nord-, Mittel- und Südeuropa, dem Nahen Osten, Afrika sowie in Großbritannien und Irland, und führt die Commercialund Delivery-Teams, um für Kunden die bestmöglichen Ergebnisse zu erzielen. Manoj ist seit 2005 bei Cognizant tätig und hatte seither verschiedene Führungspositionen im kommerziellen und technologischen Bereich inne, zuletzt als Leiter des globalen Large Deals Teams.

Mehr Informationen unter cognizant.com

Manoj Mehta Präsident EMEA bei Cognizant

sie als Schnelllösung verstehen, wird sich 2026 vergrößern. Wer früh auf eine einheitliche Einführung setzt, kann Ineffizienzen systematisch abbauen, Abläufe vereinfachen, Nachhaltigkeit verbessern und zusätzliche Produktivität freisetzen. Diejenigen, die KI hingegen ohne System implementieren, riskieren teure Nacharbeiten, verzögerte Wertrealisierung und eine zunehmende Benachteiligung gegenüber agileren Konkurrenten.

Die europäischen Industrien müssen Zweck, Governance und Strategie konsequent miteinander verzahnen, anderenfalls droht die Gefahr, im globalen Innovationswettbewerb weiter zurückzufallen. Wer weiterhin nach dem Prinzip «So haben wir es immer gemacht» handelt, gerät tiefer in die Mid Tech Falle und läuft Gefahr, von ihr vollständig erfasst zu werden.

« Alle Unternehmen haben die Chance, Künstliche Intelligenz so zu nutzen, dass sie besser werden»

Seit Februar ist Dr. Christian B. Westermann neuer AI Leader bei PwC Schweiz. Im Gespräch erklärt er, wie Investitionen in Künstliche Intelligenz Unternehmen widerstandsfähiger und wettbewerbsfähiger machen – und wo die Schweiz im internationalen Vergleich steht.

Digitale Transformation

«Künstliche Intelligenz bietet jedem Unternehmen – über alle Branchen hinweg – die Chance, sich zu verbessern.»

Steckbrief

PwC Schweiz

Herr Dr. Westermann, Sie waren bis 2020 bereits als Leiter für Datenanalyse und Künstliche Intelligenz bei PwC tätig. Wie hat sich Künstliche Intelligenz seither entwickelt?

Zu Beginn war Künstliche Intelligenz ein Thema für Fachleute. Branchen wie Banken, Versicherungen und die Pharmaindustrie setzten sie zu der Erkennung von Anomalien oder Vorhersagen ein, oder im Bereich «Next Best Action» – also klassische Verfahren des maschinellen Lernens, ergänzt durch die Verarbeitung natürlicher Sprache. Die Entwicklungsgeschwindigkeit hat inzwischen stark zugenommen. Heute stehen im Bereich der generativen Künstlichen Intelligenz viele Modelle sofort zur Anwendung bereit und werden vielfältig eingesetzt: von der Dokumentenerstellung über die Informationsbeschaffung bis zu Sprache, Video und Bild. Das betrifft die gesamte Wertschöpfungskette.

Was bedeutet Künstliche Intelligenz für internationale und Schweizer Unternehmen?

Künstliche Intelligenz bietet jedem Unternehmen – über alle Branchen hinweg – die Chance, sich zu verbessern. Sei es im Bereich der Kundenschnittstellen, im Vertrieb, Service oder Marketing. Egal ob in der Schweiz oder international tätig, müssen Unternehmen sich fragen: Wo liegt der Nutzen für mich? Wie verbessere ich den Austausch mit Kundinnen, Kunden und Geschäftspartnern? Wie gestalte ich meine Abläufe effizienter? Wie nutze ich mein gesamtes Wissen sinnvoller? Für Schweizer Unternehmen ist Künstliche Intelligenz besonders wichtig, da sie viele gut ausgebildete Fachkräfte haben und in globale Wertschöpfungsketten eingebunden sind – genau hier bieten sich grosse Chancen zur Steigerung von Effizienz und Qualität.

Geht es international schneller voran als hierzulande?

Ja, die USA und China ziehen derzeit voraus, insbesondere China. Beide Länder investieren stark in Technologie und sind offener gegenüber Künstlicher Intelligenz. Doch auch in der Schweiz gibt es Unternehmen, die früh vorn dabei waren. Nicht umsonst haben viele internationale Technologieunternehmen auch Mitarbeitende in der Schweiz. Ich war in den letzten Jahren in einem grossen Unternehmen tätig. Wenn Sie dort etwas Neues machen, dann wollen Sie es natürlich testen – und je mehr Märkte zur Auswahl stehen, desto besser. Sie überlegen als Unternehmen dann, wo die Kunden am besten auf ein neues technologisches Produkt reagieren, ob im Schweizer oder asiatischen oder amerikanischen Markt. Hier kommen viele verschiedene Rahmenbedingungen zusammen, die es zu beachten gilt. Gemäss PwC’s CEO-Umfrage befürchten 54 Prozent, mit der technischen Entwicklung nicht Schritt halten zu können. Was kann man dagegen tun? Die Unternehmen haben es in der Hand. Um mithalten zu können, müssen Unternehmen sich hinterfragen, ob das eigene Geschäftsmodell, die Produkte und Dienstleistungen zeitgemäss sind. Und es gibt nichts, was Schweizer

Als technologieorientiertes Netzwerk mit mehr als 370‘000 Mitarbeitenden in 136 Ländern unterstützt PwC Kunden in den Bereichen Wirtscha sprüfung, Beratung, Steuerberatung und Recht. PwC Schweiz hat rund 3’613 Mitarbeitende und Partner an 13 verschiedenen Standorten in der Schweiz sowie einem im Fürstentum Liechtenstein.

Dr. Christian B. Westermann

Dr. Christian B. Westermann ist seit Februar 2026 AI Leader bei PwC Schweiz. Er war bereits von 2005 bis 2020 als Partner und Leader Data Analytics & AI bei PwC tätig. Zuletzt arbeitete er als Group Head of AI für die Zurich Insurance Group.

Mehr Informationen unter pwc.ch

Unternehmen nicht könnten. Das heisst: Dieselben 54 Prozent der CEOs haben es in der Hand, sich zu hinterfragen, ob sie richtig aufgestellt sind, was ihre Intention, ihre Lieferanten, Produkte und Services angeht. Dazu gehört, wie in anderen Ländern auch, den Impact von AI zu verstehen. Wo kann mein Unternehmen verbessert werden? Was kann anders gemacht werden? Welche Dinge sind in naher Zukunft vielleicht überflüssig? CEOs sollten gemeinsam mit ihrem Führungsteam die Wirkung von Künstlicher Intelligenz analysieren und gegebenenfalls externe Expertise einbeziehen, um die Potenziale zu erkennen und zu nutzen.

Viele Unternehmen investieren aktuell nur in Projekte mit unmittelbarem Nutzen. Behindert das die Ausgaben für Künstliche Intelligenz?

Dass der Fokus auf kurzfristig rentablen Investitionen liegt, ist nachvollziehbar. Allerdings besteht die Gefahr, langfristig die Wettbewerbsfähigkeit zu verlieren, wenn langfristige Investitionen ausbleiben. Künstliche Intelligenz bietet auch kurzfristig Chancen, Abläufe zu beschleunigen und Lieferketten oder Dienstleistungen zu optimieren – mit schnellen Erfolgen. Die Ausgangslage hat sich durch verfügbare generative Modelle stark verbessert, die Umsetzung erfolgt heute viel schneller.

Wie wichtig ist Künstliche Intelligenz für Unternehmen, die eine Nachfolgeregelung planen?

Es ist zunehmend wichtig, im Rahmen der Nachfolgeplanung darzulegen, wie KI in den Kernprozessen des Unternehmens eingesetzt wird – das signalisiert Modernität und Weitsicht. Die Investition in Künstliche Intelligenz sollte jedoch nicht nur aus diesem Grund erfolgen, sondern langfristig zur Wettbewerbsfähigkeit beitragen.

49 Prozent der Schweizer CEOs wenden sich gemäss der PwC-Umfrage neuen Geschäftsfeldern zu – weltweit sind es 42 Prozent. Unterstützt Künstliche Intelligenz dabei?

Ja, Unternehmen müssen sich nicht zwangsläufig neu erfinden, aber Künstliche Intelligenz öffnet Chancen in Marktsegmenten, die bisher wegen Sprachbarrieren oder Marktfragmentierung wenig attraktiv waren. Mit Künstlicher Intelligenz lassen sich zum Beispiel mehrsprachige Kontaktzentren für einund ausgehende Anrufe betreiben, was neue Möglichkeiten eröffnet.

Selbstgesteuerte KI-Systeme werden die Rolle der Mitarbeitenden verändern. Wie strategisch werden Unternehmen künftig arbeiten? Routinetätigkeiten werden zunehmend von Künstlicher Intelligenz übernommen. Mitarbeitende werden sich stärker darauf konzentrieren, Vorhaben und mögliche Problemstellungen zu analysieren und zu verstehen, um dann die passenden Werkzeuge auszuwählen. Der Fokus verschiebt sich von repetitiver zu strategischer Arbeit und Qualitätskontrolle. Gleichzeitig ermöglichen die Werkzeuge, Szenarien durchzuspielen und Geschäftsentwicklungen zu simulieren, was zu mehr Weitsicht und Widerstandsfähigkeit führt.

In welchen Branchen erwarten Sie die sichtbarsten Veränderungen durch Künstliche Intelligenz? Vor allem dort, wo viel Wissensarbeit geleistet wird oder standardisierte Abläufe herrschen – beispielsweise in der Finanzdienstleistung, Pharma und Gesundheitsforschung. Auch die Softwareentwicklung wird sich signifikant verändern, da hier neueste KI-Technologien häufig zuerst angewendet werden. Software wird schneller und individueller entwickelt werden dank KI. Dies allein hat grosse Auswirkungen auf viele Branchen.

Wie verändert Künstliche Intelligenz Ihre Beratung? Künstliche Intelligenz sorgt für mehr Tempo, Tiefe und Qualität in der Beratung. Die Erstellung von Prototypen zur Unterstützung der Projekte gewinnt nochmal an Bedeutung, da diese mithilfe von KI schneller und passender entwickelt werden können. Beraterinnen und Berater werden sich zunehmend auf die Problemstellung fokussieren und auf die Umsetzung in Teilschritten mithilfe der bestmöglichen Technologie. Eine der wichtigsten Aufgaben der Beratung ist jedoch die Begleitung der Unternehmen im Veränderungsprozess – das sogenannte Change Management. Hier sehe ich einen wachsenden Bedarf seitens der Unternehmen, denn ohne diesen Prozess wird die KI in den Unternehmen nicht die ganze Wirkung entfalten können.

Dr. Christian B. Westermann AI Leader PwC Schweiz

VON RÜDIGER SCHMIDT-SODINGEN

Ich brauche mehr Details!» und «Das ist nur Ihre Meinung!».

Zwei Schlüsselansagen, mit denen die westdeutsche Filmkomödie «Didi, der Doppelgänger» vor vier Jahrzehnten die Entscheidungsfindung in den Chefetagen auf die Schippe nahm. In Zeiten von KI hat sich die Herausforderung für gute, vorsichtig risikobehaftete und nachvollziehbare Entscheidungen noch einmal vergrössert. Wie sehr können oder sollten Vorstände und Geschäftsführende AI um Rat fragen oder sogar entscheiden lassen?

Zwei im letzten Jahr veröffentlichte Diplom- und Masterarbeiten diskutieren, wie sich Unternehmen auf den flächendeckenden Einsatz von KI vorbereiten können – auch, um schneller zu Entscheidungen zu kommen und Haftungsrisiken trotzdem so gut es geht auszuschliessen. In seiner Diplomarbeit «Geschäftsführerhaftung im digitalen Zeitalter: Verwendung Künstlicher Intelligenz und rechtliche Bewertungsmassstäbe unter Heranziehung der Business und Legal Judgement Rule», angefertigt 2025 am Institut für Unternehmensrecht der Johannes Kepler-Uni Linz, konstatiert Gabriel Margreiter: «In der heutigen Geschäftswelt wird KI zunehmend als wertvolles Werkzeug für die Entscheidungsfindung in verschiedenen Bereichen eingesetzt.» Warum sollten nicht auch Geschäftsführungen auf KI als «Berater» zurückgreifen?

AI meets BJR

Was den Einsatz zweifellos erschwere, sei der Umstand, dass es sich bei «Geschäftsführungsentscheidungen nicht nur um unternehmerische, sondern oftmals auch um rechtliche handelt bzw. unternehmerische Entscheidungen oft eng mit rechtlichen Vorschriften verknüpft sind oder es gar nicht immer eindeutig bestimmbar ist, ob eine Entscheidung eher rechtlicher oder unternehmerischer Natur ist».

Entsprechend der Business Judgement Rule, die unternehmerische Entscheidungen dann von der persönlichen Haftungspflicht ausnimmt, wenn diese auf der Basis «angemessener Information zum Wohle der Gesellschaft» getroffen wurden, müssen KI-Anwendungen eine breite, der Komplexität des jeweiligen Sachverhalts angemessene Informationsgrundlage liefern. Denn wie es Jeff Bezos einmal sagte: «When you walk through that door, you walk through that door.» Auch eine Plausibilitätskontrolle der für die Entscheidung verwendeten Informationen ist unerlässlich, «andernfalls handelt die Geschäftsführung sorgfaltswidrig und ist demnach nicht schutzwürdig». Gabriel Margreiter diskutiert in diesem Zusammenhang auch die erweiterte Legal Judgement Rule, die die umfassende Informationsbeschaffung vom geschäftlichen auf den rechtlichen Bereich ausdehnt. So muss die Einholung fachlichen Rats mittels eines unabhängigen Experten gewährleistet sein, der seinen Rat dann schriftlich formuliert und von der Rechtsabteilung des Unternehmens oder einem weiteren Rechtsberatenden auf Plausibilität prüfen lässt. Erst wenn alle diese drei Voraussetzungen erfüllt sind, kann ein Geschäftsführer Rechtsirrtümer ausschliessen bzw. für diese nicht belangt werden. Der Vorstand muss entsprechend sicherstellen, dass der Geschäftsführende diese Vorgehensweise zum Wohle der Gesellschaft und zu seinem eigenen Wohle einhält. Allerdings werde das Einholen von

Wenn die AI ans Vorstandszimmer klop

Beschleunigt AI die Entscheidungen der Geschä sführung? Welche GovernanceModelle müssen Unternehmen entwickeln, um AI an jedem Arbeitsplatz rechts- sicherheitskonform einzusetzen? Zwei Diplom- und Magisterarbeiten untersuchen, vor welchen Herausforderungen die Chefetagen stehen.

Experteninformationen derzeit nur über menschliche Experten definiert, wodurch sich die Frage ergibt: Sind KISysteme ebenfalls als kompetente, vertrauenswürdige und der BJR oder LJR entsprechende Ansprechpartner anzusehen? «KI-Systeme arbeiten mit Algorithmen und Daten während Experten auf Basis ihres Wissens und ihrer Erfahrungen Entscheidungen treffen, womit eigene Bewertungsmassstäbe erforderlich sind. KI-Systeme müssen laufend überwacht und kontrolliert werden und bedürfen einer kontinuierlichen Kalibrierung. Die Intransparenz erschwert zudem die Plausibilitätskontrolle.»

Black Box vs. mehr Erkenntnis Vor allem bei Black-Box-Modellen, die Entscheidungen oder Ratschläge aufgrund intransparenter Datenverarbeitungen aus allen möglichen Quellen ausliefern, kann von einer Plausibilitätsprüfung oder Herleitung der vorgestellten Entscheidung keine Rede mehr sein.

Allerdings, so Nicolaus Emmanuel Schubert in seinem Aufsatz «Digital Corporate Governance – Möglichkeiten für den Einsatz neuer Technologien im Gesellschaftsrecht» (Halle 2019), fungiere

KI mittlerweile «als strategisches Beratungsinstrument» und ermögliche es, im Vorfeld von der Entscheidungsfindung viele verschiedene Erkenntnisse und Informationen zu bekommen. In letzter Instanz sei es jedoch an der Geschäftsführung, eine Entscheidung zu treffen und für diese auch die Verantwortung zu übernehmen.

«Eine verantwortungsbewusste Geschäftsführung, die im Interesse der Gesellschaft agiert, nimmt sich die notwendige Zeit, um bedeutende und risikoreiche Entscheidungen sorgfältig zu treffen», so Margreiter. «Entscheidungen, die unter Zeitdruck getroffen werden, laufen Gefahr, nur oberflächlich analysiert zu werden, was wiederum das

«Eine

Risiko von Fehlentscheidungen massgeblich erhöht.» Qualität der Daten gehe vor Quantität. Spannend wird es, wenn der Autor den Einsatz von KI nicht nur als «grundsätzlich zulässig», sondern «eventuell sogar verpflichtend» ansieht.

«Eine Pflicht zur Verwendung von KI» könne in Zukunft bestehen, «wenn qualitätsgesicherte Anwendungen verfügbar sind und der Verzicht den Entscheidungsspielraum erheblich einschränkt, etwa, wenn keine vertretbaren Gründe gegen ihren Einsatz sprechen und erprobte, wirtschaftlich sinnvolle Lösungen verfügbar sind. Die Beurteilung ist dabei auf den Einzelfall zu beschränken.» Insgesamt erfordere der Einsatz von KI, «aber auch von Legal Tech, insbesondere

Rechts-Generatoren und Legal Robots, eine fundierte Abwägung und sorgfältige Kontrolle qualifizierter Fachkräfte». Auf diese Weise könne die Technologie «als unterstützendes Werkzeug genutzt werden, ohne die Haftungsbefreiung zu gefährden».

Entwicklung eines Governance-Modells

Altin Magjuni wagt in seiner zeitgleich an der ZHAW School of Management and Law eingereichten Masterarbeit die «Entwicklung eines Governance-Modells für den Einsatz von generativer Künstlicher Intelligenz im Unternehmenskontext». «Trotz der wachsenden Bedeutung von GenAI», so Magjuni, fehle «es an systematischen Ansätzen für die notwendige Governance im Unternehmenskontext. Diese Forschungslücke betrifft insbesondere die Entwicklung von Modellen, die sowohl Aspekte der Sicherheit und Innovation beleuchten aber auch geschäftliche berücksichtigen.»

Angesichts der Tatsache, dass in immer mehr Bereichen AI-Tools eingesetzt werden, stellt sich die Frage, wie der Einsatz von AI abgesichert oder rechts- und sicherheitskonform vorangetrieben werden kann. Wenn Mitarbeitende mehrmals am Tag Anfragen stellen oder Daten in KI-Tools eingeben, hat das Folgen für das Unternehmen. Einerseits werden kurzfristige Wissenslücken geschlossen, so dass Mitarbeitende vermeintlich schneller und besser weiterarbeiten können. Andererseits werden Daten preisgegeben, die in offene KI-Systeme fliessen oder von diesen Systemen weiterverarbeitet werden. Die positiven Aspekte der KI-Nutzung, wie neue strategische Ansätze oder das «Entstehen von Bottom-up-Innovationen» kollidiert mit ungenügender Datensicherheit, den berühmten KI-Halluzinationen und fehlender Überprüfbarkeit. Kurz: «Wer haftet bei einem durch KI verursachten Schaden?»

Governance-Strukturen müssten diese Lücken proaktiv adressieren und sämtliche Stakeholder, von den Geschäftsführenden und Mitarbeitenden bis zu den Kunden, Lieferanten, Partnern und Regulierungsbehörden miteinbinden. Letztendlich skizziert Magjuni ein mehrstufiges Modell, das auf grundsätzlichen Werten und Steuerungsleitlinien, «die den Einsatz von GenAI in Unternehmen rahmen» aufbaut und eine strukturelle Verankerung von GenAI-Governance im Unternehmen vorsieht – mit AI Governance Board, Ansprechpartnern in allen Abteilungen und Trainings, die Mitarbeitende für den Arbeitsalltag aber auch kommende Fragestellungen sensibilisieren. Dazu brauche es technisch-praktische Massnahmen, «die notwendig sind, um GenAI sicher und regelkonform im Unternehmensalltag zu betreiben», mit Zugriffsmanagement und Prompt-Richtlinien. Weiter müssten ein sorgfältiges Monitoring sowie eine umfassende KI-Kultur geschaffen werden, die Innovationen und menschenzentrierte Nutzung zusammenbringe.

verantwortungsbewusste Geschäftsführung, die im Interesse der Gesellschaft agiert, nimmt sich die notwendige Zeit, um bedeutende und risikoreiche Entscheidungen sorgfältig zu treffen.»

«KI ist kein Ersatz, sondern eine Superkra »

Der breite Einsatz von KI-Agenten kann Unternehmen nicht nur in spezifischen Teilbereichen voranbringen, sondern sämtliche Kundeninteraktionen und Workflows im Front- sowie Backo ice optimieren. Gregor Kälin, General Manager Switzerland bei Wonderful, spricht über konkrete KI-Ergebnisse jenseits des Hypes.

Herr Kälin, warum geht der Rollout von KI in der Schweiz immer noch so langsam voran?

Die Schweiz ist hier kein Sonderfall; die KI-Adoption in Unternehmen verläuft weltweit immer noch relativ langsam. Die Gründe sind in allen Märkten, in denen wir tätig sind, dieselben: Unternehmen führen Pilotprojekte durch, sehen vielversprechende Ergebnisse und geraten dann ins Stocken. Das liegt nicht daran, dass die Technologie nicht bereit wäre. Die eigentliche Herausforderung besteht darin, KI aus einer kontrollierten Pilotumgebung in die komplexe Realität von Legacy-Systemen, lokalen Regulierungen und vielschichtigen Workflows zu überführen. Genau darauf ist Wonderful spezialisiert: Diese Lücke zwischen Pilotphase und produktivem Einsatz zu schliessen.

Warum reichen Standardlösungen gerade für grosse Unternehmen nicht aus?

Grossunternehmen arbeiten oft mit einer über Jahrzehnte gewachsenen, massgeschneiderten Infrastruktur, fragmentierten Systemen und Workflows, für die Out-of-the-Box-Lösungen schlicht nicht konzipiert wurden. Eine generische KI-Lösung, die ohne tiefes

Wissen über lokale Regulierungen und bestehende Architekturen implementiert wird, erreicht selten den Live-Betrieb – geschweige denn Skalierbarkeit oder Wirkung. Der Mehrwert von KIAgenten wird nicht durch die Technologie allein freigesetzt. Die Hauptvorteile entstehen durch die tiefe Integration der Agenten in die bestehende Umgebung. Hier stossen Standardlösungen an ihre Grenzen. Deshalb stellt Wonderful Kunden sogenannte «Forward-Deployed Engineers» zur Verfügung, um zusammen mit Kunden die reale Komplexität der Workflows zu erfassen und die notwendigen Integrationen für den Betrieb der Agenten zu bauen.

Sie plädieren für den Einsatz von KI im gesamten Unternehmen. Ist der Fokus vieler Firmen auf KI-Agenten zu eng gefasst?

Der Fokus ist nicht zu eng, aber oft zu stark in Silos organisiert. Verschiedene Teams versuchen, Prozesse isoliert voneinander zu automatisieren. Das mag zu punktuellen, inkrementellen Produktivitätsgewinnen führen – die zudem oft schwer messbar sind –, aber es führt nicht zu einer umfassenden Transformation des Betriebsmodells. Der wahre Wert von KI liegt nicht in einem

einzelnen Workflow. Er liegt darin, dass der erste Rollout zum Fundament wird – basierend auf wiederverwendbaren Agenten-Fähigkeiten, einer gemeinsamen Governance und einer Infrastruktur, die über Teams und Anwendungsfälle hinweg skaliert, ohne dass man jedes Mal bei null anfangen muss.

Inwieweit werden KI-Agenten in der Lage oder gar notwendig sein, den Fachkräftemangel zu lindern? Wir betrachten KI-Agenten als den zentralen Motor, um die Wettbewerbsfähigkeit der Schweizer Wirtschaft angesichts des immer enger werdenden Arbeitsmarktes zu sichern. Diese Agenten werden unverzichtbar, indem sie kognitive

Aufgaben mit hohem Volumen und repetitivem Charakter automatisieren, die derzeit unsere begrenzten Talentpools binden. So können sich menschliche Spezialisten auf wertschöpfende Innovationen konzentrieren. KI wird sich von einer reinen Assistenzfunktion hin zur autonomen Steuerung ganzer Workflows entwickeln. So lässt sich die «Talentlücke» schliessen und die Produktivität steigern, ohne dass der Personalbestand proportional wachsen muss.

Wie wirkt sich der Einsatz massgeschneiderter KI-Agenten konkret auf die P&L aus?

Wenn man richtig investiert und die Integration in die Unternehmenssysteme

von Anfang an mitplant, ist die Zeit bis zur Wertschöpfung («Time-to-Value») sehr kurz. Bei Telekommunikationsanbietern, mit denen wir zusammenarbeiten, sank die Gesprächsdauer um bis zu 40 % – bei null Wartezeit. Im Bankensektor sehen wir Automatisierungsquoten von 80 % bei der Fallabschliessung, wobei täglich Tausende von Anrufen ohne zusätzliches Personal bearbeitet werden. Bei Energieversorgern hat die 24/7-Verfügbarkeit zu einem zweistelligen Auftragswachstum geführt, während gleichzeitig ein Grossteil falsch weitergeleiteter Anrufe abgefangen wurde. Diese Kapazitätsgewinne hätten manuell massive Investitionen in Personal erfordert.

«Wir bleiben die menschliche Bank –auch wegen der Technologie»

Kundinnen und Kunden erwarten heute, ihre Bankgeschä e schnell, unkompliziert und jederzeit digital erledigen zu können. Gleichzeitig legen sie grossen Wert auf persönliche und kompetente Finanzberatung. Wie sich die Balance zwischen modernster Technologie und menschlicher Nähe erfolgreich gestalten lässt, erklärt CEO Manuel Kunzelmann von der Migros Bank.

Weitestgehende Flexibilität bei Bankgeschäften: Was bedeutet dieser Kundenwunsch für die Beziehung zwischen Kunde und Bank?

Die Digitalisierung hat das Banking grundlegend verändert: Bankgeschäfte können heute jederzeit und von überall aus erledigt werden – schnell, bequem und unkompliziert. Kein Wunder also, dass Banking längst ein fester Bestandteil unseres Alltags ist. Laut einer Studie der Hochschule Luzern treten Schweizer Kundinnen und Kunden durchschnittlich dreimal pro Woche mit ihrer Bank in Kontakt, meist über E-Banking. Auch bei der Migros Bank erfreut sich das digitale Angebot grosser Beliebtheit: Unser E-Banking für Desktop und Mobile ist mittlerweile unsere grösste Filiale. An Spitzentagen loggen sich bis zu 320‘000 Kundinnen und Kunden ein – das entspricht mehr als der achtfachen Kapazität des Sankt-Jakob-Parks in Basel, dem grössten Fussballstadion der Schweiz. Die hohe Zufriedenheit mit unserer E-Banking-App zeigt sich auch in den hervorragenden Nutzerbewertungen: Die 4,5 von 5 Sterne im Apple

App Store und im Google Play Store belegen, dass wir die Bedürfnisse unserer Kunden erfolgreich erfüllen.

Ihr E-Banking wurde in einer anderen Studie der Hochschule Luzern hervorgehoben, die jährlich den Digitalisierungsgrad der Banken untersucht. In der Gesamtwertung erreichte die Migros Bank 2025 zum dritten Mal in Folge einen Podestplatz unter den digitalsten Schweizer Retailbanken. Betrachtet man nur die Funktionalitäten von E-Banking und Website, liegt die Migros Bank gar auf Platz 1. Spornt Sie das an?

Die Auszeichnung hat uns selbstverständlich ausserordentlich gefreut und motiviert uns, unseren Spitzenplatz zu behaupten und unser E-Banking kontinuierlich weiterzuentwickeln. Schweizer Bankkundinnen und -kunden nutzen E-Banking heute vor allem, um Informationen abzurufen und Transaktionen abzuwickeln. Gleichzeitig bietet unser E-Banking bereits jetzt die Möglichkeit, eine Vielzahl von Produkten in den Bereichen Zahlen, Sparen, Anlegen und Finanzieren vollständig online abzuschliessen – quasi als digitale Filiale.

Die Migros Bank setzt also voll auf Self-Service?

Die digitale Selbstbedienung bietet besonders beim Abschluss von standardisierten Produkten wie einem Sparkonto, einem Sparplan, einem Anlagefonds oder einer Kreditkarte eine praktische und unkomplizierte Lösung. Ein besonderes Highlight ist unsere 2022 eingeführte Cumulus-Kreditkarte: Sie war die erste Kreditkarte in der Schweiz, bei der der Online-Antrag in Echtzeit geprüft wird. Dadurch kann die Karte innerhalb weniger Minuten beantragt und direkt digital genutzt werden.

Doch unabhängig davon, ob es sich um eine Kreditkarte, ein Konto oder ein anderes Produkt handelt – wenn Kundinnen und Kunden Unterstützung beim Abschluss benötigen, können sie jederzeit nahtlos von der digitalen Selbstbedienung in unsere beratungsorientierten Kanäle wechseln, sei es per Telefon oder über eine Videoberatung. Besonders die Videoberatung erfreut sich grosser Beliebtheit: Mit rund 15‘000 Gesprächen pro Jahr ist sie nicht nur ein gefragter Service, sondern auch ein zentraler Bestandteil unseres Vertriebssystems.

Digitale Transformation

Welche Rolle spielen neben digitaler Selbstbedienung und Direktkanälen Ihre Filialen? Ist es im Banksektor so wie in der Konsumgüterbranche, wo die Standorte des stationären Vertriebs mehr und mehr nur noch als Flagship Stores dienen?

Nein, das lässt sich nicht direkt auf das Banking übertragen. Die Filiale ist weit mehr als nur ein physischer Standort –sie ist ein zentraler Ort der Begegnung und der persönlichen Beratung. Gerade bei wegweisenden Entscheidungen wie der Aufnahme der ersten Hypothek oder der Planung der Altersvorsorge legen selbst digitalaffine Kundinnen und Kunden grossen Wert auf den persönlichen Austausch. In solchen Momenten steht das Gespräch von Mensch zu Mensch im Vordergrund, bei dem Erfahrung, Empathie und Fachkompetenz entscheidend sind. Für eine Universalbank wie die Migros Bank, die ein breites Spektrum an Finanzbedürfnissen abdeckt, ist es daher von zentraler Bedeutung, eine ausgewogene Verbindung zwischen moderner Technologie und individueller Beratung zu schaffen.

Also digitale Selbstbedienung und Direktkanal für Transaktionen, die Filiale für Beratungen?

Ein einfaches Entweder-oder wird den vielfältigen Bedürfnissen unserer Kundinnen und Kunden nicht gerecht. Denn «den einen Kunden» oder «die eine Kundin» gibt es nicht – vielmehr entwickeln sich zunehmend unterschiedliche Kundensegmente mit individuellen Präferenzen in Bezug auf die Nutzung der verschiedenen Vertriebskanäle. Deshalb geben wir unseren Kundinnen und Kunden die Freiheit, selbst zu entscheiden, wie und über welchen Kanal sie ihre Bankgeschäfte erledigen oder mit uns in Kontakt treten möchten.

In diesem Zusammenspiel der Kanäle nehmen unsere Filialen eine zentrale Rolle ein: Sie sind nicht nur ein Ort, an dem neue Kundenbeziehungen entstehen, sondern auch ein wichtiger Faktor für die Pflege und Vertiefung bestehender Verbindungen. Gerade bei langfristigen Bankbeziehungen spielen persönliches Vertrauen und positive zwischenmenschliche Erfahrungen eine entscheidende Rolle – Werte, die in unseren Filialen besonders spürbar werden.

Viele Kunden suchen die Filiale aber nicht allein für Beratungen auf, sondern auch für Fragen im Zusammenhang mit Transaktionen.

Mit unserem neuen Niederlassungsmodell sorgen wir dafür, dass sich unsere Kundinnen und Kunden jederzeit bestens betreut fühlen. Ein Welcome Manager, vergleichbar mit einem Concierge in einer Hotellobby, empfängt sie persönlich, klärt ihr Anliegen und leitet sie direkt an die richtige Ansprechperson weiter. Für Fragen zu E-Banking oder einzelnen Zahlungen kann beispielsweise per Knopfdruck eine Videoverbindung zu unseren Expertinnen und Experten im zentralen Kundencenter hergestellt werden.

In Kürze wird es zudem möglich sein, für Kundinnen und Kunden ohne E-Banking-Zugang direkt in der Filiale ein Einmal-Login zu erstellen. So können sie vor Ort – bei Bedarf mit Unterstützung eines Beraters – die digitalen Selbstbedienungsangebote nutzen. Ob Self-Service, Videoberatung oder persönliche Beratung: Unsere Filialen bieten alle Kanäle, um schnell, unkompliziert und individuell auf die Bedürfnisse der Kundinnen und Kunden einzugehen.

Andererseits gibt es Kunden, die nicht auf die Filiale kommen, die man dort aber zwecks Beratungen gerne sehen möchte. Was tun sie dafür?

Das Leben hält immer wieder neue Situationen bereit, die einen individuellen Finanzberatungsbedarf mit sich bringen

Steckbrief

Die Migros Bank ist eine 100-prozentige Tochter des Migros-Genossenscha s-Bundes und als solche nicht börsenkotiert. Dadurch kann sie sich optimal auf das Scha en von Kundennutzen fokussieren statt auf die Steigerung des Aktienwerts. Sie beschä igt rund 2000 Mitarbeitende und betreibt 70 Geschä sstellen für ganzheitliche Finanzberatung in allen Landesteilen und ist so gleichermassen weit vernetzt wie regional gut verankert. Ihre über 1,2 Millionen Kundinnen und Kunden vertrauen der Bank Kundeneinlagen im Gesamtwert von 46 Milliarden Franken an. Als sechstgrösste Bank in der Schweiz trägt die Migros Bank grosse Verantwortung für ihre Umwelt und die Gesellscha und nimmt diese auch bewusst wahr. Als erste grosse Schweizer Bank hat sie 2019 ausserdem bereits die Boni abgescha , ganz im Sinne eines verantwortungsbewussten und konsequent kundenorientierten Ressourcenumgangs.

Manuel Kunzelmann ist seit dem 1. Mai 2020 CEO der Migros Bank. Zuvor war er seit 2009 in verschiedenen Führungsfunktionen für die Basellandscha liche Kantonalbank tätig, zuletzt als Mitglied der Geschä sleitung, wo er für den Geschä sbereich Strategie und Marktleistungen verantwortlich war. Vorher arbeitete er

zehn Jahre lang in verschiedenen Leitungsfunktionen für die UBS. Neben seiner Funktion als CEO der Migros Bank ist Manuel Kunzelmann Verwaltungsratsmitglied der Zahlungsdienstleisterin Viseca Payment Services und Vorstandsmitglied der Bankbranchenorganisation Koordination Inlandbanken (KIB). Seit April 2021 ist Manuel Kunzelmann zudem Vorstandspräsident des Vereins CYP – das Kompetenzzentrum für die bankfachliche Ausbildung spielt eine wichtige Rolle bei der kaufmännischen Lehre.

Mehr Informationen unter migrosbank.ch

«Die Zukunft des Bankings liegt nicht nur in der Technologie, sondern vor allem in ihrem intelligenten Einsatz.»

– sei es bei der Familiengründung, dem Kauf von Wohneigentum oder der Planung der Pensionierung. Genau hier setzen wir mit unserer ganzheitlichen Beratung an, um unseren Kundinnen und Kunden echten Mehrwert zu bieten. Wir legen grossen Wert darauf, sie zur richtigen Zeit mit relevanten Informationen zu erreichen und ihnen passende Lösungen anzubieten. So laden wir beispielsweise zu Fachreferaten oder persönlichen Beratungsgesprächen in unseren Filialen ein. Für alle, die mehr Flexibilität wünschen, bieten wir zudem die Möglichkeit, bequem per Videokanal an Veranstaltungen teilzunehmen oder eine Beratung in Anspruch zu nehmen.

Filialen, Direktkanäle, digitale Selbstbedienung: Wie behalten Sie bei den diversen Punkten für Kundeninteraktionen den Überblick?

Wir verzeichnen eine beeindruckende Anzahl an Kundeninteraktionen: Pro Monat führen wir rund 10‘000 Termine in unseren Filialen durch, beantworten 70‘000 Anrufe im Kundencenter, registrieren 160‘000 Besucher auf unserer Website und verzeichnen über 5 Millionen E-Banking-Logins. Und das ist nur ein Teil des Ganzen – hinzu kommen zahlreiche Formulare, E-Mails und andere schriftliche Anfragen, die uns täglich erreichen. Um diese Vielfalt effizient zu bewältigen, setzen wir auf Künstliche Intelligenz. Sie unterstützt uns dabei, Kundenanfragen zentral zu kategorisieren, vorab zu bearbeiten und auch unstrukturierte Anliegen, wie E-Mails oder E-Banking-Nachrichten, schnell zu erfassen.

Und was bringt dieser Technologieeinsatz Ihren Kunden?

Es ergeben sich kürzere Bearbeitungszeiten und eine schnellere Reaktion auf Kundenanliegen. Gleichzeitig entlasten wir unsere Beraterinnen und Berater, die sich so noch stärker auf die persönliche

Beratung konzentrieren können. Davon profitieren vor allem unsere Kundinnen und Kunden: In einer Welt, die von geopolitischem, wirtschaftlichem, demografischem und technologischem Wandel geprägt ist, gewinnt eine ganzheitliche Finanzberatung zunehmend an Bedeutung.

Besteht aber nicht die Gefahr, dass Technologie die Beratung verdrängt? Für uns ist Technologie keine Alternative zur persönlichen Beratung, sondern eine wertvolle Ergänzung. So erweitern wir beispielsweise unsere Servicezeiten mit einem Voicebot ausserhalb der betreuten Telefonzeiten oder einem Chatbot auf unserer Website. Gleichzeitig unterstützt Technologie den persönlichen Kontakt, etwa durch Expertensysteme. Unser Ziel ist klar: Wir bleiben die menschliche Bank – auch dank der Unterstützung durch digitale Lösungen. Dieses Zusammenspiel zeigt sich in der Qualität unserer Beratung, die kürzlich ausgezeichnet wurde. Beim «hypt Award – Banking 2025» erreichte die Migros Bank den ersten Platz unter den grossen Schweizer Banken, basierend auf den durchschnittlichen Google-Bewertungen ihrer Standorte.

Wie sieht die Zukunft des Bankings aus? Die Zukunft des Bankings liegt nicht nur in der Technologie, sondern vor allem in ihrem intelligenten Einsatz, um Menschen optimal zu unterstützen. Entscheidend ist das synergetische Zusammenspiel von Mensch und Technologie: Während digitale Lösungen den Alltag erleichtern und Routineaufgaben effizienter gestalten, bleibt der persönliche Kontakt unverzichtbar, insbesondere in den entscheidenden Momenten, die Vertrauen, Empathie und individuelle Beratung erfordern. So schaffen wir eine Balance, die das Beste aus beiden Welten vereint und unseren Kundinnen und Kunden einen echten Mehrwert bietet.

Manuel Kunzelmann CEO

Wie stark investieren Unternehmen mit und in AI?

Zwischen Hype und Wertschöpfung

«Der Markt belohnt, was man greifen kann»

Das Ende von Asset-Light? Krisen steigen, So wareaktien fallen, Unternehmen mit klassischen physischen Vermögenswerten und KI-Agenda profitieren. Wohin fliesst das Kapital in den nächsten Monaten und Jahren?

VON RÜDIGER SCHMIDT-SODINGEN

Der KI-Hype hat zwei Seiten. Einerseits demokratisiert er die Software-Entwicklung, andererseits lenkt er Investitionen zurück auf greifbare Werte statt schnelles Wachstum. Auf trendingtopics.eu analysierte Jennifer Martin, Portfolio

Specialist bei T. Rowe Price, Ende Februar das Investitionsverhalten gegenüber «physischen Vermögenswerten, Preissetzungsmacht und direktem Engagement in KI». Ihr vorübergehendes Fazit: Das Geld fliesse «weg von Unternehmen, deren Wert stark auf geistigem Eigentum oder Netzwerkeffekten basiert». Das Interesse der Investoren an den Tech-Giganten und den «Ewigkeitsaktien» mit ihren Zinseszins-Effekten sinke. «Ein höheres nominales Wachstum,

anhaltende Inflationsrisiken und ein Anstieg der Investitionen in KI und Infrastruktur» sorgten nun für neue Präferenzen. Das Kapital wandere teilweise zurück zu physischen Vermögenswerten, aber auch zu einem neuen, direkten Engagement in KI und den industriellen Ausbau. Offenbar sind sichtbare Effekte gefragt, sprich Gelder sollen weniger virtuelle Dienstleistungsmodelle oder Provisionskunststücke unterstützen, sondern konkrete Infrastrukturen und deren

Entwickler und Erbauer. «Der Markt belohnt, was man greifen kann», so Martin. «Asset-Light-Plattformen und Softwaremodelle, die einst Marktführer waren, fallen zurück.» Dies scheine «mehr als eine kurzfristige Rotation zu sein». Es spiegele «die Skepsis gegenüber der Monetarisierung von KI auf Plattformebene wider». Bevor die Tech-Blase platzt, könnte man interpretieren, wandert das Augenmerk also auf die «Picks and Shovels», sprich die Zulieferer, Werkzeuge und Infrastrukturen des KI-Booms. Statt in KI-Firmen oder die «Hyperscaler, die einst als nachhaltige Compounder galten», fliessen die Gelder in Chip-Hersteller oder Datacenter, die, egal wie der Wind sich bei den KI-Entwicklern dreht,

mittelfristig weiter gebraucht und auch lokal von weiteren Unternehmen oder sogar Regierungen unterstützt werden. Wer sich die Planungen für zahlreiche, dezentrale Rechenzentren anschaut, weiss, wie sehr nicht nur der Bau, sondern auch der Unterhalt dieser zunehmend als kritisch eingestuften Infrastrukturen an Bedeutung gewinnt. Auch hinsichtlich der immer öfters eingeforderten «digitalen Souveränität» werden lokale Rechenkapazitäten und deren Einrichtung und Versorgung samt Serviceverträgen und Garantieleistungen mittel- und langfristig unverzichtbar werden. Gleichzeitig zeichnet sich ab, dass die Tech-Giganten in ihren Möglichkeiten, mittels Klicks und Interaktionen Geld zu verdienen, durch Regulierungen zunehmend eingeschränkt werden. Von Regierungen durchgesetzte Social-Media-Altersgrenzen, geahndete Wettbewerbsverstösse und eingeforderte europäische Lösungen dürften in den kommenden Jahren zum Risiko werden und einige Gewinnrechnungen von gestern durcheinanderbringen. Als Teil des Problems macht Martin ausgerechnet die Kapitalintensität der KI-Investitionen aus, die als Daten-Serviceprodukte neuen Schwung auf die grossen Plattformen und deren Business-Units bringen sollen: «Hyperscaler, die einst als nachhaltige Compounder galten, tätigen nun aussergewöhnliche Investitionen, wobei die gesamten KI- und Infrastrukturinvestitionen den Grossteil des operativen Cashflows verschlingen und einige Unternehmen in Richtung eines negativen freien Cashflows treiben.» Der Markt behandele diese Unternehmen «weniger wie kapitalarme Plattformen, sondern eher wie kapitalintensive Projekte». Investoren würden sich nun den Unternehmen widmen, «die Geräte und Komponenten verkaufen» und damit die KI-Aufrüstung der grossen Softwareunternehmen abstrafen. Zur neuen Lust an Realwerten geselle sich das Interesse am Energie-Sektor, der wiederum das Interesse an dezentralen, aber realen Infrastrukturen befeuere. «Wir glauben, dass dieses spätzyklische, wertorientierte statt wachstumsorientierte, materielle statt immaterielle Regime so lange anhalten wird, bis entweder die Inflationserwartungen deutlich zurückgehen oder Asset-Light-Sektoren eine erhebliche Bewertungskapitulation erleben, die einen überzeugenden relativen Wert schafft.»

Break-even mit KI

Unternehmen weltweit erhöhen ihre KI-Investitionen, um e izienter zu werden. Das bekommen laut einer aktuellen Studie auch die Chefetagen zu spüren, während das klassische Performance Management noch auf einen breiten KI-Einsatz wartet.

Für ihre Studie zur «KI-Revolution» befragte die Managementberatung Horváth im zweiten Quartal 2025 über 600 Vorstands- und Geschäftsführungsmitglieder grosser Unternehmen mit einem Mindestjahresumsatz von 100 Millionen Euro, mehrheitlich aus der DACH-Region. Tatsächlich, so das Ergebnis, gehören Digitalisierung und KI zu den wichtigsten Managementthemen –knapp hinter der Kostenoptimierung als

Klassiker, der durch die zahllosen Krisen noch einmal an Bedeutung gewonnen hat. Krisen schieben Kassenschubladen zu, nicht auf. «Konsequenterweise», so heisst es in der Pressemitteilung zur Studie, «haben die Unternehmen ihre KI-Budgets kräftig erhöht. Industrieunternehmen wollen in diesem Jahr 21 Prozent mehr in KI investieren. Dienstleister, die schon länger intensiv am KI-Einsatz arbeiten,

erhöhen ihr Budget nochmals um neun Prozent. Damit machen Investitionen in KI-Technologie im Durchschnitt über alle Branchen hinweg 0,5 Prozent des Gesamtumsatzes 2025 aus.» ServiceUnternehmen investieren noch einmal 0,2 Prozentpunkte mehr. «Dieses halbe Prozent hat durchaus Gewicht, denn wir sprechen hier von Technologie-Investitionen, die zusätzlich zum regulären IT-Budget in die Hand genommen werden», so Matthias Emler, Partner bei Horváth und Leiter des Bereichs AI, BI & Data. «Während es in den vergangenen zwei Jahren noch viel um das Ausloten der KI-Potenziale und der Realisierung erster Mehrwerte ging, sind die mit dem KI-Einsatz verfolgten Ziele der Unternehmen jetzt deutlich konkreter: Es geht um die Neugestaltung von Prozessen mit KI, um substanzielle Effizienzsteigerung zu realisieren.» Dass die seit Jahren versprochene Effizienzsteigerung sich auch

kurzfristig erreichen lässt, liegt nicht zuletzt an KI selbst. Wenn sich mittels der richtigen KI-Tools eigene Anwendungen binnen kürzester Zeit realisieren und monetarisieren lassen, wird der Erfolg durch KI greifbar. KI ordnet und strukturiert Daten, hilft beim Bau von hauseigenen Software-Lösungen, bringt erstmals Klarheit in die Lieferketten, also die vor- und nachgelagerten Produktions- oder Lieferprozesse. Das bringt in Krisenzeiten, wo Schiffe in umkämpften Gebieten festhängen können, nicht nur Klarheit, sondern im besten Fall eine neue Flexibilität ins Haus. Ersatzrouten können schneller gefunden und mit den Lieferanten besprochen werden. Schneller fundiert entscheiden zu können, hilft bei kurzfristigen Umplanungen und ist als Anti-Krisen-Tool nicht zu unterschätzen. KI plant nicht nur um, sondern könnte im nächsten Schritt sogar als Anti-Inflations-Waffe wirken. Je schneller

fundiert entschieden wird, desto mehr Geld kann gespart werden. Folgerichtig zeigt die Horvath-Studie, dass erstmals auch Führungsaufgaben «immer stärker von KI-Anwendungen unterstützt beziehungsweise übernommen» werden: «Auch auf Management-Ebene ergeben sich dadurch zehn bis zwölf Prozent Einsparpotenzial.» «Führungskräfte waren von Effizienzpotenzialen durch Digitalisierung in den letzten beiden Jahrzehnten kaum betroffen», sagt Matthias Emler. «Die Möglichkeiten durch KI ändern dies. Die Rollen und Tätigkeiten von Führungskräften werden sich ändern, und sie sind gut beraten, den Wandel proaktiv mitzugestalten.» Erstaunlicherweise werde ausgerechnet das Performance Management von KI noch weitestgehend verschont. Es könnte das erste Anwendungsgebiet für die Zeit nach der Krise sein.

Compliance im KI-Zeitalter: Datenrisiken systematisch begegnen

Mit dem enormen Wachstum von Datenvolumen und dem Siegeszug generativer KI stehen Unternehmen vor einer doppelten Herausforderung: Sie müssen regulatorische Anforderungen erfüllen und gleichzeitig die Kontrolle über ihre Informationen behalten. Eine durchdachte Compliance-Strategie wird damit zum Wettbewerbsfaktor.

Das Datenvolumen wächst ungebremst. Allein 2024 wurden weltweit rund 150 Zettabytes an Daten generiert – für 2025 erwarten Analysten bereits 181 Zettabytes. Mit diesem Wachstum steigt auch die Komplexität des Datenmanagements exponentiell. Wo liegen welche Daten? Wie sensibel sind sie? Wer greift darauf zu? Unternehmen, die diese Fragen nicht beantworten können, gehen erhebliche Risiken ein, besonders in stark regulierten Schweizer Branchen wie Finanzdienstleistung, Versicherung, Pharma und Medtech, wo Prüfungen und Nachweispflichten häufig zum Alltag gehören. Laut dem aktuellen Cost of a Data Breach Report von IBM kostet ein Datenleck durchschnittlich 4,88 Millionen US-Dollar.

Parallel dazu verschärfen Regulierungen wie DSGVO, NIS2 oder DORA die Anforderungen an Transparenz, Überwachung und technische Kontrollen. In der Schweiz kommt hinzu, dass seit dem 1. September 2023 das revidierte Datenschutzgesetz gilt und damit höhere Erwartungen an Nachvollziehbarkeit und technische Schutzmassnahmen verbunden sind. Für Schweizer Unternehmen mit Geschäftsbeziehungen in die EU ist dies besonders relevant: Sie müssen nationale Vorgaben einhalten und zugleich grenzüberschreitende Anforderungen im Blick behalten, etwa wenn Daten oder Prozesse EU Bezug haben.

Der zunehmende Einsatz von generativer KI verschärft die Situation zusätzlich. Large Language Models konsumieren nicht nur grosse Datenmengen, sie erstellen auch neuen Content. Einsowie Ausgaben können vertrauliche Informationen enthalten. Klassische Zugriffskontrollen bleiben zwar die Grundlage, doch im KI-Kontext zeigt sich deutlicher, ob Berechtigungen zu breit vergeben wurden und ob sensible Inhalte ausreichend klassifiziert und geschützt sind. Besonders kritisch sind dabei Insider-Risiken. Laut einer Microsoft-Studie geben 65 Prozent der Unternehmen zu, dass ihre Belegschaft KI-Anwendungen nutzt, die nicht von der IT-Abteilung

kontrolliert werden – sogenannte Schatten-KI. Mitarbeitende können – ob absichtlich oder versehentlich – sensible Informationen über KI-generierte Inhalte nach aussen tragen, ohne dass ein klassischer Export oder eine erkennbare Weitergabe stattfindet.

Zentrale Plattformen statt Insellösungen

Compliance-Verstösse können rechtliche Folgen nach sich ziehen und erhebliche Kosten verursachen. Gefragt sind Lösungen, die die gesamte technische Compliance unter einer Plattform bündeln und zentral managen. Während klassische IT-Sicherheit mit absoluten Regeln arbeitet – etwa dem generellen Verbot, Dokumente auf externe Datenträger zu kopieren – befasst sich technische Compliance mit der Einordnung von Informationen nach Sensibilität und Nutzungskontext.

Für Unternehmen, die bereits Microsoft 365 nutzen, bietet sich Microsoft Purview als native Compliance-Plattform an. Die Lösung vereint Funktionen für Information Protection, Data Loss Prevention, Insider-Risikomanagement und Datenlebenszyklus-Verwaltung. Der Vorteil: Viele grundlegende Funktionen sind je nach Microsoft 365 Lizenz bereits enthalten, und für Microsoft 365 Workloads ist die Plattform nativ integriert, ohne aufwendige Zusatzintegration. Jede effektive Compliance Strategie beginnt mit einer sauberen Datenklassifizierung, auch weil sich damit unterschiedliche Schutzbedarfe abbilden lassen, etwa Personendaten nach Schweizer Datenschutzrecht, vertrauliche Kundendaten, Bank oder Geschäftsgeheimnisse sowie Forschungs und Entwicklungsdaten. Diese bildet das

Fundament für sämtliche technischen Massnahmen. Data Loss Prevention, Aufbewahrungsrichtlinien oder InsiderRisikomanagement funktionieren nur dann zuverlässig, wenn die Sensitivität eines Dokuments korrekt eingestuft ist. Andernfalls kann es passieren, dass KI-Anwendungen Informationen falsch behandeln oder Mitarbeitende Inhalte teilen, die nicht für den jeweiligen Empfängerkreis vorgesehen sind.

In Microsoft 365 erfolgt die Klassifizierung über sogenannte Sensitivity Labels. Diese ermöglichen es, Daten in Kategorien wie «vertraulich», «streng vertraulich» oder «öffentlich» einzuteilen. Abhängig von der Einstufung greifen automatisch passende Schutzmassnahmen wie Verschlüsselung, Zugriffsbeschränkungen oder visuelle Markierungen. Labels lassen sich auch so konfigurieren, dass bestimmte Aktionen wie das Lesen oder Bearbeiten nur für definierte Benutzer oder Gruppen möglich sind. Ein entscheidender Vorteil: Sensitivity Labels können vererbt werden. Wenn KI Anwendungen neuen Content auf Basis klassifizierter Daten erstellen, erhält der Output, sofern die jeweilige Funktion dies unterstützt, das höchste Schutzniveau der verwendeten Quelldaten. Verbotene Aktionen blockiert das System automatisch. Auf diese Weise sorgen Sensitivity Labels dafür, dass Compliance-Vorgaben innerhalb von Microsoft 365 eingehalten werden.

Ein abteilungsübergreifendes Projekt Die Klassifizierung von Daten geht über den reinen IT-Bereich hinaus und erfordert sorgfältige Planung sowie organisatorische Einbindung. Unternehmen sollten mehrere Monate einplanen und

gemeinsam mit den Fachabteilungen Use Cases identifizieren. Dabei zeigt sich in der Praxis: Automatisierte Datenklassifizierung eignet sich nur für etwa fünf Prozent aller Fälle. Denn oft gibt es keine eindeutigen Regeln, wie sensibel ein Dokument einzustufen ist. Verschiedene Stakeholder bewerten dieselbe Information unterschiedlich. Die Auseinandersetzung zwischen den Beteiligten ist wichtig – wer falsch klassifiziert, baut seine Compliance-Strategie auf einem brüchigen Fundament auf.

Besonders sensible Bereiche lassen sich komplett von der KI-Nutzung ausschliessen. Die technische Lösung besteht darin, diese Daten entsprechend zu klassifizieren und mit Double-KeyEncryption doppelt zu verschlüsseln. Weder Copilot noch andere KI-Anwendungen können dann darauf zugreifen. Mit der Einführung einer zentralen Compliance-Plattform entsteht auch organisatorisch eine neue Rolle: der technische Compliance-Manager. Diese Position ist in der IT angesiedelt, muss aber eng mit der Rechts- und Compliance-Abteilung zusammenarbeiten. Gefragt ist nicht nur technisches Fachwissen, sondern vor allem die Fähigkeit, zwischen verschiedenen Stakeholdern zu vermitteln und Anforderungen aus der Rechtsabteilung in technische Lösungen zu übersetzen. Eine weitere Herausforderung liegt im enormen Funktionsumfang moderner Compliance-Plattformen. Viele Unternehmen wissen nicht, wo sie anfangen sollen. Da Einstellungen in produktiven Umgebungen getestet werden müssen, steigt ohne strukturiertes Vorgehen der Aufwand erheblich. Externe Spezialisten können helfen, relevante Use Cases zu priorisieren, die richtige Strategie zu entwickeln und typische Stolperfallen zu vermeiden.

Zu den wichtigsten Funktionen moderner Compliance-Plattformen zählt das Insider-Risikomanagement. Insider-Risiken können bewusst oder versehentlich entstehen – von Datenlecks über Missachtung der Vertraulichkeit bis hin zu Verstössen gegen gesetzliche Vorschriften Moderne Lösungen ermöglichen es, relevante Aktivitäten und

Steckbrief

Julian Kusenberg ist Senior Consultant bei So wareOne und spezialisiert auf Microso 365 Compliance mit Fokus auf Microso Purview. Er unterstützt Unternehmen bei der Umsetzung ganzheitlicher Sicherheits- und Governance-Strategien – von Sensitivity Labels bis zu Insider Risk Management und eDiscovery.

Mehr Informationen unter so wareone.com

Datenflüsse nachvollziehbar zu überwachen und revisionssicher zu dokumentieren. Das Insider Risk Management erkennt riskantes Verhalten und stösst automatisierte Untersuchungen sowie Workflows an. Das eigentliche Blockieren kritischer Aktionen übernimmt Data Loss Prevention.

Das Monitoring macht transparent, welche KI-Anwendungen Mitarbeitende tatsächlich nutzen. Unternehmen erkennen so, ob freigegebene Tools angenommen werden oder ob die Belegschaft weiterhin externe Anwendungen einsetzt. Schatten-KI stellt ein erhebliches Sicherheitsrisiko dar, weil Daten unkontrolliert das Unternehmen verlassen können.

Fazit: Compliance als strategischer Baustein

Compliance ist heute eine Grundvoraussetzung für den sicheren Umgang mit Daten und künstlicher Intelligenz. Für Unternehmen im Microsoft-Umfeld ist Purview die zentrale Plattform, um regulatorische Anforderungen zu erfüllen und den Überblick über Informationen und Zugriffe zu behalten. Der pragmatische Ansatz besteht darin, mit wenigen Sensitivity Labels und grundlegenden DLP-Richtlinien zu starten und das System schrittweise auszubauen. Compliance ist kein einmaliges Projekt, sondern muss kontinuierlich nachjustiert werden. So wird die CompliancePlattform zum strategischen Baustein einer zukunftssicheren Unternehmensarchitektur.

Julian Kusenberg Senior Consultant bei So wareOne und Microso MVP Security

«Lab in a Loop»

VON RÜDIGER SCHMIDT-SODINGEN

Was passiert, wenn KI nicht mehr nur als gelegentliches Werkzeug, sondern als zentrales Betriebsmodell gesehen wird? Das weltweit grösste Pharmaunternehmen hat KI als Kern seiner Forschungs- und Entwicklungsprozesse definiert.

Daten aus Labor und Klinik werden genutzt, um von den Forschern entwickelte KI-Modelle und -Algorithmen zu trainieren. Mit den trainierten Modellen werden dann Vorhersagen zu bestimmten Wirkstoffen und deren Therapiezielen getroffen. Die Daten aus den im Labor durchgeführten Tests generieren wieder neue Daten und diese füttern und verbessern dann wieder die Modelle. Die Forschung in diesem geschlossenen Kreislauf hört also praktisch nie auf, Sackgassen gibt es nicht mehr. Der klassische Trial-and-Error-Ansatz führt nicht zu zugeklappten Akten, sondern zu immer neuen Daten, die dann entsprechend schneller neue, bessere Wirkstoffe oder Wirkstoffkombinationen vorschlagen können. Das «Lab in a Loop» kann als endloses Feedback-System bezeichnet werden, das so im Grunde auch auf andere Unternehmen und Arbeitsbereiche anwendbar wäre. Für die Pharmaindustrie bedeutet eine kontinuierliche Datensammlung jedenfalls eine enorme Beschleunigung der Forschung. KI könnte noch schneller Therapieansätze vorschlagen und entwickeln und anhand der Daten auch gewisse Krankheitserreger besser bekämpfen. Speziell in der Krebsforschung und -behandlung wird KI bereits zum unverzichtbaren Wissenstool. So ist es niederländischen Chirurginnen und Chirurgen gelungen, bereits während einer Krebs-Operation die genaue Krebsart zu bestimmen, um direkt zu entscheiden, ob noch weiteres Gewebe entfernt werden muss oder nicht. Die «Ultraschnelle Klassifizierung von ZNS-Tumoren während der Operation mittels Deep Learning», dokumentiert im gleichnamigen Artikel des Magazins Nature Nr. 622, hilft vor allem bei Tumoren des zentralen Nervensystems, die bei Kindern festgestellt und operiert werden. Mithilfe des Sturgeon-Netzwerkes, «das die molekulare Subklassifizierung von Tumoren des zentralen Nervensystems

The Company’s Next Operating Model

Neue Technologien verlangen nach neuen Organisationsformen. Aber wie können Unternehmen ihre Arbeitsabläufe neu strukturieren – und die vielen Möglichkeiten, die sich dank KI und Automatisierung bieten, für die Wertschöpfung nutzen?

VON RÜDIGER SCHMIDT-SODINGEN

Fragt man KI, wie Unternehmen angesichts der vielen technologischen Änderungen ihre Operating Models anpassen sollten, kommen zunächst zwei Sätze: «Unternehmen müssen ihre Operating Models (OM) von einem rein werkzeugorientierten Ansatz hin zu einer KI-zentrierten Wertschöpfungslogik transformieren. Während 2025 noch von Experimenten geprägt war, erfordert das Jahr 2026 eine tiefgreifende Neucodierung der Unternehmens-DNA, um technologische Fortschritte wie KI-Agenten und Hyperautomatisierung profitabel zu skalieren.»

auf Basis spärlicher Profile ermöglicht», konnte «innerhalb von 40 Minuten nach Sequenzierungsbeginn eine korrekte Diagnose gestellt werden». Daraus ergebe sich, «dass maschinelles Lernen mittels kostengünstiger intraoperativer Sequenzierung die neurochirurgische Entscheidungsfindung unterstützen und potenziell neurologische Begleiterkrankungen sowie zusätzliche Operationen vermeiden kann».

Doch wie lassen sich KI-Initiativen aus der Testphase in den alltäglichen Produktions- oder Arbeitsbetrieb integrieren? Das Spielen mit Tools oder gelegentlichen Anfragen in den Alltag zu übernehmen, um nicht nur ein paar Informationen zu bekommen oder plötzlich auftretende Herausforderungen leichter zu meistern, bedarf einer umfassenden Anpassung – und der Ermunterung, dass jeder Mitarbeitende mehrmals am Tag versuchen sollte, KI für die Aufgaben einzusetzen, die sich wiederholen und dezidiert zum Kerngeschäft gehören.

KI statt Obstschale

KI übernehme standardisierte Routinetätigkeiten und mache «den Weg frei für neue, geschäftsnahe Aktivitäten mit echtem Differenzierungspotenzial», schreibt Luca Spring im CXO-Update Impact von Kearney. «Zentralisierte Strukturen werden durch agile, KI-gestützte Kompetenzzentren ersetzt.» Die Frage verschiebe sich vom klassischen Make-or-Buy zu «Wie und mit welchen Partnern aktivieren wir unseren

Daten- und Technologievorteil am besten?» Entsprechend laute die KISourcing-Logik: «kuratieren, trainieren, orchestrieren». Auch die starre Management-Pyramide gerate ins Wanken. Wo Technologien und speziell KI «Reportings, Freigaben, Forecasts» herstellen und organisieren, werde nun tatsächlich mit den flachen Hierarchien gearbeitet, die von HR-Abteilungen schon seit Jahrzehnten versprochen werden. KI setzt durch, für was die Obstschale am Eingang nur stand.

Gleichzeitig müssten sich auch die Führungskräfte neu erfinden. Sie müssten «Vertrauen schaffen in die Technik, Orientierung geben bei Unsicherheit, Haltung zeigen bei Ambiguität». Wer seine Mitarbeitenden an die Technik lasse, müsse allerdings auch mit den Risiken umgehen – sprich Unsicherheiten, eine «Schattennutzung» oder Cyberangriffe aktiv an- und besprechen. Technik im Haus zu haben und an zentralen Punkten einzusetzen, setze eine technische Mündigkeit voraus, die neue Entwicklungen verfolgt, aber auch Probleme oder Gefahren, die sich im Zusammenspiel von Mensch und Maschine ergeben können, adressiert.

Defizite bei Governance und Zusammenarbeit Wenn laut einer Studie zur Transformation von Target Operating Models (TOM) im KI-Zeitalter von BearingPoint nur «vier Prozent der europäischen Unternehmen über ein Organisationsmodell verfügen, das vollständig auf die Anforderungen des KI-Zeitalters ausgerichtet ist», stellt sich die Frage, welche Ansätze fehlen oder wo die Defizite liegen. Offensichtlich, so ein Erkenntnis der Studie, liegt das Hauptproblem darin, dass zwar alle technischen KI-Knöpfe gedrückt werden, aber dabei strukturelle Themen wie Governance, Datenkompetenz und Zusammenarbeit, die eine Nutzung auf

das nächste Level heben und so für mehr Effizienz und Wertschöpfung sorgen, grosszügig oder fahrlässig übersehen werden. Vor allem der «Aufbau neuer Fähigkeiten», der mit einer regelmässigen KI-Nutzung einhergehen soll, lasse noch auf sich warten. Laut der Studie fehle es an Daten und Analytics-Fähigkeiten, Fachkräften, umfassendem technischen Verständnis und einem klaren Änderungswillen der Führungskräfte.

Unternehmen, die sich vollumfänglich auf das KI-Zeitalter ausrichten wollen, bräuchten klare Strategien, «unternehmensweite Governance- und Steuerungssysteme, die gewünschte Verhaltensweisen klar verankern» und «integrierte Daten- und Technologiearchitekturen». Entsprechend gehe es darum, Systeme so zu nutzen, dass die tägliche Zusammenarbeit eine neue Flexibilität herstelle und nicht alte Arbeitsmodelle immer mal wieder beschleunige und abbremse. Wer KI zum Stop-and-Go nutzt, also immer mal, wenn es passt, bei dem ist KI offensichtlich nicht das Rennmobil, das es sein könnte. Die Transformationsstudie macht auch deutlich, dass ein Problem in der «disziplinierten Umsetzung» liegen könnte. Wer zögere, riskiere zurückzufallen, so Studienautor Tobias Liebscher, «denn Geschwindigkeit, Datenorientierung und funktionsübergreifende Zusammenarbeit werden künftig die entscheidenden Treiber der Unternehmensperformance sein».

Testfall Kundenfeedback Im HCLTech Trends and Insights Podcast erklärte der OM-Experte Seema Noronha im vergangenen September, dass sich Unternehmen fragen müssten, ob sie «wirklich agil, skalierbar und kundenorientiert genug sind, um in einer KI-gestützten Welt zu gedeihen». Ein Betriebsmodell sei dann von gestern, wenn es nicht mehr agil reagieren könne, es nicht leicht skalierbar sei, es weder durchgehend innovativ und kundenorientiert arbeite. Als bestes Beispiel führt Noronha das Kundenfeedback an. Laut der hauseigenen Studie «The Blueprint to AI-Led Operating Model» glauben nur 17 Prozent der befragten Unternehmen, dass sie Kundenfeedback voll ausschöpfen. Ein Operating Model, das sich als «produktorientiertes Betriebsmodell» verstehe, löse dies, indem es Feedback in jede Phase des Lebenszyklus einbette. Teams seien dazu da, in «kontinuierlichen Discovery- und Delivery-Zyklen und in agilen Feedbackschleifen» zu denken und zu arbeiten. Letztendlich gehe es darum, Menschen im «Warum» zu verankern und «einschränkende Überzeugungen und Verhaltensweisen wie Aufgabenorientierung in ermöglichende Veränderungen wie Neugier und Ergebnisfokus» zu verwandeln. Das Operating-Model von gestern, «Der Chef weiss Bescheid», mutiert zu «Alle wollen mehr wissen».

«Während 2025 noch von Experimenten geprägt war, erfordert das Jahr 2026 eine tiefgreifende Neucodierung der Unternehmens-DNA.»
«KI ist kein Tool. KI ist eine

Unternehmensfähigkeit

Viele Unternehmen pilotieren, wenige transformieren. Wer KI als isoliertes Projekt versteht, bleibt stecken – wer sie als strategische Fähigkeit begrei , baut strukturellen Wettbewerbsvorteil auf. Epic Fusion plädiert für Governance, Orchestrierung und Führung statt für Tech-Hype.

Herr Baskaran, Epic Fusion ist Microsoft Solutions Partner und wurde 2024 als global Partner of the Year ausgezeichnet. Was bedeutet das?

Microsoft würdigt mit dieser Auszeichnung unseren konsequent menschenzentrierten Ansatz: Wir verbinden Technologie, Kultur und unternehmerisches Denken so, dass digitale Lösungen im Alltag tatsächlich funktionieren. Wir bewegen uns technologisch auf höchstem Niveau. Gleichzeitig denken wir nicht in isolierten Technologieprojekten, sondern in Business-Fähigkeiten, die Organisationen langfristig stärken. Unser Fokus liegt darauf, komplexe Veränderungen strukturiert, sicher und skalierbar umzusetzen. Epic Fusion bedeutet, alles zusammenzubringen: eine stabile, sichere Basis, den Modern Workplace sowie die Nutzung von Daten und KI. Entscheidend bleiben jedoch die Menschen. Erst wenn Mitarbeitende befähigt und eingebunden sind, entfaltet Technologie Wirkung.

Viele Unternehmen experimentieren mit KI – nur wenige erzielen einen Mehrwert. Woran liegt das? Die häufigsten Fehleinschätzungen sind erstaunlich konstant: Erstens wird KI als Tool gesehen, statt als Business Fähigkeit, die Prozesse, Rollen und Steuerung verändert. Zweitens starten viele Unternehmen mit spannenden Use Cases, aber ohne sauberes Fundament: Datenzugriff, Schutz, Governance, Betrieb. Drittens unterschätzt man Adoption –ohne Vertrauen und Führung bleibt KI ein Gimmick. KI muss in den Geschäftsalltag verankert sein, sonst bleibt sie Show. Wer keinen Impact definiert, bekommt Experimente. KI scheitert nicht an Technologie. KI scheitert an fehlender strategischer Führung.

Was unterscheidet FrontierUnternehmen, die KI strategisch nutzen, von anderen?

Pilotprojekte testen Technologie. Strategische Unternehmen bauen Fähigkeiten. Frontier-Unternehmen integrieren KI in ihre Wertschöpfungskette – nicht in isolierte Use Cases. Sie investieren in Datenarchitektur, Governance und

Organisationskompetenz. Reaktive Unternehmen kaufen Tools. Strategische Unternehmen bauen Strukturen. Das ist der Unterschied.

Welche Voraussetzungen müssen Unternehmen schaffen, damit KI messbaren Impact liefern kann? KI-Initiativen scheitern selten am Modell. Sie scheitern an unklaren Prozessen, fehlender Verantwortlichkeit und mangelnder Integration. KI ist keine IT-Erweiterung. KI gehört in die Unternehmensstrategie. Viele unterschätzen die organisatorische Dimension. Man budgetiert Technologie, aber nicht Transformation. Schnell implementierte Lösungen ohne Governance erzeugen langfristig höhere Kosten – operativ wie regulatorisch. Nachhaltige KI-Strategien sind kein Sprint, sondern ein strukturiertes Skalierungsmodell.

Wo liegt 2026 der grösste wirtschaftliche Hebel: Automatisierung, Assistenz oder Agenten?

Der grösste Hebel liegt in der intelligenten Entscheidungsunterstützung und dort, wo Unternehmen heute die meiste Zeit verlieren. Nicht nur Automatisierung von Tasks, sondern deren Optimierung. Pricing, Risikoanalyse, Ressourcenallokation, Service-Management – überall dort, wo täglich Entscheidungen getroffen werden. Wer Entscheidungen systematisch verbessert, steigert Marge und Geschwindigkeit gleichzeitig. Kurzfristig mag Assistenz der Turbo sein – mittelfristig sind Agenten der Skalierungshebel, weil sie Aufgaben als digitale Kollegen übernehmen und Teams entlasten.

Wie integriert Epic Fusion intelligente Systeme in gewachsene IT-Landschaften?

Integration ist eine Architekturfrage, keine Modellfrage. Statt paralleler KI-Welten integrieren wir entlang bestehender Prozesse mit klaren Schnittstellen und Sicherheitsmechanismen. Stabilität entsteht durch sauberes Design. Wir starten pragmatisch, risikoarm und skalierbar – erst Assistenz, dann Agenten, dann autonome Workflows. So bleibt der Betrieb stabil und das Risiko kontrollierbar.

Welche Rolle spielen Datenarchitektur und Cloud-Strategie dabei? KI ist nur so gut wie ihre Datenbasis. Ohne strukturierte Datenflüsse, klare Ownership und skalierbare Cloud-Architektur bleibt KI fragmentiert. Wer hier nicht investiert, baut auf instabilem Fundament. Wir betrachten Daten konsequent als Unternehmenswert. Das bedeutet: klarer Data Lifecycle, saubere Data Classification und strukturierte Cloud Migration sind die Grundlage unternehmerischer Handlungsfähigkeit. Erst wenn Daten sicher und verfügbar sind, kann KI verantwortungsvoll und wirksam eingesetzt werden.

Wie verändern KI und Automatisierung die Cyber-Resilienz? KI erhöht nicht nur Produktivität, sie verändert die Angriffsfläche. Geschwindigkeit, Vernetzung und Autonomie wirken auf Unternehmen und Angreifer. Darum müssen Unternehmen Sicherheitsarchitektur, Zugriffskontrollen und Monitoring neu denken. Autonome Systeme brauchen klare Begrenzungen und Überwachungsmechanismen. Resilienz wird integraler Bestandteil jeder KIStrategie. Genau deshalb muss Security «by design» verankert sein: von Cloud Security über organisierte Security Operation (SOC) bis hin zu regelmässigen Risk Reviews. Sicherheit darf nicht reaktiv sein – sie ist Voraussetzung.

Wohin entwickelt sich KI in den nächsten Jahren?

Von Assistenz zu Autonomie. KI wird weniger ein Gesprächspartner und mehr ein System, das Aufgaben koordiniert, entscheidet und ausführt. Das erfordert ein neues Zusammenspiel aus Führung, Governance und Plattformbetrieb. Menschen setzen die Richtung. Autonome Agenten werden zu digitalen Kollegen,

die strukturierte Entscheidungs- und Koordinationsaufgaben übernehmen. Sie arbeiten systemübergreifend, reagieren in Echtzeit und entlasten Fachbereiche massiv. Aber: Sie brauchen klare Governance.

Sie entwickeln aktuell ein eigenes Produkt mit autonomen AI Agents, dass Frontier Engine heisst. Warum? Weil wir überzeugt sind, dass Unternehmen mehr brauchen als Standardlösungen. Wir warten nicht darauf, dass Hyperscaler Lösungen liefern. Mit der Frontier Engine entwickeln wir bewusst eine eigene Plattform, die autonome KI Agenten kontrollierbar, skalierbar und compliance-fähig macht. Unsere Kunden brauchen heute Lösungen, die sich an ihre Organisation anpassen lassen. Sie müssen Agenten sicher in bestehende Systeme integrieren, Governance durchsetzen und gleichzeitig skalieren können. Wir bauen die Produkt- und Orchestrierungslogik selbst, inklusive eigener Bausteine wie dem MCP Server. So stellen wir sicher, dass Unternehmen autonome Agents sicher und nachvollziehbar in ihre IT-Landschaft einbinden können. Wir bauen nicht Visionen, sondern das, was unsere Kunden real benötigen.

Welches Problem lösen autonome Agents, das klassische Automatisierung nicht kann?

Klassische Automatisierung folgt festen Regeln. Autonome Agents können kontextbasiert entscheiden, priorisieren und koordinieren. Sie verbinden Systeme, Daten und Prozesse dynamisch – nicht statisch. Das ist ein fundamentaler Unterschied. Denn der Mehrwert entsteht, wenn Agents nicht isoliert arbeiten, sondern im Team orchestriert werden.

«KI ist kein Selbstzweck, sondern ein Wettbewerbsvorteil –wenn die Basis stimmt.»

Steckbrief

Sanche Baskaran begleitet Unternehmen dabei, den Modern Workplace neu zu denken. Mit tiefer Expertise in Digital Transformation und Microso -Technologien schlägt er die Brücke zwischen KI-gestützter Produktivität und maximaler Datensicherheit. Er sorgt dafür, dass Innovation nicht auf Kosten der Compliance geht.

Mehr Informationen unter epicfusion.com

Baskaran CEO und Partner

Warum ist Multi-Agent-Orchestrierung der Schlüssel zur Skalierung? Ein einzelner Agent löst eine Aufgabe. Orchestrierung koordiniert viele spezialisierte Agents entlang einer Wertschöpfungskette. Diese Agents arbeiten zusammen, tauschen Kontext aus und führen Aufgaben systemübergreifend aus. Skalierung entsteht durch Struktur – nicht durch einzelne Modelle. In unserem Ansatz wird diese Multi-Agent-Orchestrierung in eine bestehende Plattformarchitektur eingebettet mit Komponenten wie AI Foundry, Microsoft Fabric und AI Search.

Warum ist Change Management bei KI-Projekten entscheidend? Vertrauen entsteht durch Transparenz. Mitarbeitende müssen verstehen, was ein Agent tut – und was nicht. Führung muss klar kommunizieren, denn KI ersetzt keine Verantwortung. Darum sagen wir klar: Vertrauen schaffen, neue Arbeitsweisen verankern, Rollen verändern. Dabei muss Führung von Kontrolle zu Coaching wechseln. Wer Change nicht aktiv führt, erzeugt Widerstand. Wenn Sie einem CEO heute einen Rat geben dürften – welcher wäre das? Delegieren Sie KI nicht. Verstehen Sie KI als strategisches Steuerungsinstrument ihres Unternehmens. Behandeln Sie KI nicht als Tool, sondern als strategische Unternehmensfähigkeit.

Sanche
«Unser Ziel: Unternehmen

in

der dezentralisierten,

autonomen digitalen Wirtscha zum Erfolg zu führen.»

The Hashgraph Group (THG) ist ein führendes in der Schweiz ansässiges Web3- und KI-Technologie-Engineering-Unternehmen, das ausschliesslich im Hedera Hashgraph-Ökosystem tätig ist. Hedera ist eine Distributed Ledger Technology (DLT), die Vertrauen und sichere Transaktionen in der digitalen Wirtscha ermöglicht.

Hedera wird von einem Gremium («Hedera Council») führender globaler Organisationen wie Dell, Deutsche Telecom, FedEx, Google, Hitachi, IBM und Standard Bank geleitet, um nur einige der mehr als 30 Gremiumsmitglieder zu nennen. CEO Stefan Deiss erläutert die Kraft eines neuen «barrierefreien Wirtschaftens», das allen Menschen und Unternehmen zugutekommen kann.

Herr Deiss, könnte man sagen, dass das magische Wort des zukünftigen digitalen Wirtschaftens «Vertrauen» ist? Tatsächlich braucht die digitale Wirtschaft Vertrauen, Transparenz und Rückverfolgbarkeit. Im Zeitalter von Agentic AI wird Vertrauen im gesamten Spektrum digitaler Interaktionen und Transaktionen noch herausfordernder und entscheidender. Während Transparenz von grösster Bedeutung ist, muss Vertrauen zuerst geschaffen werden und ist in der digitalen Welt letztlich entscheidend. Schauen Sie sich zum Beispiel die zahlreichen Datenhacks an, von denen wir jeden Tag hören – von Identitätsdiebstahl über Informationsmissbrauch bis hin zu falschen Produktbeweisen und nun auch Sprachbetrug durch Agentic AI und Angriffen durch Imitationen. Daher sind Transparenz und verifizierte Informationen der Schlüssel, um nachweisbares Vertrauen in jedem einzelnen Schritt digitaler Interaktionen und Transaktionen, einschliesslich der Produktion und Lieferketten, zu schaffen. Und genau das

bringen wir mit Hedera als Vertrauensinfrastrukturschicht der digitalen Wirtschaft mit, die digitale Authentifizierung, manipulationssichere Daten und integrierte Compliance gewährleistet. Vielleicht haben Sie aktuell von der Geschichte gehört, in der ein CFO einen Anruf von seinem CEO erhielt, der darum bat, eine Million Dollar auf sein Firmenkonto zu überweisen. Leider war der CEO aber ein KI-Sprachklon mit Deepfake-Technologie, um eine unautorisierte Überweisung auszulösen. Dies ist ein Beispiel für die vielen Herausforderungen, denen wir heute gegenüberstehen, die über reine Datenhacks hinausgehen und auch Führungskräfte und Unternehmenskommunikation nachahmen.

Wie wichtig ist es, den Unterschied zwischen einem Menschen, einem Gerät oder einem KI-Agenten in der digitalen Welt zu kennen?

Sehr wichtig – und es ist Teil unserer Mission, Lösungen wie IDTrust zu entwickeln, die die Überprüfung von Zugangsdaten sowohl für Menschen als auch für Geräte sowie KI-Agenten ermöglichen. IDTrust überprüft und definiert neu, wie digitale Identität Vertrauen für Einzelpersonen und Institutionen bietet, eine sichere und nahtlose Authentifizierung ermöglicht und gleichzeitig die volle Kontrolle über persönliche Daten zurückerlangt. IDTrust basiert auf Hedera und verwendet quantenresistente Kryptographie zur Verifizierung von Identitäten, was mehr Vertrauen, Authentizität und Sicherheit in die digitale Welt bringt. IDTrust beantwortet mehrere entscheidende Fragen: Wem gehört das Gerät? Wer kontrolliert es? Wer trainiert und unterrichtet den KI-Agenten? Egal, ob Sie mit echten Menschen oder einer Maschine verbunden sind oder autonome Transaktionen mit KI-Agenten durchführen – wir brauchen Vertrauen in all diese Interaktionen und Transaktionen. Wenn KI-Agenten für autonome Transaktionen oder Geschäftspraktiken im Auftrag des Unternehmens eingesetzt werden, müssen wir wissen, wer hinter dem KI-Agenten steckt und ihn kontrolliert. Bei THG bieten wir digitale Identität sowie digitale Geld-Wallets für den Einsatz von KI-Agenten an. Die ID-Zugangsdaten werden auf einer digitalen Identitäts-Wallet gespeichert, und IDTrust überprüft die reale oder juristische Person, die auf Daten zugreift, eine autonome Transaktion durchführt oder eine Aktivität ausführt.

Wie werden Unternehmen in Zukunft agieren – und wie unterscheidet sich Hedera DLT von traditionellen Blockchain-Architekturen?

Die Welt bewegt sich rasant auf eine Ära autonomer Geschäftsbetriebe und autonomer Finanztransaktionen zu. Fast alles, was wir heute durch Menschen erledigen – von der Erstellung juristischer Dokumente über die Erstellung von Strategiepapieren bis hin zur Vertragsverhandlung und zur Bereitstellung von Finanzdienstleistungen, Zahlungen, technischen Implementierungen und vielen Mensch-zu-Mensch-(H2H)-Transaktionen – wird in naher Zukunft vollständig von geschulten KI-Agenten mit minimalem oder gar keinem menschlichen Eingriff abgewickelt. Menschen müssen sich weiterbilden, um in zukünftigen Organisationen neben KI-Systemen effektiv zu agieren. Bei THG stellen wir uns eine Zukunft autonomer Geschäftsabläufe so vor: Wir werden alle täglichen Abläufe mit KI-Agenten über ein Dashboard («Command Centre») verwalten, in dem unsere digitalen Mitarbeiter komplexe Interaktionen innerhalb unseres Unternehmens durchführen und Geschäftstransaktionen mit Kunden und externen

Stakeholdern durchführen, einschliesslich dieses Interviews mit Ihnen. Obwohl KI viele menschliche Aktivitäten ersetzen wird, wird weiterhin Human-inthe-Loop (HITL) für Datenannotation, Reinforcement Learning und die Einhaltung von Leistungskennzahlen durch digitale Mitarbeitende erforderlich sein. Hedera unterscheidet sich deutlich von traditionellen Blockchain-Netzwerken, da seine Architektur darauf ausgelegt ist, die Vertrauensschienen für KI-Systeme bereitzustellen, mit Real-time Finality, kostengünstiger Überprüfbarkeit und manipulationssicheren Daten für autonome Agenten und intelligente Anwendungen. Als Vertrauensschicht der digitalen Wirtschaft bietet Hedera eine quantenresistente Infrastruktur mit höchsten Sicherheits- und Skalierbarkeitsstufen.

Wie wichtig ist das regulatorische Umfeld – besonders hier in der Schweiz?

Die Schweiz war stets ein Vorreiter und bot eine weltweit führende Rechtsordnung bei der Bereitstellung regulatorischer Rahmenbedingungen für technologische Innovationen. Wie beim Schweizer DLT-Gesetz, das 2020 vom Parlament verabschiedet wurde und Rechtssicherheit für digitale Vermögenswerte bot, wird die Schweiz auch eine führende Rolle bei der Definition des regulatorischen Rahmens für KI spielen. Während das Schweizer KI-Recht überarbeitet wird, um internationale Standards zu erfüllen, ratifizierte die Schweiz das Rahmenübereinkommen des Europarats über KI – das erste rechtsverbindliche internationale Abkommen zum Schutz der Menschenrechte, Demokratie und Rechtsstaatlichkeit während des gesamten KI-Lebenszyklus. Im Allgemeinen werden regulatorische Rahmenbedingungen technologischen Innovationen immer hinterherhinken, und das gilt auch für KI. Da sich die Technologie weiterentwickelt und reift, passen sich Regulierungsbehörden oft schnell an, um regulatorische Rahmenbedingungen zu schaffen, damit Unternehmen in einem regulierten Umfeld operieren können. Wir arbeiten eng mit den Regulierungsbehörden bei allem zusammen, was wir sowohl für Web3 als auch für KI entwickeln.

THG hat kürzlich TrackTrace für DPPCompliance eingeführt. Wie funktioniert TrackTrace und welche Vorteile gibt es?

TrackTrace wurde vollständig im Einklang mit den EU-Vorschriften für den Digital Product Passport (DPP) entwickelt, die im Rahmen der Ecodesign for Sustainable Product Regulation (ESPR) stehen. TrackTrace verbessert die globale Transparenz in der Lieferkette durch die Echtzeitverfolgung von Produkten zu ihrer Herkunft, ethischen Herstellung und ihren CO2-Emissionsdaten. Unsere Hedera-gestützte DPP-Lösung erstellt überprüfbare Audit-Trails von Produktinformationen, Haltbarkeit, Reparabilität, Nachhaltigkeitsqualifi kationen und verschiedenen anderen produktbezogenen Daten mit der Integration von Agentic AI zur Workflow-Automatisierung. TrackTrace ermöglicht eine verifizierbare Verknüpfung zwischen physischen Ereignissen und digitalen Datensätzen in einer manipulationssicheren Umgebung, indem es unsere bestehende IDTrustLösung zur Überprüfung der Zugangsdaten integriert. Der Hauptvorteil von TrackTrace ist die Zertifizierung der Produktechtheit und der unveränderlichen Audit-Trails. TrackTrace bietet gleichzeitig vollständige Transparenz, Rückverfolgbarkeit und sicheres Vertrauen durch kryptografisch verifizierte dezentrale Identifikatoren (DIDs). Die

Plattform ist ausserdem interoperabel und kompatibel mit bestehenden ITSystemen wie SAP/ERP und kann entweder vor Ort oder als cloudbasierte Software-as-a-Service-(SaaS)-Lösung bereitgestellt werden, die in unseren Schweizer Rechenzentren gehostet und verwaltet wird.

Viele Unternehmen können nicht überprüfen, wie ihre Produkte hergestellt wurden, wie ihr CO2-Fussabdruck aussieht, oder ob die Produktion das Ergebnis von Kinderarbeit oder moderner Sklaverei ist. Wir bieten Unternehmen die Schicht der kritischen Vertrauensinfrastruktur, die die Einhaltung der DPP-Vorschriften sicherstellt, gleich-

Steckbrief

The Hashgraph Group AG ist ein in der Schweiz ansässiges Web3- und KI-Tech-Engineering-Unternehmen, das im HederaÖkosystem tätig ist. THG ist spezialisiert auf die Planung, Entwicklung und Implementierung von Unternehmenslösungen auf Hedera und konzentriert sich auf die Kommerzialisierung und das Management von Hedera-betriebenen Produkten, die Dezentralisierung und vertrauenswürdige Dateninfrastruktur mit Agentic AI und Workflow-Automatisierung nutzen.

Stefan Deiss ist ein Serienunternehmer und digitaler Geschä sstratege mit über 20 Jahren Erfahrung in der IT-/Telekommunikationsbranche. Als Mitbegründer und CEO der Hashgraph Group leitet er ein globales Innovationsprogramm für Hedera, das Start-ups, Unternehmen und Regierungen ermöglicht, Web3-Lösungen auf Hedera zu

entwickeln. Stefan Deiss hat einen DoppelMBA in International Business (Strategie/ Finanzen/Marketing) von der Zürcher Fachhochschule in Betriebswirtscha (HWZ).

Mehr Informationen unter hashgraph-group.com

Stefan Deiss Co-Founder & CEO

«Regulatorische Rahmenbedingungen werden technologischen Innovationen immer hinterherhinken –und das gilt auch für KI.»

zeitig die Integrität der Lieferkette stärkt und den Übergang zu einer nachhaltigeren, transparenteren und zirkuläreren Wirtschaft fördert. Mit der Integration von Ultra-Wideband (UWB)-Technologie in unsere IDTrustLösung, die in TrackTrace integriert ist, überprüfen wir zunächst «wer Sie sind» durch eine digitale Identität und anschliessend «wo Sie sind» und «wie nah Sie an einer Produktions- oder Industriemaschine oder Fahrzeugbatterie sind» über den UWB-Funkendpunkt auf Ihrem Smartphone. Dieser mehrstufige Verifikationsprozess, der unveränderliche digitale Identität mit einer nicht falsifizierbaren physischen Präsenz verbindet, ist heute eine einzigartige Lösung und die innovativste Funktion von TrackTrace, da wir nicht nur den gesamten Produktlebenszyklus verfolgen und verfolgen können, sondern auch, wer als Mensch, Gerät oder KIAgent direkt am Produktionsprozess beteiligt war.

Wie geht THG mit EcoGuard dazu noch Umweltprobleme an? Durch unsere EcoGuard-Plattform ermöglichen wir Unternehmen, eine DPP-Regulierungslast in eine attraktive kommerzielle Chance zu verwandeln. Da Unternehmen CO2-Emissionsdaten über den gesamten Lebenszyklus eines Produkts hinweg verfolgen und berichten müssen, verwandelt EcoGuard

diese Compliance von einer Belastung in eine nachhaltige Einnahmemöglichkeit, indem es revolutioniert, wie CO2Zertifikate digital erstellt, tokenisiert, gehandelt und ausgebucht werden, um transparente und überprüfbare Klimaschutzmassnahmen zu gewährleisten. Jeder CO2-Kredit ist verifiziert, geprägt, prüfbar und konform, um auf dem globalen Kohlenstoffmarkt verkauft zu werden, was vielen Unternehmen als direkte Folge der DPP-Konformität Umsatz generiert. EcoGuard kombiniert die kryptografisch verankerten Daten von Hedera mit fortschrittlichen Betrugserkennungsfunktionen, während Agentic AI Workflows für eine verbesserte und konforme ESG-Berichterstattung automatisiert. Im Gegensatz zu traditionellen ESG-Berichtsplattformen bietet EcoGuard erweiterbare Komponenten für die Workflow-Orchestrierung, dezentrale Identität (DID) und verifizierbares Credential (VC)-Management über IDTrust, wodurch Unternehmen Carbon-Bank-Lösungen entwickeln können, die spezifischen Sektor- und regulatorischen Anforderungen gerecht werden. Zusammenfassend bieten wir unseren Kunden drei nahtlos integrierte Lösungen an, die die Datenauthentifizierung und digitale Identitätsverifizierung von Menschen, Maschinen und KI-Agenten über IDTrust abdecken. Mit der Überprüfung von Daten und digitaler Identität gewährleistet TrackTrace Transparenz in der Lieferkette durch die Echtzeit-Rückverfolgbarkeit aller Produktdaten über den gesamten Produktlebenszyklus hinweg und entspricht den digitalen Produktpass(DDP)-Vorschriften der EU. Schliesslich nutzen wir EcoGuard, um die Monetarisierung von CO2-Zertifikaten durch digitale Ausgabe, Tokenisierung, Handel und Stilllegung zu ermöglichen und dabei die Vorschriften für den CO2-Markt (z. B. UN Art. 6) einzuhalten und positive Klimaschutzmassnahmen zu erzielen.

Wie bietet THG Unternehmen in der digitalen Wirtschaft Managed Services und technischen Support an?

Unser Team besteht aus Fachleuten und Praktikern mit langjähriger Erfahrung in der Bereitstellung von Managed Services für Unternehmenskunden. Eines der grössten Hindernisse für die Einführung von Blockchain-Unternehmen ist das Fehlen eines professionellen Servicemanagements und garantierter Serviceniveaus. Wir haben deshalb HashCare als weltweit erstes DLTHelpdesk gegründet, das speziell darauf ausgelegt ist, Unternehmen mit Hedera rund um die Uhr technische Unterstützung zu bieten. HashCare, betrieben von THG über sein Global Capability Centre (GCC) in Indien, ist das branchenerste ITIL-konforme Framework für Managed Services auf Hedera. Wir bieten umfassende, mehrstufige technische Unterstützung für Unternehmenslösungen, die auf Hedera basieren, und gewährleisten die Geschäftskontinuität mit garantierten Enterprise Service Level Agreements (SLA), proaktivem Monitoring, automatisierter Fehlerbehebung und autonomer Entscheidungsfindung durch unsere geschulten KI-Digitalarbeiter und unser erfahrenes Team von Hedera-zertifizierten Ingenieuren. Weitere THG-Managed-Services umfassen AssetGuard, eine sichere Wallet in Unternehmensqualität, mit der Organisationen die Treasury digitaler Vermögenswerte steuern können, mit verbesserter Sicherheit, Governance und wichtigen Wiederherstellungsfunktionen. Zum Beispiel ermöglichen wir verifizierten KI-Agenten, autonome Finanztransaktionen über AssetGuard als digitale Geldbörse auszuführen. Und mit unserem Produkt TransAct bieten wir Unternehmen ein sicheres Transaktionsgateway, das es ihnen ermöglicht, in der Web3-Wirtschaft zu interagieren, ohne Krypto- oder digitale Wallets halten zu müssen, wodurch interne Compliance-Risiken für die meisten Unternehmen eliminiert werden.

Welche Rolle wird die AssetTokenisierung in Zukunft spielen? Die Tokenisierung von Vermögenswerten revolutioniert den Besitz und Austausch realer Vermögenswerte in sichere, fraktionierte und handelbare Sicherheitstoken. Nachdem ich 2020 die Aktien schweizerischer Unternehmen und des weltweit ersten regulierten Alternative Investment Fund (AIF) tokenisiert habe, bleibt die Herausforderung dieselbe; Liquidität, Liquidität und nochmal Liquidität fehlen weiterhin aufgrund unzureichender Sekundärmärkte, geringer Handelsvolumen, grosser Bid-Ask-Differenz und fehlender institutioneller Investoren. Tokenisierung bleibt einer der bedeutendsten und transformativsten Anwendungsfälle der Blockchain, aber es wird noch einige Jahre dauern, bis wir reife und liquide Sekundärmärkte für Sicherheitstoken etabliert haben. Zum Beispiel arbeiten wir an einem grossen Nachhaltigkeitsprojekt auf den Philippinen, bei dem wir über 350 Millionen Kokospalmen tokenisieren, die drei Millionen Kokosnussbauer befähigen werden, die durch diese Bäume generierten CO2-Zertifikate zu monetarisieren. Das ergibt dann wirtschaftlich Sinn für die Landwirte, Kokospalmen anzubauen, anstatt sie zu verbrennen, um sie als Holz zu verkaufen. Und je mehr Bäume gepflanzt und erhalten werden, desto mehr verdienen die Landwirte. Dies ist ein weiteres grossartiges Beispiel für Tokenisierung, die positiv zur finanziellen Inklusion von Landwirten beiträgt, die zuvor von der wirtschaftlichen Teilnahme an der digitalen Wirtschaft praktisch ausgeschlossen waren. Auch hier ist eine Datenverifizierung der CO2-Zertifikate erforderlich, was uns wieder zum Thema der Schaffung von Vertrauen in die globalen digitale Wirtschaft bringt.

Das «Alles klar» -Tool

Der Digital Product Pass (DPP) soll Produkte und deren Entstehung für jeden durchsichtig und nachvollziehbar machen. Mit TrackTrace können Unternehmen in Echtzeit zertifizieren, wie und wo ein Produkt hergestellt wurde.

Der Blick auf die Rückseite der Lebensmittelverpackung oder das Schildchen im T-Shirt war nur der Anfang. Kundinnen und Kunden wollen vermehrt wissen, woher ein Produkt stammt und unter welchen Umständen es produziert und transportiert wurde. Der von der EU eingeführte Digital Product Pass soll Produkte und deren Entstehung gläsern machen – und in den nächsten Jahren für sämtliche in der EU vertriebenen Produkte gelten. Zwei Probleme stellen sich dabei: Unternehmen müssen die entsprechenden Informationen zusammentragen. Und sie müssen gleichzeitig lückenlos beweisen, dass diese Informationen auch stimmen und nicht nachträglich verändert wurden.

Die Vorgaben der EU fordern zudem «wichtige Details wie eine eindeutige Produktkennung, Konformitätsdokumente und Informationen zu bedenklichen Stoffen». Durch «die detaillierte digitale Dokumentation des Produktlebenszyklus» optimiere das DPP das Lieferkettenmanagement, gewährleiste die Einhaltung gesetzlicher Vorschriften und unterstütze Unternehmen bei der Identifizierung und Minderung von Risiken im Zusammenhang mit Authentizität und Umweltauswirkungen.

Vollständige Transparenz

Mit TrackTrace bietet das Web3- und KI-Technologie-Engineering-Unternehmen The Hashgraph Group (THG) nun eine Lösung an, die sowohl die Produktechtheit als auch die einzelnen Herstellungs-, Produktions- und Lieferschritte in Echtzeit trackt, verifiziert und festschreibt. Das bedeutet, jedes mit TrackTrace verfolgte Produkt ist vollständig transparent und lückenlos nachverfolgbar. Manipulationen sind dank der kryptografisch verifizierten dezentralen Identifikatoren (DIDs) ausgeschlossen.

Unternehmen, die ihr Produkt überprüfen und zertifizieren und im nächsten Schritt sicher gehen wollen, dass sie konform zu den DPP-Richtlinien der EU handeln, können sich auf TrackTrace verlassen. Die TrackTrace-Plattform stärkt gleichzeitig das Vertrauen in die gesamte Lieferkette, was mit jedem weiteren Produkt, das mit TrackTrace verfolgt und zertifiziert wird, auch die Nachhaltigkeit der Wirtschaft stärkt. Eine digitale Wirtschaft braucht klare Verifizierung, um nicht durch falsche Versprechungen, manipulierte Waren oder schlechte Produktionsbedingungen in Verruf zu kommen oder in Haftung genommen zu werden.

Die Plattform zur umfassenden Produktund Prozessverifizierung

Clou von TrackTrace ist ein mehrstufiger Verifikationsprozess, der eine nicht manipulierbare digitale Identität mit einer eindeutigen physischen Präsenz verbindet. TrackTrace transformiert und verbessert dadurch die Transparenz der Lieferkette – mit Echtzeit-Tracking von Herkunft, ethischer Beschaffung und Daten zu CO2-Emissionen. Dadurch, dass TrackTrace ein Produkt auf seinem gesamten Weg verfolgt, bietet es Transparenz, Rückverfolgbarkeit und Prüfbarkeit für Regulierungsbehörden, Produzenten, Hersteller und Verbraucher sowie alle anderen Beteiligten im gesamten Lebenszyklus eines Produkts.

Aufzeichnung realer Aktionen Heutzutage leiden Rückverfolgbarkeitssysteme häufig unter den Kernproblemen manueller, papierbasierter und isolierter Datenerfassung. Da keine Verbindung zwischen physischen Ereignissen und digitalen Aufzeichnungen besteht, sind die meisten Audits intransparent, teuer und zeitaufwendig. Zentralisierte Datenbanken erfordern Vertrauen in die Anbieter und erschweren die Überprüfung von Herkunftsangaben, da Daten nachträglich manipuliert werden können.

TrackTrace wandelt reale Aktionen von Personen, Geräten oder Systemen in überprüfbare, manipulationssichere digitale Aufzeichnungen um, indem es dezentrale Identitäten (DIDs), überprüfbare Anmeldeinformationen (VCs), digitale ausführbare Geschäftsprozesse und unveränderliche Datenprüfprotokolle integriert, die auf Hedera basieren – der weltweit energieeffizientesten Distributed-Ledger-Technologie.

Wichtigste Vorteile von TrackTrace TrackTrace ermöglicht Unternehmen die Zertifizierung der Echtheit und ethischen Herkunft aller in ihren Produkten verwendeten Materialien. Jeder verfolgte Prozess erhält eine eigene dezentrale Kennung, die als unveränderlicher und überprüfbarer Datensatz alle übermittelten Daten, Nachweise und Validierungen zusammenfasst. Dies ermöglicht es jedem autorisierten

Dritten, ein Produkt, einen Geschäftsprozess oder eine Forderung unabhängig zu prüfen, ohne auf eine zentrale Instanz angewiesen zu sein, während gleichzeitig die Berichterstattung über Nachhaltigkeitsthemen durch die Integration von Agentic AI-Workflows automatisiert wird.

Transparent

Die Datenerfassung erfolgt transparent, verifiziert und manipulationssicher, um Echtzeit-Authentizität zu gewährleisten.

• Automatisierte Arbeitsabläufe: Agentische KI wird zur Automatisierung von Arbeitsabläufen und Datenerfassung eingesetzt.

• Rückverfolgbar

• Rückverfolgbarkeit der Produktherkunft, der Nachhaltigkeitsnachweise und der gesamten Zusammensetzung.

• Die Berichtspflichten entsprechen den EU-Vorschriften für den Digital Product Passport (DPP).

Überprüfbar

Jeder Geschäftsprozessschritt wird kryptografisch verifiziert und mit einer dezentralen Identität verknüpft.

Verbesserte E izienz

Weniger manuelle Eingriffe und ein weitgehend autonomer Prozess.

TrackTrace-Plattform

TrackTrace ermöglicht eine genaue Emissionsverfolgung und die Einhaltung der EU-Vorschriften für den Digitalen Produktpass (DPP) im Rahmen der Ökodesign-Verordnung für nachhaltige Produkte (ESPR).

Branchenanwendungsfälle

TrackTrace transformiert und gestaltet die Lieferkette für Landwirte, Erzeuger, Hersteller, Einzelhändler und Verbraucher in der EU und weltweit neu. TrackTrace gewährleistet transparentes, nachvollziehbares und verifizierbares Datenmanagement entlang komplexer globaler Lieferketten und definiert so die Produktentwicklung und das Produktmanagement über den gesamten Lebenszyklus hinweg neu – bei gleichzeitig positivem Klimaschutz.

«Jedes mit TrackTrace verfolgte Produkt ist vollständig transparent und lückenlos nachverfolgbar.»

«Technologie muss nicht nur angewendet, sondern auch verstanden werden»

die Clouddienste und damit auch den

Seit zwei Jahren ist Christian Keller Managing Director Europe Central bei Amazon Web Services (AWS), verantwortlich für die Schweiz, Österreich sowie Zentral und Osteuropa. Im Interview spricht er über die Herausforderungen einer schnelleren Digitalisierung und wie Flexibilität, Resilienz und Innovation die Clouddienste und damit auch den Erfolg der Unternehmen beeinflussen.

VON RÜDIGER SCHMIDT-SODINGEN

m Interview spricht er über die Herausforderungen einer schnelleren Digitalisierung und wie Flexibilität, Resilienz und Innovation die Clouddienste und damit auch den Erfolg der Unternehmen beeinflussen.

Herr Keller, eigentlich wollen Unternehmen so schnell wie möglich ihre Arbeit und Workflows digitalisieren. Tun sie es denn auch?

durchdringt. Technologie muss nicht nur angewendet, sondern auch verstanden werden – das braucht Zeit und Engagement auf allen Ebenen.

Die Absicht ist definitiv da, aber zwischen Wollen und Tun klafft oft noch eine Lücke. Viele Unternehmen stehen vor einem klassischen Dilemma: Sie erkennen die Dringlichkeit der Digitalisierung, kämpfen aber gleichzeitig mit dem Tagesgeschäft. Was ich in den letzten Jahren beobachte, ist ein Wandel in der Herangehensweise. Früher haben Unternehmen versucht, alles auf einmal zu transformieren mit entsprechend hohen Risiken und oft enttäuschenden Ergebnissen. Heute sehen wir einen pragmatischeren Ansatz: Unternehmen starten mit konkreten Anwendungsfällen, die schnell Mehrwert liefern, und bauen darauf auf. Die erfolgreichsten Organisationen verstehen Digitalisierung nicht als IT-Projekt, sondern als kontinuierlichen Veränderungsprozess, der das gesamte Unternehmen

Sind die grossen Herausforderungen in den unterschiedlichen Branchen ähnlich oder muss man schon am Anfang jeder Lösungsfindung branchen- und unternehmensspezifisch denken? Es gibt durchaus gemeinsame Nenner: Fachkräftemangel, Kostendruck, regulatorische Anforderungen und die Notwendigkeit, schneller zu innovieren, betreffen praktisch alle Branchen. Aber die Lösungswege sind sehr unterschiedlich. Ein Finanzdienstleister hat andere Prioritäten als ein Industrieunternehmen oder ein Gesundheitsversorger. Im Finanzsektor stehen oft Compliance und Echtzeit-Datenverarbeitung im Vordergrund, während produzierende Unternehmen ihre Lieferketten optimieren und Produktionsprozesse automatisieren wollen. Interessant ist, dass Innovationen oft branchenübergreifend entstehen. Der Schlüssel liegt darin, branchenspezifische Anforderungen zu verstehen und gleichzeitig offen für Lösungsansätze aus anderen Bereichen zu bleiben.

Wo benötigen Unternehmen derzeit am meisten Hilfe oder Unterstützung?

Die grösste Herausforderung ist nicht technischer, sondern kultureller Natur. Unternehmen brauchen Unterstützung dabei, eine Innovationskultur zu etablieren, in der Experimentieren erlaubt ist und Fehler als Lernchancen verstanden werden. Konkret sehe ich drei Bereiche: Erstens, die Befähigung der Mitarbeitenden. Es reicht nicht, neue Technologien einzuführen. Die Menschen müssen verstehen, wie diese genutzt werden und welchen Mehrwert sie schaffen. Zweitens, die Entwicklung einer klaren Datenstrategie. Viele Unternehmen sitzen auf einem Schatz an Daten, wissen aber nicht, wie diese systematisch genutzt werden können. Drittens, die Balance zwischen Innovation und Sicherheit. Unternehmen wollen schnell sein, aber nicht auf Kosten von Compliance und Datenschutz.

Unterscheidet sich der Grad der Digitalisierung innerhalb Europas? Absolut. Europa ist sehr heterogen, was den Digitalisierungsgrad angeht. Die nordischen Länder sind traditionell Vorreiter, mit einer starken digitalen Infrastruktur und hoher Akzeptanz für neue Technologien. In Mitteleuropa mit Deutschland, Schweiz und Österreich haben wir eine starke industrielle Basis mit exzellentem Engineering-Know-how, aber manchmal eine gewisse Zurückhaltung bei der Adoption neuer Technologien. Osteuropa überrascht oft positiv: Hier sehen wir sehr agile, technologieaffine Unternehmen, die ohne Legacy-Systeme direkt moderne Lösungen implementieren können. Was alle Regionen eint, ist der Wille, aufzuholen und die digitale Souveränität zu stärken.

Wie entwickelt sich der Schweizer Markt? Sind die Unternehmen hierzulande gut genug aufgestellt, um Innovationen mit technischen Lösungen zu verbinden?

Die Schweiz hat hervorragende Voraussetzungen. Hochqualifizierte Fachkräfte, eine starke Forschungslandschaft mit Weltklasse-Universitäten und eine Unternehmenskultur, die Qualität und Präzision schätzt. Schweizer Unternehmen sind traditionell sehr innovativ, denken Sie an die Pharma-, Finanz- oder Präzisionsindustrie. Was ich beobachte, ist eine zunehmende Bereitschaft, auch bei digitalen Technologien mutiger zu werden. Gerade im Mittelstand, dem Rückgrat der Schweizer Wirtschaft, sehen wir einen Aufholprozess. Viele KMU erkennen, dass durch intelligente Technologienutzung ihre Wettbewerbsfähigkeit nicht nur erhalten, sondern ausgebaut werden kann.

Zunehmend wichtig werden Datensicherheit und Compliance. Viele Unternehmen haben Angst, den Anforderungen nicht entsprechen zu können. Was ist auf diese Angst die beste Antwort?

Diese Sorge ist verständlich, aber oft unbegründet. Die beste Antwort ist Transparenz und Aufklärung. Moderne Technologieplattformen sind heute so konzipiert, dass höchste Sicherheits- und Compliance-Standards erfüllt werden – oft besser, als es einzelne Unternehmen mit eigenen Rechenzentren könnten. Dann gibt es noch das Prinzip der geteilten Verantwortung: Der Technologieanbieter sorgt für die Sicherheit der Infrastruktur, das Unternehmen für die Sicherheit seiner Daten und Anwendungen. Unternehmen können genau festlegen, wo ihre Daten gespeichert werden, wer Zugriff hat und wie diese verschlüsselt werden. Data Residency ist dabei ein zentrales Thema: Gerade in der Schweiz und in regulierten Branchen wollen Unternehmen die Gewissheit haben, dass ihre Daten das Land nicht verlassen. Mit unserer Infrastrukturregion in der Schweiz sind wir sehr gut aufgestellt, genau diese Anforderungen zu erfüllen. Regulierungen wie das Schweizer Datenschutzgesetz sind keine Hindernisse, sondern Leitplanken, die Vertrauen schaffen.

Steckbrief

Christian Keller ist seit Februar 2020 bei Amazon Web Services (AWS) in verschiedenen Rollen tätig. Seit Januar 2024 leitet er als Managing Director die Region Europe Central und verantwortet damit das AWS Geschä in 34 Ländern. Keller setzt sich besonders für die Demokratisierung von Cloud- und KI-Technologien ein. Er arbeitet eng mit Führungskrä en aus verschiedenen Branchen zusammen, um diese bei der digitalen Transformation zu unterstützen, und engagiert sich für die Ausbildung von Tech-Talenten in der Region.

Der Austausch mit Branchenverbänden, Universitäten und politischen Entscheidungsträgern ist für ihn zentral, um Innovation und Wettbewerbsfähigkeit in Europa zu stärken. Vor AWS baute Keller als Country Manager das Enterprise-Geschä von Apple in der Schweiz auf und bekleidete verschiedene Führungspositionen bei HPE und HP.

Sie haben im letzten Jahr Flexibilität, Resilienz und Innovation als wichtigste Stichwörter für Unternehmen genannt. Lassen sich diese drei Stichwörter denn heute leichter verbinden als früher?

Definitiv ja. Die technologische Entwicklung der letzten Jahre hat genau das ermöglicht. Früher mussten Unternehmen massive Vorabinvestitionen tätigen und sich langfristig festlegen. Das war das Gegenteil von Flexibilität. Heute können Ressourcen nach Bedarf genutzt, schnell skaliert und neue Ideen mit minimalem Risiko getestet werden. Resilienz war früher oft gleichbedeutend mit Redundanz und damit teuer. Heute können Unternehmen verteilte, hochverfügbare Systeme aufbauen, die automatisch auf Ausfälle reagieren. Und Innovation? Die ist demokratisiert worden. Auch kleinere Unternehmen haben Zugang zu Technologien, die früher nur Konzernen vorbehalten waren. Was sich geändert hat, ist die Geschwindigkeit: Unternehmen können heute in Wochen umsetzen, wofür sie früher Jahre brauchten.

Wie hängen KI-Managementsysteme und Clouddienste zusammen? Was sind dort die Perspektiven für die nächsten Jahre? KI und Cloud sind untrennbar miteinander verbunden. KI-Anwendungen benötigen Rechenleistung und die Verarbeitung von grösseren Datenmengen – beides stellt die Cloud bereit. Aber es geht um mehr als nur Infrastruktur. Die Cloud demokratisiert den Zugang zu KI. Unternehmen jeder Grösse können heute KI-Modelle nutzen, ohne selbst Experten für generative KI sein zu müssen. Was wir gerade erleben, ist der Übergang von einzelnen KI-Modellen zu KI-Agenten: autonome Systeme, die eigenständig Aufgaben planen, ausführen und dabei mit anderen Systemen interagieren. Das verändert die Art, wie Unternehmen arbeiten, grundlegend.

Ein KI-Agent übernimmt nicht nur eine Routineaufgabe, er koordiniert ganze Workflows, trifft Entscheidungen im definierten Rahmen und lernt dabei. Die entscheidende Frage ist nicht mehr, ob Unternehmen KI einsetzen, sondern wie sie KI-Agenten sicher und kontrolliert in ihre Prozesse integrieren. In den nächsten Jahren wird KI noch stärker in alltägliche Geschäftsprozesse integriert werden. Wir sprechen dann nicht mehr von KI als separatem Projekt, sondern als selbstverständlichem Bestandteil von Anwendungen. Die Perspektive ist klar: KI wird zum Wettbewerbsfaktor.

Sie sind auch ein Verfechter für bessere Ausbildungsprogramme und eine bessere Befähigung der Mitarbeitenden in den Unternehmen. Was braucht es, um die Potenziale der Cloudtechnik zu erklären und verstehen? Bildung ist der Schlüssel zur digitalen Transformation. Wir haben eine Verantwortung, Menschen zu befähigen, nicht nur Technologie zu nutzen, sondern zu verstehen und mitzugestalten. Das beginnt in den Schulen und Universitäten, aber es endet nicht dort. Lebenslanges Lernen ist keine Phrase, sondern Notwendigkeit. Unternehmen müssen die Weiterbildung ihrer Mitarbeitenden als strategische Investition verstehen. Wir bieten beispielsweise viele kostenlose Schulungsprogramme an und haben uns verpflichtet, Millionen Menschen weltweit zu schulen. In der Schweiz arbeiten wir mit Universitäten, Fachhochschulen und Berufsbildungsorganisationen zusammen, um KI und Cloudkompetenzen zugänglich zu machen.

Gibt es eine Branche, wo sich die Fortschritte mittels KI und Clouddiensten besonders klar zeigen? Es gibt mehrere Branchen, die beeindruckende Fortschritte machen. Im Gesundheitswesen sehen wir, wie KI bei der Diagnose unterstützt, Medikamentenentwicklung beschleunigt und personalisierte Behandlungen ermöglicht. Die Finanzbranche nutzt KI für Betrugserkennung, Risikomanagement und personalisierte Finanzberatung. Gerade im Finanzsektor spielt Data Residency eine besondere Rolle: Banken und Versicherungen müssen sicherstellen, dass Kundendaten innerhalb definierter geografischer Grenzen bleiben und KI-Agenten, die Kreditentscheidungen oder Risikoanalysen automatisieren, müssen diese Anforderungen von Anfang an berücksichtigen. Besonders spannend finde ich die Entwicklung in der Fertigungsindustrie. Hier ermöglichen KI- und Cloud-Technologien eine völlig neue Ebene der Produktionsoptimierung: Predictive Maintenance verhindert Ausfälle, bevor diese passieren, digitale Zwillinge simulieren Produktionsprozesse, und intelligente Roboter arbeiten flexibel und sicher mit Menschen zusammen. Was alle diese Beispiele zeigen: Die grössten Fortschritte entstehen dort, wo Unternehmen bereit sind, ihre Prozesse grundlegend zu überdenken und Technologie als Enabler für neue Geschäftsmodelle zu verstehen.

«Die entscheidende Frage ist nicht mehr, ob Unternehmen KI einsetzen, sondern wie sie KI-Agenten sicher und kontrolliert in ihre Prozesse integrieren.»

Richmond Events Schweiz bringt führende Entscheidungsträger in einem exklusiven Rahmen zusammen.

Entdecken Sie unsere Foren

«KI ist der Schlüssel für Innovationsfähigkeit und digitale Selbstbestimmung»

KI ist in der Arbeitswelt angekommen und erhöht den Druck auf Unternehmen, ihre ITund Arbeitsstrukturen entsprechend anzupassen. Warum digitalisierte und transformierte Prozesse Unternehmen besser machen, erklärt Martin Kull, Vice President Switzerland des führenden IT-Dienstleisters Bechtle.

Herr Kull, wie bewerten Sie als langjähriger IT-Experte die Entwicklungen der Digitalisierung? Geht es in den Unternehmen schneller oder langsamer voran als gedacht?

Die Digitalisierung entwickelt sich sehr dynamisch, insbesondere seit der Pandemie, die Homeoffice und flexible Arbeitsmodelle beschleunigt hat. Viele Unternehmen haben ihre digitalen Initiativen massiv vorangetrieben, dennoch ist das Tempo sehr unterschiedlich. Grosse Organisationen können Projekte strukturiert umsetzen, während kleinere Betriebe oft noch bei der technischen Umsetzung und Integration digitaler Tools aufholen müssen. Insgesamt bewegen wir uns in die richtige Richtung, aber nicht alle Unternehmen sind gleich schnell unterwegs. Gleichzeitig stellen wir bei Bechtle fest, dass neben Geschwindigkeit und Innovationskraft zunehmend auch Fragen nach Datenstandort, rechtlicher Kontrolle und digitaler Selbstbestimmung in den Fokus rücken, insbesondere im Zusammenhang mit souveränen Cloud-Modellen innerhalb der Schweiz.

Denken Unternehmen die vielen unterschiedlichen Arbeitsplatz-, Regulierungs- und Sicherheitsanforderungen denn erfolgreich zusammen? Wo sehen Sie, unabhängig von der Unternehmensgrösse, Optimierungsbedarf? Grundsätzlich gelingt die Koordination gut, vor allem, wenn klare Prozesse und Zuständigkeiten definiert sind. Die Vielzahl an Vorschriften und Standards stellt jedoch nach wie vor eine Herausforderung dar. Manche Abteilungen arbeiten isoliert, sodass ein ganzheitlicher Überblick fehlt. Wir bei Bechtle unterstützen unsere Kunden hier mit klar strukturierten Governance- und Cloud-Frameworks. Eine Schweizer Sovereign Cloud verstehen wir nicht nur als Infrastruktur, sondern als ganzheitliches Betriebsmodell mit definierter Dateninfrastruktur in der Schweiz, kontrollierten Zugriffsmodellen, transparenten Betriebsprozessen und klarer regulatorischer Einbettung.

Neben den positiven Seiten der Digitalisierung, etwa den Chancen für mehr Produktivität, sind allerdings auch Cybersecurity und Informationssicherheit zu Themen geworden. Wie sollten Unternehmen damit umgehen?

Das Risiko, Opfer von hochprofessionellen Cyberkriminellen zu werden, ist

in den vergangenen Jahren deutlich gestiegen. Grosse Cyberangriffe auf Unternehmen erfolgen heute nicht mehr zufällig, sondern werden gezielt geplant, indem die Angreifer Schwachstellen ausnutzen. Sicherheit ist daher keine Option, sondern ein fester Bestandteil jeder Digitalstrategie und sollte von Beginn an in Systeme und Prozesse integriert werden. Wir bei Bechtle unterstützen Unternehmen ganzheitlich im Bereich Cybersecurity: von der Analyse über die Implementierung geeigneter Schutzmassnahmen bis hin zur Incident Response. Unsere Expert:innen verbinden dabei rechtliche, organisatorische und technische Aspekte zu einem integrierten Sicherheitskonzept.

Welche Rolle spielt KI – auch im Hinblick auf immer grössere Datenmengen, Datacenter und Multicloud-Lösungen, die gemanagt werden müssen? KI ist essenziell, um der wachsenden Komplexität moderner IT-Infrastrukturen Herr zu werden. In Multicloud-Umgebungen und modernen Datacentern fallen enorme Datenmengen an, die ohne KI kaum effizient zu bewältigen sind. In der Schweiz setzen bereits rund 46 % der Unternehmen auf KI-Technologien, und mehr als 75 % betreiben Multicloud-Umgebungen. KI unterstützt auch in souveränen Cloud-Architekturen wichtige Aufgaben, beispielsweise zur automatisierten Durchsetzung von Compliance-Vorgaben, zur AnomalieErkennung in sicherheitskritischen Umgebungen oder zur intelligenten Steuerung hybrider Multi-Cloud-Modelle.

Wozu können oder sollten Unternehmen KI einsetzen und wie stark müssen Mitarbeitende eingebunden werden? Unternehmen sollten KI überall dort einsetzen, wo sie messbaren Mehrwert schafft, etwa indem sie repetitive Aufgaben automatisiert, Prozesse effizienter gestaltet oder datenbasierte Entscheidungen verbessert. In vielen Branchen unterstützt KI bereits die Betrugsprävention im Finanzbereich, personalisierte Angebote im Handel, die Optimierung von Lieferketten, vorausschauende Wartung in der Industrie oder die Diagnoseunterstützung im Gesundheitswesen. Darüber hinaus eröffnet sie neue Möglichkeiten für innovative Geschäftsmodelle und nachhaltigere Prozesse. KI ist kein Selbstzweck und kein Ersatz für menschliche Expertise, sondern ein Werkzeug, das Kompetenzen erweitert.

Wird KI den Personalmangel in einigen Branchen auffangen können oder müssen?

Teilweise kann KI Engpässe abfedern, besonders bei standardisierten Prozessen. Sie ergänzt damit Fachkräfte, aber echte Expertise bleibt unverzichtbar. Bechtle betrachtet KI als Schlüsseltechnologie der Zukunft, mit der Unternehmen nicht nur Prozesse automatisieren, sondern Mitarbeitende gezielt durch die Automatisierung von Routinetätigkeiten entlasten und stärker für wertschöpfende Aufgaben befähigen können. Entscheidend ist, dass Mitarbeitende geschult werden, um die Technologie effektiv zu nutzen. So steigert KI die Produktivität, ohne dass

«KI ist kein Selbstzweck und kein Ersatz für menschliche Expertise, sondern ein Werkzeug, das Kompetenzen erweitert.»

Steckbrief

Bechtle Switzerland vereint die Bechtle Schweiz AG, die Bechtle direct AG und die Bechtle Suisse SA und ist ein führender IT-Dienstleister der Schweiz und für KMU, Grossunternehmen und den ö entlichen Sektor. Wir sind Partner erster Wahl für Consulting, IT-Infrastruktur, Cloud-Lösungen, IT-Services und So ware. Das Angebot umfasst von der Beratung über die Umsetzung bis zum Betrieb den gesamten IT-Life-Cycle. Die Kunden profitieren von höchsten Partnerzertifizierungen bei den meisten namha en Herstellern. Die Bechtle Gesellscha en in der Schweiz sind Unternehmen der Bechtle Gruppe. Der Konzern ist einer der führenden IT-Dienstleister in Europa und verbindet an über 120 Standorten in 14 europäischen Ländern persönliche Betreuung, digitale Services und globale Zusammenarbeit. Bechtle ist im deutschen MDAX und im TecDAX notiert.

Martin Kull ist seit 2025 Vice President von Bechtle Switzerland. Als erfahrener Manager in der Telekommunikations- und ITBranche war er von 2016 bis 2024 führend bei Orange Business in der Schweiz tätig und wurde 2022 zum Managing Director für

wertvolles Know-how verloren geht. Wir unterstützen Unternehmen dabei auch mit praxisnahen Schulungen und Workshops.

Wie sehr sollten Unternehmen, aber auch der öffentliche Sektor daran arbeiten, digitale Souveränität zu erreichen?

Digitale Souveränität ist zentral, vor allem bei sensiblen Daten oder kritischer Infrastruktur, und spielt insbesondere bei der Digitalisierung der öffentlichen Verwaltung eine wichtige Rolle. Unternehmen und öffentliche Institutionen sollten die Kontrolle über ihre Daten, Prozesse und Systeme behalten. Hybride Lösungen, offene Standards und sichere Cloud-Infrastrukturen sind dabei ebenso entscheidend wie der Aufbau eigener Kompetenzen im Datenmanagement. Wir stärken die digitale Souveränität unserer Kunden, indem wir ihre Assets, Prozesse und Motivation analysieren, einen Souveränitätswert errechnen und Schwachstellen identifizieren, um gezielte Handlungsfelder abzuleiten. Dafür bringen wir ein einzigartiges, softwarebasiertes Assessment auf den Markt – den Bechtle Index of Sovereignty, kurz: BIoS. Zur Unterstützung öffentlicher Institutionen haben wir zudem den schweizweiten Public Cluster eingeführt. Dabei bündeln wir

die gesamte DACH-Region und Osteuropa ernannt. Bekannt ist er für seine strategische Führung, seine Expertise in digitalen Transformationsprojekten sowie für seine Fähigkeiten im Team- und Partnermanagement. Abseits des Berufs zeichnet sich Kull durch persönliche Leidenscha en wie Kochen, Segeln und Skifahren aus. Mehr Informationen unter bechtle.com

Martin Kull Vizepresident Switzerland

die Kompetenzen aller drei Schweizer Bechtle Gesellschaften, sodass Kunden in allen Regionen auf ein integriertes Netzwerk von Spezialist:innen zugreifen können. Ziel des Clusters ist es, Prozesse zu vereinheitlichen, die Zusammenarbeit zwischen den Leistungseinheiten zu erleichtern und öffentliche Kunden zentral bei der Umsetzung digitaler Projekte zu unterstützen.

Wie werden sich die IT-Architekturen in den nächsten Jahren noch verändern?

IT-Architekturen werden modular, flexibel und cloudbasiert. Monolithische Systeme weichen zunehmend serviceorientierten Strukturen, die skalierbar, wartbar und besser an dynamische Anforderungen angepasst sind. Die Zukunft liegt in einer stärkeren Zusammenführung von Cloud-, On-Premisesund Multicloud-Umgebungen sowie KI-gesteuerten Prozessen. In diesem Kontext positioniert sich Bechtle mit einer Schweizer Sovereign Cloud als strategischer Partner. Wir verbinden moderne Cloud-Technologien mit vertrauenswürdiger Dateninfrastruktur, Betrieb und Governance innerhalb der Schweiz und schaffen so eine stabile, sichere und rechtlich unabhängige Basis für Unternehmen und Behörden.

VON MAXIMILIAN MUNKER, BECHTLE SICHERHEITSEXPERTE

In den letzten Jahren haben sich vor allem die Methoden der Angreifer deutlich verändert. Während früher Massenangriffe dominierten, gibt es heute viel gezieltere, individuellere Vorgehensweisen. Angreifer übernehmen dabei echte Identitäten, missbrauchen legitime Zugangsdaten oder bewegen sich mit vorhandenen Administrationswerkzeugen im Netzwerk. Das Problem dabei ist, dass viele dieser Aktivitäten auf den ersten Blick wie normales Nutzerverhalten aussehen. Gerade mittelständische Unternehmen geraten stärker in den Fokus der Angreifer, denn ihre IT-Landschaften sind häufig historisch gewachsen, schwer zu überwachen und es fehlen oft eigene Security-Operations-Teams.

Angri e beginnen meist unscheinbar

Das Perfide daran: Ein moderner Cyberangriff beginnt oft mit etwas Alltäglichem, etwa einer Phishing-Mail, einer kompromittierten Identität oder einer missbrauchten Sitzung. Die Angreifer verschaffen sich darüber Zugang und bewegen sich dann unauffällig weiter im Netzwerk. Sie verhalten sich dabei wie ein Dieb, der durch ein unverschlossenes Fenster schlüpft und sich dann unauffällig im Haus bewegt. Das bleibt oft Tage oder sogar Wochen lang unbemerkt. In dieser Phase sammeln die Angreifer Informationen, erweitern ihre Berechtigungen und suchen gezielt nach besonders wertvollen Systemen. Erst später folgen Datendiebstahl, Sabotage oder der Einsatz von Ransomware. Sicherheitssysteme, die sich nur auf einzelne Eintrittspunkte konzentrieren, können nichts dagegen ausrichten. Unternehmen müssen daher jederzeit sehen können, was auf ihren Endpunkten, in den Identitäten, in der Cloud, in den E-Mail-Systemen und im Netzwerk passiert.

Sicherheit ist ein Prozess Viele Unternehmen reagieren auf diese wachsende Bedrohung mit weiteren, neuen Sicherheitslösungen. Dennoch steigt die Zahl erfolgreicher Angriffe weiter. Ein Grund dafür liegt in der Natur klassischer Sicherheitsmechanismen. Sie erkennen oft nur bekannte Muster und Regeln. Genau das nutzen Angreifer aus. Sie bewegen sich bewusst unterhalb der Alarmgrenzen klassischer Systeme oder verwenden vorhandene Zugangsdaten. Tatsächlich beginnen mehr als die Hälfte aller Ransomware-Angriffe mit kompromittierten Identitäten oder bislang unbekannten Schwachstellen. Sicherheit darf deshalb nicht als Produkt oder Security-App verstanden werden, die man einmal installiert. Cybersecurity ist vielmehr ein kontinuierlicher Prozess. Die IT eines Unternehmens muss Warnsignale aktiv erkennen, sie miteinander in Verbindung setzen und bewerten können – und das rund um die Uhr. Das ist gerade für kleinere und mittlere Unternehmen kaum zu bewerkstelligen. Daher scheitert in vielen Organisationen die Sicherheit weniger an fehlenden Tools, sondern vielmehr an dem zu späten Erkennen und Einordnen wichtiger Hinweise.

Früh erkennen statt nur reagieren Und noch ein Punkt ist wichtiger denn je: Je früher ein Angriff erkannt wird, desto grösser bleiben die Handlungsmöglichkeiten. Solange ein Angreifer nur einzelne Zugänge kompromittiert hat, können Unternehmen relativ schnell

Sicherheitsangri e früher erkennen, statt spät reagieren

Cyberangri e tre en längst nicht mehr nur Grosskonzerne, sondern zunehmend auch den Mittelstand. Die Zahl der Angri e steigt, neue Methoden erschweren ihre Erkennung. Für Unternehmen bedeutet das: Klassische Sicherheitsstrategien reichen nicht mehr aus. Stattdessen müssen Risiken frühzeitig sichtbar gemacht und Angri e möglichst schnell erkannt werden, um echten Schaden zu vermeiden.

Gegenmassnahmen ergreifen, wie etwa Sitzungen beenden, Konten sperren oder verdächtige Aktivitäten stoppen. Bleibt ein Angriff dagegen zu lange unentdeckt, wächst der Schaden rapide: Betriebsunterbrechungen, Datenverlust und hohe Wiederanlaufkosten können die Folge sein. Im schlimmsten Fall führt dies zur Insolvenz. Genau hier setzen moderne Sicherheitskonzepte wie „Managed Detection and Response“ (MDR) an. Dabei handelt es sich um einen Dienst, der rund um die Uhr von echten Sicherheitsanalysten betrieben wird und Bedrohungen 24/7 überwacht, analysiert und bewertet. Das Ziel: Risiken möglichst früh zu erkennen und schnell einzugreifen, bevor sich ein Angriff ausbreitet.

Unau älliges wird au ällig

Eine MDR-Lösung verbindet zunächst verschiedene Datenquellen eines Unternehmens – von Endpunkten über Cloud-Dienste bis hin zu E-Mail-Systemen – und wertet sie zentral aus. Reale Sicherheitsanalysten prüfen dann vom System identifizierte verdächtige Aktivitäten, setzen sie in einen Kontext und entscheiden individuell über geeignete Gegenmassnahmen. So kann einem Angriff auf ein M365-Konto, der anfangs unauffällig erscheint, schnell etwas entgegengesetzt werden. Wird eine etwas zunächst übersehen oder als Einzelfall kategorisiert, erkennen die Sophos MDR-Lösung und ihre

Sicherheitsanalysten zusammen mit weiteren Signalen genau dieses Vorgehen als Anomalie. Sie widerrufen die Sitzungen oder deaktivieren die Anmeldungen, bevor sich der Angriff ausbreiten kann.

Technologie mit menschlichen Analysen kombiniert MDR-Lösungen zeigen, dass Technologie allein nicht ausreicht. Zwar setzen sie auch Künstliche Intelligenz ein, um grosse Datenmengen zu analysieren und Auffälligkeiten zu erkennen. Doch echte Angriffe müssen immer auch im Kontext bewertet werden. Sicherheitsanalysten müssen also verstehen, was im Unternehmen passiert und welche Risiken entstehen. Deshalb kombiniert Sophos in seinem MDR-Service automatisierte Analyseverfahren mit menschlicher Expertise. Weltweit arbeiten hunderte von Sicherheitsspezialisten, um verdächtige Aktivitäten zu untersuchen und Bedrohungen frühzeitig einzudämmen.

Entlastung für die eigene IT, erhöhte Sicherheit MDR ist jedoch weit mehr als nur ein Sicherheitsservice. Für viele Unternehmen ist es auch eine Antwort auf den Fachkräftemangel im Sektor IT-Sicherheit. Der MDR-Service ergänzt die internen IT-Teams, sodass diese sich wieder stärker auf Strategie, Governance und Architektur konzentrieren können. Operative Security-Aufgaben

wie die kontinuierliche Sicherheitsüberwachung und -analyse werden dagegen von spezialisierten Teams übernommen. Technisch ist ein solcher Dienst in der Regel einfach in die eigene Infrastruktur zu integrieren. Sophos MDR etwa arbeitet mit vorhandenen eigenen Technologien oder Drittanbietern (wie Microsoft, Fortinet) und setzt auf einer offenen, herstellerübergreifenden Plattform auf. Das Sophos Guided Onboarding unterstützt bei der nahtlosen, einfachen Implementierung. Technisch und kommerziell ist die Einführung von Sophos MDR daher weit weniger aufwändig und kostenintensiv als etwa der Unterhalt eines eigenen Security Operation Center (SOC).

Cyberabwehr – ein Wettlauf gegen die Zeit?

Sicher ist: Auch die Angreifer handeln immer menschlicher, setzen dabei

aber auch KI vermehrt ein. Dadurch werden ihre Angriffe schneller und für die konservativen Sicherheitssysteme glaubwürdiger – es ist ein Wettlauf gegen die Zeit und die Abwehrmethoden. Anders ausgedrückt: Die Angreifer gelangen aufgrund neuer Methoden und zunehmend komplexerer IT-Umgebungen heute leichter und vor allem ungesehen ins System – durch ein gekipptes Fenster statt einer offenen Tür. Wer sie nicht schnell genug entdeckt, muss mit grossen Schäden rechnen. Genau hier setzt die Sophos-MDR-Lösung an. Durch das Zusammenspiel von Überwachungstool und Sicherheitsanalysten reagiert sie schneller, stoppt Angriffe im Durchschnitt in 38 Minuten – also 96 % schneller als der Branchenstandard. Ein entscheidender Faktor, der oft den Unterschied zwischen einem Vorfall und einer echten Unternehmenskrise ausmacht.

«Sicherheit darf deshalb nicht als Produkt oder SecurityApp verstanden werden, die man einmal installiert. Cybersecurity ist vielmehr ein kontinuierlicher Prozess.»

Wie Daten für alle zugänglich und nutzbar werden

Dezentral heisst souverän

Daten, frisch zugeschnitten

Wie kann ein modernes, dezentrales Datenmanagement die Datenbereitstellung und -nutzung für jeden einzelnen Menschen verbessern und individuell anpassen? Die Studie «Data Mesh und Data Spaces» nennt Lösungen für «umfassende und komplexe Umgebungen».

VON RÜDIGER SCHMIDT-SODINGEN

Der Datenraum Gesundheit macht es in der Schweiz vor – und erfasst für das Krebsregister alle auftretenden Krebsfälle bei Schweizerinnen und Schweizern. Es geht dabei längst nicht mehr um Diagramme oder Fallzahlen, sondern um automatisiertes und jederzeit abrufbares Wissen, das

sowohl dem einzelnen Patienten als auch der Forschung und politischen Entscheidern zugutekommt. Wo finde ich Hilfe, wenn ich Krebs habe? Welche Möglichkeiten der Behandlung gibt es? Welche Arten von Krebs werden in welcher Region häufiger? Welche Massnahmen sind zu ergreifen, um bestimmte, häufiger auftretende Krebsarten zu verhindern? Gesundheitsdaten sind sensibel – aber sie bergen auch enormes Potenzial zur Selbsthilfe und zum weiteren Verständnis. Der Trick besteht darin, einzelne

Daten oder Datenmuster so zu nutzen, dass sie demjenigen, der Hilfe braucht oder etwas erforschen möchte, passgerecht präsentiert werden.

Die im Auftrag der Schweizer Bundeskanzlei BK, durchgeführte Studie «Data Mesh und Data Spaces – Gegenüberstellung im Kontext Datenökosystem Schweiz» des Fraunhofer-Instituts für Software- und Systemtechnik ISST untersucht deshalb, «wie sich Ansätze aus dem Bereich Data Mesh auf Datenräume übertragen lassen». Im

Mittelpunkt steht dabei, wie Daten mehrfach innerhalb und ausserhalb von Unternehmen oder Organisationen nutzbar werden – und verschiedene Interessengruppen zufriedenstellen.

«Während Data Mesh die bereichsübergreifende Nutzung von analytischen Daten innerhalb komplexer Organisationen in den Fokus rückt», so die Studie, «zielen Datenräume auf die organisationsübergreifende Zusammenarbeit und das Teilen zwischen Organisationen von Daten ab. Beide Konzepte basieren auf soziotechnischen Prinzipien und betonen die Autonomie von Datenbereitstellenden und Datennutzenden.» Trotz der «Überschneidungen in Architektur, Mechanismen und Technologien» fehle es jedoch an einer «Harmonisierung und Integration dieser Ansätze». Data Mesh fokussiere auf die Verwaltung und Nutzung von analytischen Daten, die Muster, Trends und Zusammenhänge identifizieren und dann

Der Staat will souveräner werden

Der vom Bundesrat Ende 2025 gutgeheissene Bericht «Digitale Souveränität der Schweiz» schlägt Massnahmen vor, die die digitale Souveränität und damit die «Anwendung des Völkerrechts im Cyberraum» weiter stärken sollen. Ohne Hilfe von aussen wird es allerdings nicht gehen.

Bei der Definition von «Souveränität im digitalen Raum» gibt der Bericht zu bedenken, dass sich das Territorialprinzip virtuell verschiebt, wenn Hacker eines Staates C im Staat B die dort von einem Privatunternehmen gespeicherten Daten von Bürgern eines Staates A löschen. Als «Digitale Souveränität» definiert der Bundesrat zunächst die Handlungsfähigkeit des Staates: «Digitale Souveränität bedeutet, als Staat über die erforderliche Kontrollund Handlungsfähigkeit im digitalen Raum zu verfügen, um die Erfüllung staatlicher Aufgaben sicherzustellen.» Hier kommen nun auch private Unternehmen ins Spiel, die im Auftrag des Staates dessen Aufgaben erfüllen, sprich auch dessen Kontroll- und Handlungsfähigkeit sicherstellen. In Bezug auf

Daten- und Informationssammlungen, so der Bericht, hänge die Kontroll- und Handlungsfähigkeit «massgeblich von den drei Grundprinzipien der Informationssicherheit ab: Verfügbarkeit, Integrität und Vertraulichkeit». «Autarkie in Bezug auf Daten» sei dann erreicht, «wenn der Staat über alle drei Parameter volle Kontrolle hat, weil er die Daten auf einer eigenen Infrastruktur verwaltet und sowohl die Hard- wie auch die Software durch eigenes Personal gewartet wird». In eine vollständige Abhängigkeit begebe sich der Staat, «wenn die Verfügbarkeit, Integrität und Vertraulichkeit von einem Dritten verantwortet werden, ohne dass der Staat den Dritten kontrollieren und bei Bedarf wechseln kann».

Der Bericht gleicht seine Definition der «Digitalen Souveränität» anschliessend mit den leicht variierenden Definitionen der Swiss Data Alliance, der Conférence latine des directeurs du numérique (cldn), Innovate Switzerland und der Berner Fachhochschule ab, um zu dem Schluss zu kommen, dass die

Entscheidungen treffen. Das Problem liegt in einer Vielzahl isolierter Datensysteme, die beispielsweise in grossen Unternehmen mit verschiedenen Sparten oder Produkten zu finden sind. Meist gibt es dort zentralisierte Datenarchitekturen mit speziellen Teams, die versuchen, sämtliche Anforderungen an Datensammlungen und Datenausgaben unter einen Hut zu bekommen, aber kaum oder zu wenig mit denjenigen, die die Daten erheben oder besser nutzen könnten, in Kontakt stehen. Diese zentralisierten Datenarchitekturen verhindern schnelle Datenlösungen und sperren ganze Unternehmensbereiche oder Interessengruppen von der Datennutzung aus. Ziel müsse ein «dezentralisiertes Verantwortungsmodell» sein, das «Flexibilität und Agilität im Datenmanagement steigert». Die Studie plädiert folglich für eine gemeinsame Anwendung der Konzepte «Federated Computational Governance», «Data as a Product» und «Self-Serve Data Platform», um die Datenbereitstellung und -nutzung nachhaltig zu verbessern und zu demokratisieren. Mithilfe der durchaus komplexen «Federated Computational Governance» könne die «Selbstsouveränität der einzelnen Akteure» gefördert werden, wobei Regeln und Richtlinien mit den individuellen Interessen der einzelnen Akteure abzugleichen seien. Bei «Data as a Product» sei eine «strukturierte und nutzendenzentrierte Datenbereitstellung» das Ziel, die sich auf die «Bedürfnisse der Datennutzenden» fokussiere und durch Feedbacksysteme an die Datenbereitstellenden immer bessere Datenprodukte generiere. Passende Dateninfrastrukturen sollen schliesslich eine Teilnahme als auch die Auswertung der Daten erleichtern. Beim «Einsatz von Data Mesh-Konzepten im Sinne von Datenräumen» gehe es um die Förderung der Autonomie aller Akteure. Datenraumträgerschaften komme «dabei die Rolle zu, einen Ausgleich zwischen den Interessen digitaler und weniger digitaler Akteure zu schaffen und beide Gruppen gleichermassen zur Teilnahme an einem Datenraum zu befähigen».

Aus zentralen Datensystemen müssen dezentrale Verantwortungsmodelle werden

«Erfüllung staatlicher Aufgaben» ein leicht dehnbarer Begriff sei. Mit Blicken auf die digitale Selbstbestimmung und die ersten Weichenstellungen für mehr Cybersicherheit und Vertrauen in KI blendet der Bericht zu den «laufenden Massnahmen» der Schweiz, die in einer Förderung von Open-Source-Software, einem Hybrid-Multi-Cloud-Ansatz und einer Revision des Fernmeldegesetzes bestehen, aber auch die «grenzüberschreitende Beschaffung elektronischer Daten» zur Strafverfolgung, eine Abwehr von Desinformationskampagnen und die Einführung der E-ID umfassen. Der Verwirklichung individueller Rechte werde durch das Datenökosystem Schweiz und eine frühzeitige Vermittlung digitaler Kompetenzen in der Schule Rechnung getragen. Im letzten Teil fordert der Bericht ein umfassendes Risikomanagement ein, das mit den entsprechenden Ressourcen und der «Implementierung gezielter Massnahmen» gegen «nicht hinnehmbare Abhängigkeiten» vorgehen müsse. Mit einer interdepartementalen

Arbeitsgruppe sollen, vorerst bis 2027, Gefahren der Informations- und Kommunikationstechnologien identifiziert und eingeschätzt werden, um daraus entsprechende Handlungsempfehlungen abzuleiten. «Die offensichtlichste Massnahme zur Sicherstellung der Verfügbarkeit und der Vertraulichkeit und der gleichzeitigen Verhinderung von Abhängigkeiten von Dritten ist die selbständige Bereitstellung von digitalen Ressourcen durch den Bund», so das Fazit. Allerdings dürfte diese Massnahme «auch die kostspieligste sein». «Für die Schweiz dürften diese Kosten deutlich stärker ins Gewicht fallen als in den grossen Wirtschaftsblöcken USA oder EU. So hat die Schweiz nicht nur einen verhältnismässig kleinen Binnenmarkt mit begrenzten Skaleneffekten, sondern auch relativ hohe Preise und Löhne.» Die «hochintegrierte» Schweiz könne «nicht in allen Bereichen eigene digitale Ressourcen» bereitstellen und werde deshalb «weiterhin von anderen Staaten und deren Ressourcen und Dienstleistungen abhängen».

Die Zahlen sind ernüchternd: Laut S&P Global (Oktober 2025) ist der Anteil der Unternehmen, die ihre Kl-Initiativen vor dem produktiven Einsatz abbrechen, innerhalb eines Jahres von 17 auf 42 Prozent gestiegen. Gleichzeitig planen laut McKinsey 92 Prozent aller Unternehmen, ihre KI-Investitionen weiter zu erhöhen.

Mehr Kapital, weniger Reife: Dieses Paradox hat einen Namen – fehlende Industrialisierung. Industrialisierung bedeutet, Data & AI nicht als Projekt, sondern als unternehmerische Kernfähigkeit zu begreifen. Nicht einzelne Use Cases, sondern ein reproduzierbares System, das kontinuierlich Wert schafft. Wer diesen Schritt nicht macht, wird feststellen, dass Investitionen wachsen – und die Wirkung ausbleibt. Vier Elemente entscheiden darüber, ob Data & AI skalieren oder im Innovationslabor stecken bleiben: Strategy, Foundation, Scale und Trust.

1. Strategy - Value First AI ist keine Technologiefrage. Sie ist eine Entscheidung über künftige Wettbewerbsfähigkeit. Wer das versteht, stellt die richtige Eingangsfrage: Wo schafft AI messbaren Wert - in Umsatzwachstum, Kostenreduktion, Risikoreduktion oder neuen Geschäftsmodellen? Erfolgreiche Organisationen priorisieren Use Cases deshalb nicht nach technischer Machbarkeit, sondern nach dem Produkt aus Business Impact und Umsetzbarkeit. Sie verankern AI in der Unternehmensstrategie, definieren klare Ownership auf C-Level und behandeln AI-Investitionen mit derselben Disziplin wie jede andere strategische Ressourcenallokation.

2. Foundation - Daten-Architektur als Basis für skalierbare Innovation Technologische Innovation scheitert heute selten an fehlenden Ideen. Das fehlende Fundament ist das eigentliche Problem: Daten in Silos, Governance-Lücken, Architekturen, die für das Experiment gebaut wurden, aber nicht für die Skalierung. Eine moderne Foundation begreift Daten-Architektur deshalb nicht als IT-Nebenprodukt, sondern als strategisches Business-Asset. Der entscheidende Übergang ist jener von der „Lab»zur „Fab»-Architektur. Das Lab ist auf Geschwindigkeit ausgelegt – schnelles Testen, schnelles Scheitern, «up or out». Die Fab garantiert Stabilität, Wiederverwendbarkeit und industrielle Reproduzierbarkeit. Wer skalieren will, braucht beides: Innovation braucht Freiraum. Skalierung braucht Disziplin. Was dabei oft unterschätzt wird: Das Lab braucht Zugang zu realen, produktiven Daten, nicht zu bereinigten Sandbox-Kopien. Nur mit echten Daten lassen sich echte Muster erkennen. Diese notwendige Datendurchlässigkeit unter strikten Governance-Auflagen zu ermöglichen ist in der Praxis das grösste Hindernis, aber gleichzeitig der grösste Hebel.

Eine tragfähige Foundation steht auf drei Pfeilern:

• einer skalierbaren Infrastruktur - ob Cloud, On-Premise oder hybrid, je nach regulatorischem Kontext;

• klaren Data-Ownership-Strukturen in den Fachbereichen, kombiniert mit granularen Access-Control-Systemen, die Datenqualität und Compliance sicherstellen – ohne Daten zu fragmentieren oder in Silos zu sperren;

• und modularen Datenprodukten, die über Use Cases hinweg wiederverwendbar sind, statt für jede Anwendung das Rad neu zu erfinden. KI darf dabei nicht als isolierte Lösung angebaut werden - sie muss integraler Bestandteil der Architektur sein.

Der KI-Vorsprung entsteht in der Fabrik - nicht im Labor

42 Prozent der KI-Initiativen werden abgebrochen, bevor sie produktiv werden. Das Problem ist selten die Technologie, sondern die fehlende Industrialisierung dahinter.

3. Scale - E izienz durch MLOps und Agentic AI Strategie und Fundament sind Voraussetzungen. Skalierung ist der Moment, wo Wert tatsächlich entsteht. Es geht darum, die PS der Innovationsprojekte auf die Strasse des operativen Geschäfts zu bringen. Nicht ein Modell, sondern hunderte: reproduzierbar, überwachbar, kosteneffizient.

Das erfordert industrielle Prozesse. So wie DevOps die Softwareentwicklung transformiert hat, macht MLOps das Deployment und die Überwachung von KI-Modellen zur Routine - inklusive automatisierter Qualitätskontrollen wie Drift- und Bias-Detection. FinOps-Disziplin stellt sicher, dass Infrastrukturkosten in einem gesunden Verhältnis zum messbaren Business Value stehen. Wer diese Disziplin nicht einführt, wird feststellen, dass KI-Kosten schneller wachsen als KI-Nutzen. Der nächste Reifegrad ist Agentic AI: Systeme, die komplexe Ziele eigenständig in Teilschritte zerlegen und direkt mit Unternehmenssoftware interagieren - ohne menschliche Intervention bei jedem Schritt. Das Potenzial ist erheblich. Die Risiken auch: Viele Agentic-Initiativen scheitern heute an unvorhersehbarem Verhalten und Governance-Lücken bei autonomen

«Die KI-Revolution gewinnen nicht die Innovativsten – sondern die Diszipliniertesten.»

Entscheidungen. Skalierung gelingt deshalb nur, wer Qualitätssicherung nicht als nachgelagerten Check begreift, sondern als integralen Bestandteil des gesamten Lifecycles. Und wer versteht: Kontrolle allein schafft kein Vertrauen. Vertrauen entsteht, wenn Technologie, Menschen und Verantwortung zusammenwirken.

4. Trust - Von der Black Box zu gelebter Verantwortung Vertrauen ist das Ergebnis von Verantwortung, nicht von Technologie. Und Verantwortung braucht technische Absicherung genauso wie organisationale Verankerung.

Die technische Seite ist anspruchsvoll, weil KI probabilistisch arbeitet: Antworten variieren, Entscheidungen sind nicht deterministisch reproduzierbar. Manuelle Stichproben reichen nicht aus. Automatisierte Evaluationen sind Pflicht, um statistisch belastbare Ergebnisse sicherzustellen. Red-Teaming stresst Modelle mit tausenden Szenarien, um Bias und Sicherheitslücken systematisch aufzudecken. Explainable AI macht die Logik hinter Entscheidungen nachvollziehbar, mit sichtbaren Reasoning-Schritten und identifizierten Quellen. Echtzeit-Guardrails verhindern den Abfluss sensibler Daten. Und Konzepte wie LLM-as-a-Judge machen Performance objektiv messbar - statt auf subjektive Abnahmen angewiesen zu sein. Bei agentischen Systemen verschärft sich die Anforderung: Autonomes Handeln erfordert Traceability von Entscheidungsketten, automatisierte Policy-ViolationDetection und Revert-Mechanismen. Je mehr Autonomie, desto mehr Governance. Das ist keine Einschränkung, sondern

die Voraussetzung für skalierbares Vertrauen. Für Schweizer Unternehmen kommt eine zusätzliche Dimension hinzu: Das revidierte Datenschutzgesetz (nDSG), die FINMA-Erwartungen an algorithmische Entscheidungssysteme undfür Unternehmen mit EU-Exposure - der EU AI Act schaffen verbindliche Anforderungen an Transparenz, Nachvollziehbarkeit und menschliche Kontrolle. Was viele als Compliance-Last wahrnehmen, ist in Wahrheit ein strategischer Vorteil: Wer Trust als Pfeiler seiner AI-Industrialisierung verankert, erfüllt nicht nur regulatorische Anforderungen - er baut eine Fähigkeit auf, die Vertrauen bei Kunden, Partnern und Aufsichtsbehörden schafft. Gleichzeitig setzen Vorgaben wie Datenlokalisierung oder Cloud-Restriktionen reale operative Grenzen, die pragmatische Architekturentscheide erfordern. Doch Technologie allein reicht nicht. Die inhaltliche Verantwortung für KIModelle muss bei den Fachbereichen liegen - nicht in der IT. Nur wenn Business-Verantwortliche die Leistung ihrer Algorithmen aktiv verantworten und über die Data Literacy verfügen, Ergebnisse kritisch zu hinterfragen, entsteht eine nachhaltige Vertrauenskultur. Vertrauen ist kein Projektergebnis. Es ist eine Organisationsentscheidung.

Fazit

Die Industrialisierung von Data & AI ist kein Projekt mit Abschlussdatum, sie ist ein kontinuierlicher Prozess der Professionalisierung. Die Unternehmen, die heute den Übergang vom Experiment zum reproduzierbaren System meistern, bauen einen nachhaltigen Vorsprung auf, den Nachzügler schwer aufholen

werden. Der Weg ist bekannt: Strategy, Foundation, Scale und Trust sind keine abstrakten Konzepte, sie sind umsetzbare Hebel. Was fehlt, ist nicht das Wissen. Es ist die Entschlossenheit, den Schritt vom Experiment zur Industrialisierung konsequent zu gehen. Die KI-Revolution gewinnen nicht die Innovativsten - sondern die Diszipliniertesten.

Hans Peter Gränicher Co-Founder & CEO, D ONE

Steckbrief

D ONE begleitet Unternehmen beim Übergang vom AI-Experiment zur industriellen Umsetzung.

Im Fokus stehen die Verbindung von Strategie, Datenarchitektur, Skalierung und Governance - mit dem Ziel, Data & AI als nachhaltige Unternehmensfähigkeit zu etablieren. D ONE arbeitet mit Organisationen in der Schweiz und Europa, insbesondere in regulierten und komplexen Umfeldern.

Mehr Informationen unter d-one.ai

Sexy und sicher?

Krypto-Anleger sollen mit klaren Regulierungen geschützt und zugleich ermuntert werden, in digitale Währungen und Assets zu investieren. Der Markt ist in Bewegung – auch weil eine ältere Aktien-Generation wegbricht und junge Menschen sich in digitalen Welten zuhause fühlen. Die fortschreitende Tokenisierung dür e den Markt mittelfristig beflügeln.

VON RÜDIGER SCHMIDT-SODINGEN

Das Institut der deutschen Wirtschaft widmet sich in seinem IW-Policy-Paper «Krypto-Regulierung in der EU» den «aktuellen Entwicklungen und Anpassungsbedarf» beim Thema Krypto. Die Krypto-Community professionalisiere sich zunehmend, so das Autoren-Duo Dr. Vera und Dr. Markus Demary, und meist stünden «junge Menschen im Fokus». So fänden sich «bei den unter 35-Jährigen in Deutschland 1,8 Millionen Kryptobesitzer im Vergleich zu 300.000 Anleihe- und 2,8 Millionen Aktienbesitzern». Folglich stelle sich die Frage, «inwieweit die EU Krypto-Anleger geschützt sind und wo noch Herausforderungen bestehen».

Neben der Markets for Crypto Assets Regulation (MiCAR), die «zum Beispiel Krypto-Handelsplattformen mit Sitz in der EU, aber auch andere Krypto-Dienstleistungen erfasst und für diese klare Vorgaben im Sinne des Anlegerschutzes macht», müsse insgesamt eine bessere Aufklärung erfolgen. Einerseits könnten Schulen Finanzthemen früher und vor allem weitsichtiger beleuchten und erklären. Anderseits müssten Regulierungen auch dort greifen, wo Kryptowerte für gezielte Betrügereien oder einen «algorithmischen Handel und Hochfrequenzhandel» genutzt werden.

Krypto-Länder Schweiz und Luxemburg

Relativ klar ist, dass Kryptowerte auf dem besten Weg sind, den klassischen Aktienhandel zu erweitern oder sogar in Teilen abzulösen. In der Tokenisierung, die physische Werte und Gegenstände digital umrechnet und festschreibt, dürften nicht nur Unternehmen, sondern auch Privatpersonen neue Finanzierungsmöglichkeiten sehen, die weit über das klassische Depot mit Wertpapieren hinausgehen. Was passiert, wenn Firmen auch ihr Inventar, Restbestände oder wortwörtliche Teile der Firmengeschichte, vom alten Firmenschild bis zum Zeichentisch, an dem ein bestimmtes Produkt erfunden wurde, als Wert ausdrücken und verkaufen können?

Das IW-Papier rückt auch die Einschätzung, dass sich nur ein verschwindend kleiner Teil der Bevölkerung für Krypto interessieren würde, zurecht. So hat die OECD bei einer vergleichenden Umfrage festgestellt, dass in Luxemburg bereits 10,8 Prozent und in Finnland 8,7 Prozent der Bevölkerung in Kryptowerte investiert haben, während

Spanien und Deutschland mit jeweils 4,8 Prozent im Mittelfeld liegen. Laut einer Umfrage der Hochschule Luzern besitzen in der Schweiz 11 Prozent der Bevölkerung Krypto-Anlagen, wobei die Mehrheit sich lediglich mit kleinen Beträgen engagiert. «31 Prozent der Befragten halten weniger als CHF 1›000 in Krypto-Vermögen.» Da sich Kryptowerte «oft sehr dynamisch» entwickeln und «aufgrund häufig fehlender Emittenten und der dahinterliegenden dezentralen digitalen Technologie sehr komplex» seien, so das IW-Papier, sei eine Regulierung der Kryptomärkte «so wichtig». «Auch die Grösse der Märkte spricht für die Umsetzung eines klaren regulatorischen Rahmens: So sind nach Angaben des Unternehmens CoinMarketCap (2024) knapp 20 Millionen Bitcoin in Umlauf, dessen Marktkapitalisierung

aktuell mehr als 1,1 Billionen US-Dollar beträgt», was ein Einschreiten gegen «Marktmissbrauch, Geldwäsche,

©iStockphoto.com/AF-studio

Steuerhinterziehung und betrügerische Geschäftsmodelle» zwingend erforderlich mache.

Weitreichende Regulierung in der EU Neben zahlreichen Massnahmen, die beispielsweise den Emittenten von ART und EMT ein Mindestniveau an Liquidität vorschreiben oder Kryptodienstleister mit Sitz in der EU für Hackerangriffe haftbar machen, pochen die EU-Aufsichtsbehörden auch auf konsolidierte Datenangebote für den Kryptomarkt, die ein «vollständiges und genaues Bild des gesamten Kryptomarktes zu jedem Zeitpunkt» bieten. Mit ihrem vierten Anti-Geldwäsche-Paket will die EU ausserdem Anbieter von Krypto-Dienstleistungen dazu zwingen, Know-Your-Customer-Prüfungen durchführen, um illegal erworbenes Kryptogeld, beispielsweise aus Lösegeldforderungen nach RansomwareAttacken, schneller zu identifizieren.

«Kryptowerte sind eine neue, aber auch komplexe Anlageform, die (bislang) vor allem jüngere Menschen anspricht.»

Was die steuerliche Behandlung angeht, driften die EU und die Schweiz stärker auseinander. Wer hierzulande kein «gewerbsmässiger Wertschriftenhändler» ist, braucht auf Kursgewinne aus Aktien-. Währungs- und Kryptohandel keine Steuern zu zahlen, muss seine Krypro-Bestände zum Jahresschlusskurs jedoch in der Steuererklärung für die kantonale Vermögenssteuer angeben. In der EU ist seit 1. Januar die DAC8-Richtlinie in Kraft, die Kryptodienstleister dazu verpflichtet, alle Details der Transaktionsdaten ihrer Kunden an die nationalen Steuerbehörden zu übermitteln. In Deutschland ist die erste jährliche Meldung spätestens bis zum 31. Juli 2027 abzusenden. Erfasst werden sollen dabei Käufe, Verkäufe, Tauschgeschäfte, Airdrops, Stakingund Lending-Erträge.

Signale für besseren Kryptohandel Investoren fragen sich nun, wie das Auf und Ab des Bitcoin-Kurses und

die zunehmenden Regulierungen zusammenpassen. Einerseits scheint der Bitcoin derzeit schlecht da zu stehen, wobei er zum Stand 28.2. immer noch ein Fünfjahresplus von 14,15 Prozent verzeichnen konnte, andererseits geben klare Richtlinien auch eine nicht zu unterschätzende Sicherheit, wie sich nun am besten in KryptoWährungen und digitale Werte investieren lässt. Jede Regulierung bedeutet auch eine Anerkennung der Dinge, die reguliert werden. Was es einigen Menschen in Zukunft leichter machen könnte, in digitale Werte zu investieren. Die Zahl der experimentierenden Investoren dürfte kurzfristig jedenfalls sicher steigen. «Kryptowerte sind eine neue, aber auch komplexe Anlageform, die (bislang) vor allem jüngere Menschen anspricht», bilanzieren Dr. Vera und Dr. Markus Demary am Ende. «Die Dynamik der dahintersteckenden digitalen Technologie und der Vermarktung über digitale Kanäle stand lange Zeit ein träges Regulativ gegenüber, das sich diese Märkte erst nach und nach erschlossen hat. Inzwischen gibt es einen umfassenden regulatorischen Rahmen für Kryptowerte – vor allem auf europäischer Ebene, aber zum Teil auch auf Ebene der Nationalstaaten. Unklar ist vielfach noch, ob diese Regelungen die richtige Balance zwischen Rechtssicherheit und Freiraum schaffen, die für die Weiterentwicklung dieses innovativen Finanzinstruments bei gleichzeitigem Anlegerschutz nach europäischen Normen und Werten wesentlich sind.» Generell gehe es aber nicht nur um immer neue Verordnungen, sondern auch um ein gesellschaftspolitisches Bewusstsein, um «eine verstärkte und verbesserte Aufklärung sowie die Offenlegung von Risiken».

Für die Schweiz meint Prof. Dr. Andreas Dietrich von der HSLU: «Die Integration von Krypto-Anlagen in die Angebote etablierter Schweizer Banken verdeutlicht den wachsenden Einfl uss dieser Anlageklasse. Durch den einfachen Zugang über das E- und Mobile-Banking wird die Verbreitung von Krypto-Anlagen in der Bevölkerung weiter steigen.» Ähnlich positiv sieht Anthony Scaramucci, Autor des «Kleinen Handbuchs zum Bitcoin» (FBV München 2025), die neue digitale Währungswert. «Ihre Kinder fühlen sich in einer tokenisierten Finanzwirtschaft womöglich heimischer, in der sie Tickets für Sportereignisse, Häuser und Sammlerobjekte mithilfe der Blockchain und digitalen Vermögenswerten erwerben – so, wie sie auch mit einem iPhone besser umgehen können als mit einem Fernseher. Ihre Welt ist virtuell und besteht aus Einsen und Nullen.»

Warum digitale Assets für Institutionelle immer wichtiger werden

Banken, Asset Manager und Unternehmen wollen digitale Assets in ihr Portfolio integrieren – und setzen dabei auch auf neue regulatorische Klarheit. Stijn Vander Straeten, CEO der Crypto Finance Group, erläutert, wie eine regulierte Krypto-Infrastruktur Unternehmen und Märkte beflügeln kann.

Herr Vander Straeten, kann man sagen, wo wir bezüglich digitaler Assets derzeit weltweit und in der Schweiz stehen?

Die Entwicklung digitaler Assets lässt sich heute gut mit der Frühphase des Internets Mitte/Ende der 1990er-Jahre vergleichen: Die Technologie ist funktionsfähig, grosse institutionelle Marktteilnehmer sind eingestiegen und die Infrastruktur professionalisiert sich. Aber wir stehen noch immer in einer frühen Wachstumsphase mit viel strukturellem Ausbaupotenzial, welches absolut nötig ist, um das volle Potential der Technologie ausschöpfen zu können. Wenn ich den Internet-Vergleich weiterführe, heisst das, der Bitcoin entspricht gewissermassen der E-Mail und ist eigentlich der erste «Killer-Use-Case». Die Tokenisierung entspricht dem E-Commerce und späteren Plattformmodellen, sie ist der eigentliche Transformationsmotor. Welche besonderen Vorzüge bietet die Schweiz? Die Schweiz zählt im Bereich digitaler Vermögenswerte aus meiner Sicht weltweit zu den Vorreitern. Neben klassischen Standortfaktoren wie politischer Stabilität, exzellenten Universitäten, hoher Lebensqualität und einer starken internationalen Talentanziehung wurden früh entscheidende, regulatorische aber auch strukturelle Weichen gestellt. Mit dem DLT-Gesetz wurde bereits früh ein klarer und innovationsfreundlicher Rechtsrahmen für Distributed-LedgerTechnologien geschaffen. Die Eidgenössische Finanzmarktaufsicht FINMA hat dazu transparente Leitlinien für Token, ICOs und die Verwahrung digitaler Assets etabliert und damit Rechtssicherheit für Marktteilnehmer geschaffen. So entstand früh ein international sichtbares Ökosystem aus Technologieanbietern, Finanzdienstleistern und Investoren, das die Schweiz als globalen Krypto-Standort positionierte. Banken und regulierte Anbieter wie die Crypto Finance Group aber auch die Sygnum Bank schlagen die Brücke zwischen traditionellem Finanzsystem und Blockchain-Welt und tragen Innovation gezielt in bestehende Finanzintermediäre. Im internationalen

Vergleich nimmt die Schweiz damit häufig die Rolle eines regulatorischen Innovationslabors ein. Sie testet neue Modelle und schafft früh Rechtssicherheit. Grössere Wirtschaftsräume wie die EU oder die USA setzen aufgrund ihrer Marktmacht zwar oft die globalen Standards, doch die Schweiz prägt viele Entwicklungen konzeptionell und strukturell massgeblich mit.

Wie wichtig sind digitale Assets im institutionellen Umfeld – und wie wichtig werden sie in Zukunft sein?

Bitcoin und andere liquide Krypto-Assets weisen eigene Risiko-Rendite-Profile auf und zeigen über längere Zeiträume eine nur begrenzte Korrelation zu traditionellen Anlageklassen. In einem Umfeld strukturell niedriger Realrenditen und geopolitischer Unsicherheiten kann eine kleine Beimischung die Portfolioeffizienz verbessern, natürlich bei entsprechendem Risikomanagement, welches ich aber bei institutionellen Investoren voraussetze. Digitale Assets entwickeln sich ausserdem zu einer eigenständigen Assetklasse mit wachsender Markttiefe, Derivatemärkten und institutioneller Infrastruktur. Für viele Investoren ist daher bereits eine minimale Allokation oder zumindest ein strukturiertes Monitoring geboten, um Know-how aufzubauen. Neben nativen Krypto-Assets entsteht zudem ein Markt für tokenisierte Finanzinstrumente. Wer früh regulatorisch sauber investiert, partizipiert potenziell an einer Modernisierung der Kapitalmärkte.

Ist die Evaluierungsphase seitens der institutionellen Anleger abgeschlossen? Was muss nun passieren?

Aus Sicht institutioneller Anleger ist die reine Beobachtungs und Evaluierungsphase weitgehend abgeschlossen, zumindest für liquide, etablierte digitale Assets. Die Frage lautet meines Erachtens heute weniger «Ist das relevant?», sondern vielmehr: «Wie integrieren wir digitale Assets kontrolliert, reguliert und effizient?»

Welche Rollen spielen die europäische MiCA-Verordnung und die Schweizer Regelungen zu Stablecoins und anderen Kryptowährungen?

Die Markets in Crypto-Assets Regulation (MiCA) schafft erstmals einen einheitlichen regulatorischen Rahmen für Krypto-Assets in der EU und sorgt damit für Rechtssicherheit, Skalierbarkeit und klare Vorgaben insbesondere für Stablecoins und Dienstleister. Für institutionelle Marktteilnehmer reduziert das die regulatorische Fragmentierung und erleichtert grenzüberschreitende Geschäftsmodelle erheblich. Die Schweiz verfolgt einen technologieneutralen, prinzipienbasierten Ansatz, gestützt durch das DLT-Gesetz und die Praxis der Eidgenössische Finanzmarktaufsicht (FINMA), was hohe Flexibilität und Innovationsnähe ermöglicht. Während MiCA durch die Größe des EU-Binnenmarkts faktisch Standards setzt, positioniert sich die Schweiz eher als regulatorisches Innovationslabor. Beide Rahmenwerke sind aus meiner Sicht zentral für die institutionelle Adoption, da sie die notwendige Rechtssicherheit für nachhaltige Kapitalallokationen schaffen.

Sie sehen sich mit der Crypto Finance Group bewusst als Vermittler, um mehr Banken und institutionelle Anleger von

den Chancen digitaler Assets und Währungen überzeugen zu können? Ja, absolut. Wir verstehen uns bewusst als Brückenbauer zwischen traditionellem Finanzsystem und der Welt digitaler Assets. Als regulierter Anbieter innerhalb der Crypto Finance Group ist es unsere Aufgabe, die Komplexität von Blockchain-Technologie, Krypto-Assets und Tokenisierung in bankfähige, regulatorisch konforme Lösungen zu übersetzen. Viele Institute erkennen das strategische Potenzial digitaler Vermögenswerte, benötigen jedoch verlässliche Infrastruktur, klare Prozesse und Risikotransparenz, um aktiv zu werden. Genau hier setzen wir an: Wir verbinden technologische Innovationskraft mit den Standards und GovernanceAnforderungen des institutionellen Finanzmarkts. Unser Ziel ist es, Vertrauen zu schaffen und damit die kontrollierte, professionelle Integration digitaler Assets in bestehende Finanzstrukturen zu ermöglichen.

Welche Folgen erwarten Sie sich von der Tokenisierung? Erkennen institutionelle Anleger die damit verbundenen Möglichkeiten?

Von der Tokenisierung erwarten wir weniger eine neue spekulative Anlagewelle als vielmehr eine strukturelle Modernisierung der Finanzmarktinfrastruktur. Sie ist in erster Linie ein «TechnologyPlay» mit erheblichem Effizienzpotenzial im Backoffice und langfristigen Implikationen für Plattformmodelle. Im operativen Bereich betrifft das vor allem Emission, Settlement, Corporate Actions und Reporting. Durch programmierbare Wertrechte lassen sich Prozesse automatisieren, Medienbrüche reduzieren

Steckbrief

Crypto Finance Group Als Teil der Deutsche Börse Group ist die Zürcher Crypto Finance Group der vertrauenswürdige Partner für Finanzinstitute. Reguliert sowohl von der FINMA als auch von der BaFin, stellt die Gruppe die Einhaltung der bevorstehenden Markets in Crypto Assets (MiCA) Regulierung sicher. Die marktführende, integrierte Plattform ermöglicht es institutionellen Akteuren in der Schweiz, Deutschland und anderen europäischen Märkten, digitale Vermögenswerte sicher zu verwalten, zu handeln und zu speichern.

Stijn Vander Straeten Nach seinem Abschluss in Finanzen und Betriebswirtscha sowie der Qualifikation als eidgenössisch diplomierter Wirtscha sprüfer, ergänzt durch ein CAS in Finanzmarktrecht, war Stijn Vander Straeten in verschiedenen Funktionen im Bankenwesen und Kapitalmarkt tätig. Anschliessend übernahm er die Position des Financial O icer bei der Crypto Finance AG. Seit November 2023 ist er CEO der Crypto Finance AG. In dieser Rolle verfolgt er das Ziel, die Zukun der Finanzbranche durch Innovation, Zusammenarbeit und strategische Exzellenz aktiv mitzugestalten.

Mehr Informationen unter crypto- nance.com

Stijn Vander Straeten CEO

und Abwicklungszeiten verkürzen. Für institutionelle Investoren bedeutet das potenziell geringere Kosten, weniger operationelle Risiken und höhere Transparenz entlang der gesamten Wertschöpfungskette, also primär Effizienzgewinne, nicht zwingend höhere Renditen. Darüber hinaus eröffnet Tokenisierung Perspektiven im Sinne einer Plattformökonomie: Wenn Vermögenswerte digital, standardisiert und interoperabel vorliegen, können neue Marktplätze, Sekundärmärkte und Liquiditätsmechanismen entstehen. Besonders im Bereich Private Markets, Infrastruktur oder alternativer Anlagen liegt hier strukturelles Potenzial, da bislang illiquide Assets leichter zugänglich und handelbar gemacht werden könnten.

Wie sehr werden wir den Handel oder auch das Verwalten von digitalen Werten noch erlernen müssen? Wo sollte man ansetzen, um alle Chancen ausloten zu können?

Der Handel und die Verwahrung digitaler Werte erfordern in Teilen ein Umdenken, allerdings weniger auf Produktebene als auf Infrastruktur-, Risiko- und Prozessebene. Viele Mechanismen sind institutionellen Investoren vertraut (Asset Allocation, Risikosteuerung, Governance), doch Themen wie Private-KeyManagement, On-Chain-Settlement, Smart Contracts oder Token-Standards verlangen zusätzliche Kompetenz. Kurz gesagt: Digitale Assets verlangen kein völlig neues Finanzwissen, aber eine gezielte Erweiterung bestehender Kompetenzen. Wer früh in Education investiert, schafft die Grundlage, Innovation kontrolliert zu nutzen, statt von ihr überrascht zu werden.

VON WOLFGANG AMADEUS VITALE, CRYPTO PROTOCOL EXPERT

BEI BITCOIN SUISSE

Im Dezember 2024 veröffentlichte Google im Fachjournal Nature eine Arbeit über seinen WillowQuantenchip, die in der globalen Technologiegemeinschaft für Aufsehen sorgte. Der Befund war bedeutsam: Erstmals zeigten Forscher, dass das Hochskalieren physischer Qubits die Zuverlässigkeit eines logischen Qubits tatsächlich verbessert, statt sie zu verschlechtern. Die strategischen Implikationen sind grundlegend: Sie markieren den Übergang vom Zeitalter fehleranfälliger Quantenhardware hin zu Maschinen, die ihre eigenen Fehler in grossem Massstab korrigieren können. Klassische Kryptographie schützt sensible Daten, etwa den Zugang zu Bankkonten, Kommunikation oder digitalen Vermögenswerten, indem sie sich auf mathematische Probleme stützt, die mit herkömmlicher Hardware nicht lösbar sind. Quantencomputer ermöglichen neue Algorithmen, die eben diese Probleme auf fundamental andere Weise angreifen. Was heute sicher ist, muss es morgen nicht mehr sein. Nach Willow und weiteren Durchbrüchen in der Qubit-Technologie und Fehlerkorrektur haben sich die Roadmaps der grossen Branchenakteure angenähert: Quantencomputer, die zuverlässig mit einigen Hundert logischen Qubits operieren können, sind bis 2030 angepeilt. Diese Schwelle allein würde noch nicht ausreichen, um die Kryptographie zu knacken, die heutigen sicheren Kommunikations- und Authentifizierungssystemen zugrunde liegt. Aber sie würde den Weg zu einem kryptographisch relevanten Quantencomputer (kurz CRQC) klar sichtbar machen. Organisationen, die mit digitalen Assets zu tun haben, sollten sich entsprechend darauf einstellen.

CRQC gegen ECDSA

Bitcoin und andere digitale Vermögenswerte stützen sich auf elliptische Kurven-Kryptographie (ECDSA) für digitale Signaturen, die Transaktionen autorisieren. ECDSA ermöglicht es, den Besitz eines privaten Schlüssels zu einer Adresse nachzuweisen, ohne ihn je preiszugeben. Dieser Nachweis ist das technische Fundament von Eigentumsrechten in dezentralen Netzwerken. Wird ECDSA kompromittiert, kann ein Angreifer aus einem öffentlich sichtbaren Schlüssel den privaten Schlüssel ableiten. Eigentum, wie es in diesen Systemen heute existiert, wäre technisch nicht mehr durchsetzbar. Das Ausmass des potenziellen Schadens lässt sich bereits beziffern. Schätzungen zufolge sind rund 6,9 Millionen Bitcoin – zum aktuellen Kurs rund 456 Milliarden Dollar – durch einen CRQC gefährdet. Diese Verwundbarkeit hat zwei Quellen: veraltete Adressformate, die öffentliche Schlüssel direkt exponieren, sowie die Wiederverwendung von Adressen, die denselben Effekt hat. Ein Grossteil der gefährdeten Bitcoin gilt als dauerhaft verloren – darunter schätzungsweise eine Million Bitcoin, die Satoshi Nakamoto, dem pseudonymen Gründer von Bitcoin, zugeschrieben werden. Für institutionelle Akteure stellt sich damit eine praktische Due-Diligence-Frage: Wie steht Ihre CustodyInfrastruktur da, wenn sich das kryptographische Fundament verschiebt?

Diese Frage betrifft nicht nur direkte Halter. Sie zieht sich durch die gesamte Kette: Gegenparteien, Sub-Custodians, Börsen und jede Zwischenstelle, die digitale Assets berührt.

Bedroht Quantencomputing die Grundlagen von Kryptowährungen?

Quantencomputing ist kein Gedankenexperiment mehr. Für jede Organisation, die digitale Vermögenswerte hält, verwahrt oder damit handelt, könnte es zum Governance-Problem werden. Allerdings wird an einer Quantenresistenz bereits gearbeitet.

Das komplexeste Upgrade in der Geschichte der Blockchain

Das Bitcoin-Netzwerk reagiert. Im Februar 2026 wurde BIP-360 in das Bitcoin Improvement Proposals Repository aufgenommen. Erstmals liegt ein Vorschlag zur Quantenresistenz für formale Diskussionen, Tests und die Implementierung bereit. Der Vorschlag führt einen neuen Adresstyp namens Pay-to-Merkle-Root (P2MR) ein, der Bitcoins volle Programmierbarkeit bewahrt, ohne einen öffentlichen Schlüssel zu exponieren. Nachfolgende Vorschläge würden Post-Quanten-Signaturverfahren implementieren und Migrationspfade von verwundbaren zu quantenresistenten Adressen definieren. Jenseits der technischen Herausforderungen bleiben schwierige, kontroverse Fragen auf sozialer und wirtschaftlicher Ebene offen: Was geschieht mit Coins, deren Inhaber die privaten

Schlüssel dauerhaft verloren haben? Sollen nicht migrierte Bestände nach einer Frist eingefroren werden, um «Quanten-Diebstahl» zu verhindern? Wie soll das Netzwerk mit vollständig exponierten Coins umgehen, darunter besonders prominent die ursprünglichen Bestände von Satoshi? Das sind grundlegende Fragen, die Eigentumsrechte, wirtschaftliche Anreize und die Governance-Kultur eines Netzwerks berühren, das Entscheidungen im Konsens über ein dezentrales Ökosystem aus Minern, Node-Betreibern, Unternehmen, Entwicklern und Haltern trifft.

Auf dem Weg zur Quantenresistenz Auf öffentliche Beweise einer unmittelbaren Bedrohung zu warten, bevor man handelt, könnte ein strategischer Fehler sein. Die Migration verwundbarer Bestände ist durch die Transaktionskapazität des Netzwerks begrenzt und der

Das Innere eines Quantencomputers: Supraleitende Schaltkreise aus Gold und Kupfer bilden das Herzstück moderner Quantenprozessoren. Extreme Kälte – nahe dem absoluten Nullpunkt – macht die empfindlichen Qubits erst funktionsfähig. Systeme wie dieser könnten bis 2030 die Grundlagen klassischer Kryptographie herausfordern.

institutionellen Konsequenzen eines solchen Chaos wären gravierend. Wahrscheinlicher und aus heutiger Sicht plausibel für 2026, ist ein sozialer Konsensus über einen Soft Fork in Richtung Quantenresistenz, der BIP-360 oder einen ähnlich ausgerichteten Vorschlag umsetzt. Dieses Ergebnis hätte Bedeutung weit über die technische Lösung hinaus: Es würde demonstrieren, dass Bitcoin in der Lage ist, existenziellen Herausforderungen geordnet und vorausschauend zu begegnen.

Infrastruktur-Know-how ist gefragt

Institutionelle Entscheidungsträger stehen vor mehreren Fragen. Erstens zur Custody-Architektur: Werden Bestände in Adressformaten gehalten, die öffentliche Schlüssel exponieren? Wird Adresswiederverwendung systematisch vermieden und kann Ihr Custodian das mit Sicherheit bestätigen? Diese Fragen sollten heute an Custodians und interne Treasury-Teams gestellt werden. Zweitens zur Anbieterreife: Verfügt Ihr Custodian über die technische Tiefe und das Protokollverständnis, um Adress-Migrationen und Upgrades reibungslos zu bewältigen, wenn es soweit ist? Hier trennt sich die reine Verwahrung von echtem Infrastruktur-Knowhow. Drittens zum Protokollbeobachtung: Verfolgen Sie die Entwicklung von BIP-360 und verwandten Vorschlägen aktiv? Die Konsenssignale werden sich im Verlauf von 2026 verdichten.

für eine Protokolländerung notwendige soziale Konsens braucht Zeit. Bitcoin sollte deshalb erste Schritte in Richtung Quantenresistenz einleiten, lange bevor CRQCs Realität werden. Das Alternativszenario ist weit schlimmer: Panikverkäufe, unter Druck gefasste überhastete Protokollentscheidungen und die reale Möglichkeit von ChainSplits, die konkurrierende Versionen desselben Assets hervorbringen. Die

Anpassungen vorbereiten Quantencomputing wird die Märkte für digitale Assets im Jahr 2026 nicht dominieren. Aggressive Roadmap-Updates grosser Hardwarehersteller könnten kurzfristige Volatilitätsereignisse auslösen, werden die Preise aber voraussichtlich nicht wesentlich beeinflussen. Die technologischen Herausforderungen bei der Skalierung und Vernetzung zuverlässiger logischer Qubits bleiben erheblich. Mit operativen CRQCs ist bis 2030 nicht zu rechnen. Doch die Richtung ist unverkennbar: Das kryptographische Fundament digitaler Vermögenswerte wird neu bewertet werden müssen. Es ist eine Frage des Wann, nicht des Ob. Die ermutigende Nachricht: Post-Quanten-Kryptographie wird kontinuierlich erforscht, getestet und verbessert. Die Entwickler-Communities rund um grosse Protokolle wie Bitcoin und Ethereum wissen, was auf sie zukommt. Bestände, die bereits heute in sicheren Adressformaten gehalten werden, sind geschützt. Institutionen, die jetzt die richtigen Fragen stellen und mit Gegenparteien zusammenarbeiten, die fundierte Antworten geben können, werden gut positioniert sein, um diesen Übergang ohne operative Unterbrüche zu bewältigen. Die übergeordnete Lehre gilt für jeden grossen Infrastrukturwandel: Bei Systemen dieser Grössenordnung und Tragweite sollten geordnete Anpassungen frühzeitig diskutiert werden.

«Auf öffentliche Beweise einer unmittelbaren Bedrohung zu warten, bevor man handelt, könnte ein strategischer Fehler sein.»

Innovation braucht Kontrolle

Digitale Innovation entscheidet 2026 nicht nur über E izienz, sondern über Risikosteuerung und Wettbewerbsfähigkeit.

Künstliche Intelligenz, Automatisierung und CloudLösungen erö nen Potenziale – gleichzeitig steigen regulatorische Anforderungen und Cyber-Risiken. Gefragt sind praxisorientierte Fachkrä e, die Innovation verantwortungsvoll steuern.

Cyber-Risiken bleiben Realität

Mit der verschärften Cyber-Meldepflicht in der Schweiz und ersten Umsetzungsanforderungen aus dem EU AI Act beginnt für viele Organisationen die Phase konkreter Umsetzung. Die Cyberstudie 2025 zeigt, dass ein relevanter Anteil der Schweizer KMU weiterhin von gravierenden Cybervorfällen betroffen ist. Bereits die Erhebung 2024 wies aus, dass vier Prozent der befragten KMU in den letzten drei Jahren Opfer schwerwiegender Cyberangriffe wurden – hochgerechnet entspricht dies mehreren zehntausend Unternehmen in der Schweiz. Gleichzeitig unterschätzen viele Betriebe das eigene Risiko, obwohl Angriffe professioneller und gezielter erfolgen. Kontrolle bedeutet vor allem Vorbereitung. Cyberangriffe entwickeln sich oft innerhalb weniger Minuten. Interne Fachkräfte erkennen Auffälligkeiten

Digitale Kompetenz

frühzeitig, analysieren Schwachstellen strukturiert und leiten gezielte Gegenmassnahmen ein. Prävention, systematische Risikoanalyse und klare Eskalationsprozesse entscheiden darüber, ob ein Vorfall kontrollierbar bleibt oder erhebliche wirtschaftliche Folgen verursacht.

Cyber Security: Risiken aktiv steuern

Digitale Sicherheit ist keine isolierte IT-Aufgabe mehr, sondern Teil unternehmerischer Verantwortung. Der eidgenössische Fachausweis als Cyber Security Specialist vermittelt praxisnahes Know-how in Risikoidentifikation, strukturierten Analysen und präventiven Schutzkonzepten sowie in der Begleitung von Audits. Absolvierende übernehmen Verantwortung im operativen Sicherheitsmanagement und agieren beratend gegenüber Projekt- und Entscheidungstragenden. Sie verbinden technische Massnahmen mit betrieblichen

Anforderungen und stärken so die Resilienz des Unternehmens. Der Fachausweis bildet damit einen substanziellen Entwicklungsschritt in einem Umfeld, in dem kontrollierte Umsetzung zur Kernkompetenz wird.

KI nur mit klaren Leitplanken Nicht jede technisch mögliche KI-Anwendung ist wirtschaftlich sinnvoll oder regulatorisch zulässig. Innovation braucht klare Entscheidungslogiken. Der eidgenössische Fachausweis als AI Business Specialist qualifiziert praxisorientierte Fachkräfte, KI-Projekte strukturiert zu planen und wirtschaftlich zu bewerten. Im Zentrum stehen Prozessanalyse, Identifikation sinnvoller Automatisierungspotenziale, Wirtschaftlichkeitsprüfung und Einbettung in Governance-Strukturen.

Absolvierende sorgen dafür, dass KI-Anwendungen nachvollziehbar,

regelkonform und strategisch eingebettet umgesetzt werden. Kontrolle bedeutet hier Transparenz, Datenqualität und belastbare Bewertungsgrundlagen – nicht Innovationsbremse, sondern Voraussetzung für nachhaltigen Erfolg. Praxisnahe Kompetenz als Wettbewerbsfaktor

Innovation bleibt nur erfolgreich, wenn sie beherrschbar ist. Unternehmen benötigen Fachkräfte, die Potenziale realistisch einschätzen, Risiken analysieren und Verantwortung übernehmen. Genau hier entsteht Kontrolle: durch Kompetenz. Die WISS steht für praxisnahe ITWeiterbildungen mit klarer Ausrichtung auf reale Unternehmensanforderungen.

Die Fachausweise verbinden fundiertes Fachwissen mit direkter Anwendbarkeit im Berufsalltag und stärken die Handlungssicherheit im Umgang mit Cyberrisiken und KI.

Die wichtigsten Fakten Cyber Security Specialist mit eidg. Fachausweis

Start: Mai 2026

Dauer: 18 Monate, berufsbegleitend

Abschluss: Eidgenössischer Fachausweis

Schwerpunkte: Prävention, Risikoanalyse, Sicherheitskonzepte, Incident Handling

AI Business Specialist mit eidg. Fachausweis

Start: August 2026

Dauer: 13 Monate, berufsbegleitend Abschluss: Eidgenössischer Fachausweis

Schwerpunkte: KI-Strategie, Prozessanalyse, Wirtscha lichkeitsbewertung, Governance

Der Informationsanlass am 26. März 2026 informiert unverbindlich über die beiden Fachausweise; ein persönliches Beratungsgespräch hil bei der individuellen Wahl der passenden Weiterbildung.

Kontakt: WISS Schulen für Wirtscha Informatik Immobilien

Bern | St. Gallen | Zürich | Online Mehr Informationen unter wiss.ch

Natürlich kann man in der IT alles selbst machen. Die Frage ist nur, ob das sicher, flexibel, zuverlässig und auch wirtschaftlich sinnvoll ist. Haben Sie die vielen Spezialisten und Systeme, die es braucht, um eine IT-Infrastruktur professionell zu betreiben? Wir schon. Über 700 erfahrene System Engineers kümmern sich um Ihre IT in der Cloud, bei Ihnen On-Premises oder auch in einem Hybrid-Modell. So kreieren wir Zeit für Sie.

Abhängigkeit und Risiken

»Das weiss ich nicht« gibt es nicht

Wer codet, sollte eine bessere Fehlerund (Selbst-)Lernkultur etablieren, denn mehr denn je gilt: «KI-Tools machen Fehler – mitunter kapitale.»

Ein Aspekt, den Michael Kofler, Sebastian Springer und Bernd Öggl in ihrem Buch «Coding mit KI» gleich mehrfach ansprechen, ist die Fehleranfälligkeit, die auf Seiten der menschlichen Anwender oder Programmierer eine umfassende Fehler- und Testkultur einfordere. So richtig es sei, dass KI-Tools die Effizienz vorantreiben, so richtig sei auch, «dass KI-Tools Fehler machen, mitunter kapitale». «Die Fehler», so die Autoren, «wiegen umso schwerer, weil gegenwärtigen KI-Tools eine inhärente Selbstkontrolle oder Selbstkritik fehlt». Statt »Das weiss ich nicht« hagelt es weiterhin Antworten, «elegant formuliert, überzeugend argumentiert, aber dennoch komplett falsch». Wer mit KIUnterstützung programmiere, verlerne bald das Hinterfragen und Nachvollziehen. Man fährt wie auf einer gähnend

leeren Autobahn. Es geht schnell voran, aber leider nicht dahin, wo man hinwollte. «Mit der Zeit wissen Sie die Syntax häufiger Konstruktionen nicht mehr auswendig, denken beim Formulieren von Schleifen nicht mehr nach, verlassen sich mehr und mehr auf den Code, den Ihr KI-Tool liefert. Ein kurzer Test, ob alles wie erwartet funktioniert – weiter geht’s!» Es dauere nicht lange, «bis Sie von KI-Tools abhängig sind». KI-Unterstützung fördert kein autonomes, sondern ein betreutes Programmieren. Das hat auch Folgen für die Sicherheit. «Die vielleicht grösste Gefahr geht von Code aus, der funktioniert, aber inhärente Sicherheitsprobleme hat. Derartiger Code fällt nicht auf, weil er die üblichen Funktionstests ja erfolgreich absolviert.» Mittelfristig könnte der Einsatz von KI allerdings auch die Entwickler und Programmiererinnen anstacheln, die sich, vielleicht stärker als je zuvor, Sicherheitsaspekten und -problemen des Codings und der entsprechenden Quellen widmen.

Wer schreibt mit?

Eine gute Dokumentation gehört zu jeder Software-Entwicklung dazu. KI-Tools helfen – und erhöhen das Vertrauen in die entwickelten Programme.

Wer Code schreibt oder ändert, muss das dokumentieren. Auch hier lauern allerdings Fallen, denn Programmierer sehen sich gerne als produktiv und innovativ – und schieben reine Dokumentationsarbeiten vor sich her. «Noch schlimmer», so Kofler, Springer und Öggl, «wird die Situation, wenn bei einer Änderung am Code die Dokumentation nicht aktualisiert wurde, da dies zu einem Vertrauensverlust bei den beteiligten Entwicklern führen

kann». Doch KI-Tools können gerade hier helfen, indem sie Dokumentation automatisch erzeugen und damit alle Entwicklungen auf dem neuesten Stand halten – auch für zukünftige Weiterentwicklungen oder Fehlerbehebungen. Allerdings müsse man seine Prompts bei Bedarf anpassen, um der KI für diese Aufgabe «ausreichend Kontext zur Verfügung» zu stellen. So könne es, wie fast immer, sinnvoll sein, verschiedene Anwendungen zu testen, denn KI-Tools bringen dann viel, wenn sie sich der Art und Weise, wie eine Person Code erstellt und dokumentieren möchte, unterordnen. Zu bedenken ist ausserdem, dass viele Dokumentationen nicht nur die Datei-, sondern auch die Architektur-Ebene mit

verschiedenen Stakeholdern informieren sollen. Gleichzeitig besteht auch beim automatischen Dokumentieren die Gefahr, als Mensch den Überblick zu verlieren und Prozesse nicht nachvollziehen zu können.

Um die Gefahr veralteter Dokumentationen durch Zeitdruck oder schlichtes Vergessen auszuklammern, raten die Autoren dazu, die Aktualisierung von Funktionen eben doch nicht vollständig aus der Hand zu geben. «Dann können Sie sich von KI-Werkzeugen helfen lassen und die Dokumentation automatisiert aktualisieren lassen.» Auch das eine wichtige Erkenntnis: In einer Zeit, die von und mit KI lebt, fällt jede noch so kleine Lücke oder Ungenauigkeit erheblich ins Gewicht.

«Coding mit KI»

E zienz garantiert, Sicherheit nicht

«Künstliche Intelligenz wird Software-Entwickler nicht ersetzen, zumindest nicht in naher Zukunft. Aber Entwicklerinnen, die KI-Tools vernünftig einsetzen, werden ihre Kollegen ersetzen, die dies nicht tun.» In ihrem Buch «Coding mit KI» (Rheinwerk Bonn 2025) loten Michael Kofler, Sebastian Springer und Bernd Öggl «das Potenzial und die Grenzen von KI-Tools bei der Software-Entwicklung» aus.

Das Trio stellt klar: «Das Ausmass des Effizienzgewinns hängt stark von der Art des Codes ab, den Sie entwickeln. Aber ein gewisses Mass an Zeitersparnis, ein höherer Arbeitskomfort bleibt praktisch immer übrig. Ganz egal, ob Sie das Glas halb voll oder halb leer sehen: Coding mit KI-Unterstützung steigert die Effizienz heute schon und morgen noch mehr.»

Wer die drei Phasen der KI-Anwendung, nämlich «Euphorie, Ernüchterung, Pragmatischer Ansatz», anerkenne oder durchschreite, könne in Zukunft nicht nur Zeit sparen, sondern auch viele Entwicklungsschritte. Das bedeute jedoch nicht, Software nicht mehr testen zu müssen. Im Gegenteil. Ärgerlich sei, «dass KI-Tools auch den grössten Blödsinn höflich und sprachlich auf hohem Niveau argumentieren.

Das macht es so schwierig, richtige Antworten von falschen zu unterscheiden.»

Die unmissverständliche Ansage der Autoren: «Verantwortlich für Ihren Code ist nicht das KI-Tool, verantwortlich sind Sie! Hoffen Sie nicht, dass der generierte Code funktioniert, testen Sie ihn gründlich unter Berücksichtigung aller denkbaren Sonderfälle! Wenn Sie den KI-generierten Code nicht nachvollziehen können, müssen Sie sich in die zugrunde liegenden Konzepte einarbeiten – auch wenn das momentan gerade unbequem ist.»

In ihrem praktischen Handbuch erläutern Kofler, Springer und Öggl nicht nur die Vorgehensweise beim Umgang mit KI-Tools, sondern sprechen dazu konkrete Governance-Risiken an. So müsse man sich bewusst machen, dass beispielsweise GitHub Copilot Zugriff auf alle Daten eines Projekts habe. «Das ist notwendig, damit das Tool funktioniert. Dieser Zugriff schliesst auch Dateien mit Passwörtern, Lizenzschlüsseln usw. ein. Sie müssen GitHub Copilot also einen grossen Vertrauensvorschuss gewähren, dass es diese Daten nicht missbräuchlich verwendet.»

«In letzter Konsequenz» gelte «diese Überlegung aber nicht nur für KI-Tools, sondern für jeden Editor, für jede Entwicklungsumgebung». Auch «eine

Backdoor in der IDE oder ein Plug-in mit Schadcode kann Unternehmensgeheimnisse nach aussen tragen». Besonders spannend wird es, wenn es um die Entwicklung komplexer Programme geht, bei der sich zusätzliche Fragen stellen. Neben der Strukturierung von Codes in Funktionen oder Methoden stelle die Objektorientierung eine zentrale Herausforderung dar. Hier stellten sich Fragen zu verschiedenen Klassen und deren Abgrenzung, öffentlichen und privaten Daten oder dem Einsatz von Vererbung und Schnittstellen. Codes mithilfe von KI-Bots oder KI-Assistenten auszuformulieren, sei das eine, so die Autoren. Klassen richtig zu konzipieren, sei das andere – und «noch wichtiger». Fans von ChatGPT und ähnlichen Chat-Systemen müssen allerdings tapfer sein, denn «je umfangreicher Ihr Code wird und je mehr Arbeit Sie an KI-Tools delegieren, desto ungeeigneter ist die Verwendung eines Chat-Systems», da «das KI-Tool den Überblick über den Code verliert, wenn Sie Teile davon selbst entwickeln». Hier kommen nun Code-Assistenten ins Spiel, die stets den gesamten Code im Blick haben, dafür aber jeder Code-Eingabe Ergänzungsvorschläge machen. «Zum effizienten Verfassen von Code ist das hilfreich, zum Lernen weniger.»

«Vibe Coding macht Individualso ware vom Luxusgut zum Normalfall»

Was wird aus So warelösungen in Zeiten von KI? Karl Rekeczki, Leiter So ware Innovation und Mitglied der Geschä sleitung der Inacta AG, über die Möglichkeiten von AI-assisted So ware Development.

Herr Rekeczki, die Aktien der traditionellen Softwareentwickler fallen. Killt KI die Softwarelösungen von gestern? KI killt nicht die Software. Aber sie stellt eine Grundannahme in Frage, auf der die gesamte Branche seit dreissig Jahren basiert: dass massgeschneiderte Software teuer sein muss. Die Börse sendet dazu gerade ein unmissverständliches Signal: Der gesamte Softwaresektor erlebt den schwersten Ausverkauf seit Jahren. Selbst Unternehmen mit starkem Wachstum und soliden Quartalszahlen werden abgestraft. Nicht, weil ihre Ergebnisse schlecht wären, sondern weil der Markt ihr Geschäftsmodell grundsätzlich in Frage stellt. Dahinter stecken drei Annahmen: KIAgenten machen teure Abonnements überflüssig und brechen das klassische «Pay per Seat»-Modell auf; die Eintrittsbarriere für Softwareentwicklung sinkt dramatisch; und die KI-Investitionen etablierter Anbieter zahlen sich möglicherweise nicht schnell genug aus. Ich sehe das differenzierter. Es geht nicht nur um Disruption, es entsteht gleichzeitig etwas Neues. Wir sehen das bei unseren Kunden aus dem Finanz-, Versicherungs- und Gesundheitssektor sehr konkret: Prozesse, die zu nischig oder zu klein waren, um eine eigene Software zu rechtfertigen, werden jetzt digital abgebildet. Es entsteht ein komplett neues Marktsegment für Anwendungen, für die es bisher schlicht keine wirtschaftlich vertretbare Lösung gab. Sie setzen auf Vibe Coding, das 2025 zum Schlagwort wurde. Wie funktioniert das?

Der Begriff wurde Anfang 2025 von Andrej Karpathy geprägt, dem ehemaligen KI-Chef von Tesla und früheren Forschungsleiter bei OpenAI. Er beschrieb damit das Gefühl, Software quasi im Dialog mit der KI entstehen zu lassen, man beschreibt in natürlicher Sprache, was man will, und die KI generiert den Code. Mit dem Begriff «Vibe Coding» bin ich ehrlich gesagt nicht ganz glücklich. Er klingt nach Spielerei, als würde man sich zurücklehnen und die KI machen lassen. Die Realität ist professioneller. Bei Inacta sprechen wir deshalb lieber von AI-assisted Software Development. Das beschreibt treffender, was tatsächlich passiert: Ein erfahrener Mensch steuert den Prozess, und die KI unterstützt bei der Umsetzung. Konkret arbeitet man mit KI-Assistenten wie Claude, Cursor oder GitHub Copilot und beschreibt das gewünschte Ergebnis im strukturierten Dialog: «Ich brauche ein Dashboard, das mir die wichtigsten KPIs in Echtzeit anzeigt, mit Ampellogik und Exportfunktion.» Die KI schlägt eine Architektur vor, schreibt den Code, testet

ihn und iteriert auf Basis von Feedback. Es bleibt ein professioneller Entwicklungsprozess, nur mit radikal anderen Werkzeugen.

Codes entstehen schneller?

Absolut. Was sich verändert, ist nicht nur die Geschwindigkeit, sondern die gesamte Kostenstruktur von Softwareprojekten. Mit den aktuellen KI-Modellen entstehen funktionsfähige Prototypen in Tagen oder sogar Stunden. Konkret: Wir haben kürzlich eine komplexe Datenanalyse-Applikation, die klassisch drei bis vier Monate gebraucht hätte, in drei Wochen als funktionstüchtigen Prototypen realisiert. Die Investitionsschwelle für massgeschneiderte Software sinkt radikal. Projekte, die sich früher erst ab sechsstelligen Budgets gelohnt haben, werden jetzt für mittelgrosse Vorhaben wirtschaftlich. Wichtig dabei: Schneller heisst nicht unsorgfältiger. Qualitätssicherung, Architekturentscheidungen und Sicherheitsaspekte bleiben anspruchsvoll und brauchen erfahrene Menschen.

Welche Rolle spielt der Mensch?

Die entscheidende, und das ist der Punkt, den viele falsch verstehen. AIassisted Development verschiebt die menschliche Kompetenz: weg von der technischen Umsetzung, hin zur strategischen Steuerung. Der Mensch wird zum Architekten und Regisseur. Er definiert, was gebaut wird, prüft die Ergebnisse und trägt die Verantwortung. Die besten Ergebnisse erzielt man, wenn tiefes Fachwissen auf die Fähigkeit trifft, mit KI effektiv zu kommunizieren. Ein Compliance-Experte, der genau weiss, welche regulatorischen Anforderungen eine Banking-Applikation erfüllen muss, kann in kürzester Zeit eine Lösung bauen, die ein reines Entwicklerteam ohne dieses Fachwissen nie so passgenau hinbekommen hätte. Ich sage deshalb bewusst: AI-assisted Development entwertet Mitarbeitende nicht, es wertet Fachwissen auf. Branchenwissen und Prozessverständnis werden zum entscheidenden Wettbewerbsfaktor. Das

ist eine gute Nachricht für den Werkplatz Schweiz, wo genau diese Kompetenz vorhanden ist.

Wie beeinflussen Prompts und spezifisches Wissen den Erfolg? Massgeblich. Die Qualität der KI-generierten Software hängt direkt davon ab, wie präzise man beschreibt, was man braucht. Wenn ein Unternehmen sein Fachwissen strukturiert einbringt, regulatorische Anforderungen, Branchenstandards, bestehende Prozesse, entstehen Lösungen von erstaunlicher Qualität.

Gibt es Branchen, die besonders profitieren?

Kurz- bis mittelfristig sehen wir den grössten Impact in wissensintensiven Branchen: Finanzdienstleistungen, Gesundheitswesen, Versicherungen, aber auch industrielle Fertigung und Logistik, also genau das Rückgrat der Schweizer Wirtschaft. Überall dort, wo spezifische Fachprozesse dazu führen, dass Standardsoftware zu generisch oder zu teuer anzupassen ist. Sobald Fachexperten verstehen, dass sie ihre Prozesse direkt in Software übersetzen können, entstehen Lösungen, auf die kein externes Entwicklerteam von alleine gekommen wäre, niemand kennt einen Prozess besser als die Person, die ihn jeden Tag lebt. Langfristig wird AI-assisted Development alle Branchen erfassen.

Wie sollten Unternehmen vorgehen? Pragmatisch und schrittweise, aber auch ehrlich: Die meisten haben heute einen erheblichen Innovationsgap. Sie sehen die Möglichkeiten, haben aber weder die Erfahrung noch die Strukturen, um KI-gestützte Entwicklung produktiv einzusetzen. Genau diese Lücke zu schliessen, ist das, was uns bei Inacta antreibt. Aus unserer Erfahrung bewährt sich ein dreistufiger Ansatz: Starten Sie mit einem konkreten Use Case, nicht mit einer grossen Strategie. Das schafft sichtbare Ergebnisse und Vertrauen in die Technologie. Identifizieren

Sie ein spezifisches Problem, das heute mit manuellen Prozessen oder unzureichender Software gelöst wird, und bauen Sie dafür einen Prototypen. Investieren Sie in «AI Fluency» Ihrer Mitarbeitenden, die Fähigkeit, Anforderungen präzise zu formulieren und KI-Ergebnisse kritisch zu beurteilen, ist die Schlüsselkompetenz der nächsten Dekade. Und bauen Sie eine sichere Infrastruktur auf: KI-gestützte Entwicklung mit sensiblen Unternehmensdaten erfordert klare Governance-Regeln und definierte Qualitätsstandards. Ohne dieses Fundament bleibt es bei Experimenten, mit ihm wird es zum strategischen Wettbewerbsvorteil.

Wie reagieren Ihre Kunden? Mit Staunen, und dann sehr schnell mit konkreten Ideen. Sobald Entscheider verstehen, wie stark die Kosten für Individualsoftware gesunken sind, sehen sie plötzlich Probleme, die sie jahrelang als «zu klein für eine Softwarelösung» abgehakt hatten: Der Qualitätsprüfungsprozess auf Excel-Listen. Das Reporting, das ein Mitarbeiter jeden Freitag manuell erstellt. Die Schnittstelle zwischen zwei Systemen, die nie jemand gebaut hat, weil der Business Case fehlte. Plötzlich ist er da. Das ist die eigentliche Revolution: Nicht dass grosse ERP-Systeme ersetzt werden, sondern dass tausende kleine Einsatzgebiete erstmals eine digitale Lösung bekommen. Individualsoftware wird vom Luxusgut zum Normalfall. Zwischen Erkenntnis und Umsetzung klafft aber noch eine grosse Lücke, es fehlt an Methodik, Architekturkompetenz und Erfahrung. Genau dort sehen wir unsere Rolle: diesen Innovationsgap zu schliessen. Zwischen «gar keine Software» und «teures Enterprise-System» gab es

Steckbrief

Inacta AG Seit 2009 hil die Inacta AG Unternehmen bei Innovationen und der digitalen Transformation. Der Fokus des unabhängigen Schweizer IT-Beratungsunternehmen mit Sitz in Zug und über 100 Mitarbeitenden liegt auf Vertrauen, Transparenz, E izienz und langfristigem Erfolg, um Kunden aus den Branchen Banken, Versicherungen sowie dem Gesundheitswesen umfassend zu unterstützen.

Karl Rekeczki Seit 2021 ist Karl Rekeczki Leiter des So ware Innovation Center und Mitglied der Geschä sleitung der Inacta AG. Zuvor war der diplomierte IT-Ingenieur (FH) und Executive MBA HSG als CDO und Leiter des digitalen Geschä s für die Livit AG sowie als Digital Advisor für pom+ Consulting tätig. Von 2014 bis 2018 war er Head of Demand & Benchmark Management sowie Program Manager der Swisscom. Er ist Beirat der Fachgruppe AI bei Swiss Engineering.

Mehr Informationen unter inacta.ch

Karl Rekeczki Head of So ware Innovation Center

bisher fast nichts. Dieses Vakuum füllt sich jetzt, und die Unternehmen, die das früh erkennen und handeln, werden einen Vorsprung haben, den andere kaum noch aufholen können.

«Niemand kennt einen Prozess besser als die Person, die ihn jeden Tag lebt.»

Workshops

Wenn Transformationen in Technologiekonzernen und Finanzinstituten scheitern, liegt die Ursache selten an fehlender Fachkompetenz, sondern an festgefahrenen Kommunikationsmustern und unbemerkten Konflikten. Ein unkonventioneller haptischer Ansatz bricht diese Blockaden nun radikal auf und zwingt Teams durch ein striktes Framework zu echten, messbaren Resultaten.

Kollektive Intelligenz für den technologischen Wandel

Wenn Technologieführer, Unternehmensberatungen oder Finanzinstitute ihre Geschäftsmodelle anpassen, prallen oft unterschiedliche Welten aufeinander. Softwareentwickler:innen sprechen eine fundamental andere Fachsprache als Finanzfachleute oder Marketingexpert:innen. Klassische Besprechungen oder unstrukturierte Brainstormings stossen hier schnell an ihre Grenzen. Oftmals dominieren die immer gleichen, extrovertierten Persönlichkeiten die Diskussionen, während wertvolles Fachwissen von ruhigeren Teammitgliedern im Verborgenen bleibt.

Um hochkomplexe Herausforderungen in der Informationstechnologie zu lösen, bedarf es der kollektiven Intelligenz aller Fachkräfte. Ein haptischer Ansatz bricht ineffiziente Kommunikationsmuster effektiv auf. Fachexpert:innen debattieren ihre Ideen nicht ausschliesslich verbal, sondern sie visualisieren ihre Gedanken in kreativen Workshops durch das Bauen von dreidimensionalen Modellen mit Bausteinen von LEGO®.

Dieser Bauprozess im Rahmen der Methode LEGO® Serious Play® nutzt die intensive Koordination zwischen den Händen und dem Gehirn, was das Verständnis von vielschichtigen Problemen weitaus verbessert. Viele Kenner bezeichnen diesen Ansatz treffend als «Gedankendrucker». Da unzählige Nervenenden unsere Hände direkt mit dem Gehirn verbinden, denken die Teilnehmer:innen sprichwörtlich mit ihren Händen und finden so intuitive Lösungen abseits gewohnter Pfade.

Psychologie, Struktur und tiefgreifende Aha-Erlebnisse

Der fundierte Prozess der Methode durchläuft stets vier strukturierte Schritte. Zuerst formuliert die Moderation eine klare Aufgabenstellung. Danach konstruieren alle Teilnehmer:innen ihre individuelle Antwort aus den bunten Steinen in Form einer Metapher. Im dritten Schritt teilen sie die Bedeutung ihrer Bauwerke nacheinander mit der gesamten Gruppe, bevor das Team im vierten Schritt die gemeinsamen Erkenntnisse reflektiert. Diese strikte Herangehensweise garantiert, dass jede Person eine gleichberechtigte Stimme erhält. Die psychologische Basis dieser Methodik bildet die Flow-Theorie, welche die optimale Balance zwischen einer anspruchsvollen Herausforderung und den eigenen Fähigkeiten der Fachkräfte beschreibt.

Kreative Workshops für messbare strategische Erfolge

Millionenbudgets fliessen jährlich in strategische O sites, doch die meisten brillanten Ideen überleben den harten Aufprall im operativen Tagesgeschä nicht.

In der Praxis entstehen durch diesen Prozess regelmässig prägende AhaErlebnisse. Teilnehmer:innen bauen bildhafte Metaphern, wie zum Beispiel einen Elefanten, der einen schwierigen Balanceakt im Team symbolisiert. Andere nutzen eine Schildkröte für den eher langsamen Innendienst, die sie über einen direkten Weg mit einem bissigen Tiger verbinden, der die anspruchsvolle Kundschaft darstellt. Der grösste Vorteil dieser Methode liegt in der objektiven Kommunikation: Wenn Fachkräfte ein kritisches Feedback äussern, blicken sie auf das Modell auf dem Tisch und nicht ihrem Gegenüber in die Augen. Diese indirekte Adressierung ermöglicht es, harte Wahrheiten offen und dennoch respektvoll anzusprechen, ohne dass sich Einzelpersonen angegriffen fühlen.

Komplexe Projekte haptisch und visuell meistern

Zahlreiche Organisationen nutzen diese Methodik erfolgreich für komplexe Transformationen. Livio Diem, ein Ingenieur beim Sicherheitsspezialisten Dormakaba, berichtet von einem Workshop zur Strukturierung einer neuen Geschäftseinheit. Die direkt betroffenen Mitarbeiter:innen interagierten am Modelltisch miteinander, spielten sämtliche Alternativen durch

«Ein Team funktioniert ähnlich wie ein hochkomplexer Motor. Sobald Teams ihre verborgenen Blockaden am Modelltisch erkennen und die Reibungsverluste minimieren, entfaltet die Gruppe ihr volles

Leistungspotenzial.»

und fanden so eine äusserst tragfähige Lösung für ihre zukünftige Teamkonstellation.

Ein weiteres eindrückliches Beispiel liefert altra schaffhausen. Das Unternehmen suchte nach einer innovativen Struktur für den digitalen Auftritt und erarbeitete diese gemeinsam mit Führungskräften und Mitarbeiter:innen. Zuerst visualisierten die Teilnehmenden ihren Arbeitsalltag und bauten anschliessend ihre Interpretation des neuen Unternehmensmantras. Erst danach verbanden sie ihre Werke zu einem grossen Landschaftsmodell. Der entscheidende Durchbruch gelang, als die Gruppe die quadratische Anordnung auflöste und die einzelnen Modelle vertikal anordnete – exakt so, wie Nutzer:innen auf einem Bildschirm durch eine Internetseite scrollen. Diese räumliche Veränderung brachte sofortige Klarheit über die Abhängigkeiten der einzelnen Abteilungen. Das fertige Konstrukt fixierte das Team auf einer massgeschneiderten Holzplatte. Mit diesem anschaulichen Modell führte das Unternehmen anschliessend die Präsentationen für Digitalagenturen durch. Die Agenturen erhielten die Aufgabe, ihren eigenen Mehrwert ebenfalls mit Steinen zu bauen und direkt an das grosse Kundenmodell anzudocken. «Ein Team funktioniert ähnlich wie ein hochkomplexer Motor. Sobald Teams ihre verborgenen Blockaden am Modelltisch erkennen und die Reibungsverluste minimieren, entfaltet die Gruppe ihr volles Leistungspotenzial.»

Verborgene Dynamiken aufdecken und Teams beschleunigen

Versteckte Erwartungshaltungen bergen ein beträchtliches Konfliktpotenzial in Projektgruppen. Bevor Teams jedoch in eine kreative Lösungsfindung einsteigen, analysiert ein digitales Werkzeug die genaue Ausgangslage. Interessierte finden dieses Instrument unter www. team-scan.ch im Internet. Die Auswertung macht präzise messbar, wo Konflikte bestehen, welche Kommunikationsmuster den Fortschritt bremsen und ob

unklare Rollenverteilungen herrschen. Dieser Ansatz verdeutlicht die Kernphilosophie moderner Organisationsentwicklung. Ein Team funktioniert ähnlich wie ein hochkomplexer Motor. Wenn die einzelnen Zahnräder – die Mitarbeiter:innen – nicht perfekt ineinandergreifen, entsteht Reibung. Reibung erzeugt unnötigen Aufwand und bremst die gesamte Maschine. Sobald Teams ihre verborgenen Blockaden am Modelltisch erkennen und die Reibungsverluste minimieren, entfaltet die Gruppe ihr volles Leistungspotenzial. Dieser Prozess wirkt wie ein Katalysator und agiert als eigentlicher Teambeschleuniger für das gesamte Unternehmen.

Eine eigene Erfindung für die konsequente Umsetzung Der beste kreative Workshop verliert seine strategische Wirkung, wenn der operative Druck des Tagesgeschäfts die Teams wieder einholt. Aus der Beobachtung von unzähligen Offsites über mehr als zehn Jahre hinweg stellte der Facilitator Oliver Gabor ein wiederkehrendes Muster fest: Gute Ideen sterben fast immer am fehlenden Nachbereitungsprozess. Aus dieser Erkenntnis heraus entwickelte und erfand er das sogenannte Workshop Follow-Up Framework. Dieses praxisnahe Rahmenwerk bündelt ausschliesslich Massnahmen, die sich im harten Unternehmensalltag nachweislich bewähren.

Das erprobte Konstrukt umfasst sieben klare Schritte. Nach dem initialen Team-Scan bestimmen die Führungskräfte noch während des Offsites sogenannte Umsetzungs-Navigatoren.

Diese Personen besitzen keine direkte Befehlsmacht, sondern sie schützen bewusst die Zeit für die Umsetzung und halten das Thema lebendig. Alle 14 Tage findet ein kurzes Treffen statt, welches die Gruppe mithilfe eines speziellen Navigatoren-Canvas strukturiert. Dieses Hilfsmittel lenkt den Fokus zwingend auf kleine, rasch realisierbare Fortschritte. Falls der Prozess ins Stocken gerät, nutzt das Team den Team-Scan als BlockadenDetektor. Nach genau drei Monaten

Die Teambeschleuniger GmbH macht verborgene Teamdynamiken sichtbar und bringt Organisationen direkt in die Umsetzung. Im Zentrum steht Geschä sführer Oliver Gabor. Er vereint spannende Gegensätze: Der Elektroingenieur startete seine Laufbahn in der Entwicklung komplexer So ware. Dabei erkannte er rasch, dass niemals die Technik, sondern stets der Mensch den wahren Projekterfolg bestimmt. Heute navigiert der Systemische Coach und zertifizierte Facilitator für LEGO® Serious Play® vielschichtige Transformationsprogramme. Er versteht die harte Sprache der Entwickler:innen ebenso fliessend wie die feinen Zwischentöne der Führungsetagen. Mit einer gesunden Portion Ungeduld, viel Humor und kreativen Werkzeugen lockt er Teams aus ihrer Reserve. Er beschleunigt Organisationen nachhaltig und verwandelt Strategien in messbare Realitäten.

Mehr Informationen unter teambeschleuniger.ch

Oliver Gabor Geschä sführer

vergleicht ein zweiter Scan die neuen Resultate mit der Ausgangslage. Dieser nachweisbare Fortschritt motiviert die Teams enorm und verwandelt abstrakte Vorgaben der Geschäftsleitung in messbare Realitäten.

Infobox: Workshop Follow-Up Framework Das Workshop Follow-Up Framework sichert die wertvollen Ergebnisse aus Workshops, sowie aus Offsites und garantiert die konsequente Umsetzung im anspruchsvollen Arbeitsalltag. Interessierte laden das komplette Rahmenwerk bequem über den QR-Code auf ihre Geräte herunter.

Steckbrief

Wirksamere Führung über O enheit und psychologische Ansätze

Mit mehrjähriger Führungserfahrung nehmen die Chancen zu, neue Aufgaben anzupacken, Mitarbeitende noch besser zu motivieren und die Unternehmensentwicklung aktiv zu beeinflussen. Diese Chancen sollten Unternehmen nutzen, meint Prof. Dr. Christoph Müller, Programm-Direktor der HBM Unternehmerschule an der Uni St. Gallen.

Herr Prof. Müller, ist die Weiterbildung von Führungskräften zu einer Zeit, die von praktisch allen Menschen und speziell Mitarbeitenden ein „lebenslanges Lernen“ fordert, nicht obligatorisch?

Bei uns in der Schweiz hat das lebenslange Lernen eine viel stärkere Tradition als in anderen Ländern. Das fängt beim Übergang von der Schule ins Berufsleben an und setzt sich dann während der Karriere fort. Allerdings registrieren auch wir, dass gerade Budgets für Weiterbildung in herausfordernden Zeiten wie diesen bei Unternehmen zuerst gekürzt werden. Aber es gibt zum Glück auch weiterhin Unternehmen und Banken, die kontinuierlich in ihre Mitarbeiter:innen investieren.

Was für Potenziale gibt es bei erfahrenen Führungskräften?

Erfahrene Führungskräfte stehen trotz ihrer unter Beweis gestellten Führungserfahrungen auch vor neuen Herausforderungen: Je höher ich aufsteige, umso einsamer kann es um mich herum werden, und wie kann ich mich dann selbst führen, wie wirke ich als Führungskraft, wie führe ich Mitarbeiter:innen aus einer anderen Generation, wie kann ich eine anstehende Transformation meistern?

Einfach per Befehl im Townhall-Meeting oder muss ich dafür differenzierter und intelligenter vorgehen? Ganz wichtig: Für welche Werte stehe ich, welche Kultur fördere ich, welchen Sinn vermittle ich? Das sind zentrale Fragen des existenziellen Leadership, die man und frau sich spätestens ab 40 Jahren stellen.

Was sind die Inhalte im Leadership Development Program, das Sie anbieten? In diesem Programm dreht sich alles um Förderung der Persönlichkeits-, Sozial- und Führungskompetenzen von (Nachwuchs-)Führungskräften des mittleren und oberen Kaders. Sie weisen fundierte Fachkompetenzen aus, wollen sich jetzt auf die nächsten

Führungsherausforderungen vorbereiten. Zu den Kompetenzen im Umgang mit verschiedenen betriebswirtschaftlichen Feldern gehören auch Themen wie Mitarbeiter- und Teamführung und das eigene Entwicklungsprogramm.

Sie helfen auch beim Umgang mit unterschiedlichen Kulturen, neuen Organisationsformen und den Auswirkungen der Digitalisierung. Wo liegen dort die Herausforderungen?

Diese sind vielfältig! Ob in der Schweiz oder im internationalen Geschäft, wir sind meistens mit Kolleg:innen aus verschiedenen Nationen und Kulturen im Austausch, und das will verstanden und gekonnt sein. Sei es die Mitarbeiter:innen-Führung oder das geschäftliche Verhandeln. Das wollen wir verstehen und eintrainieren. Dazu die Erwartungen der jüngeren Generationen an Zusammenarbeit, Flexibilität, Arbeitszeiten und Umgangsformen sowie der richtige Umgang damit. Und da spielen dann auch die neuen digitalen Kollaborationswerkzeuge mit hinein, um die Effizienz zu steigern.

Brauchen Führungskräfte aus unterschiedlichen Branchen unterschiedliche „Skills“?

Unsere Teilnehmer:innen haben zumeist einen technischen Ausbildungshintergrund. Fragen der Betriebswirtschaft und der Führung erfahren sie dann im

Berufsalltag, und wollen sich darin professionalisieren und verbessern. Deshalb nehmen diese „Skills“ eine wichtige Rolle im Programm ein. Je mehr Verantwortung die Führungskräfte übernehmen, um so wichtiger werden die gerade genannten Fragen der Selbstführung, der Werte und der Kulturgestaltung. Schaffen es die Führungskräfte ein leistungsförderndes, motivierendes und sinnhaftes Umfeld mit psychologischer Sicherheit zu schaffen, oder regieren sie nur mit Macht- und Angstspielen und sind unfähig zu kommunizieren?

In Ihrem Advanced Management Program fördern Sie neben der Persönlichkeits- und Sozialkompetenz auch die Unternehmensentwicklungskompetenz. Wie muss man sich das vorstellen? Das beginnt bei einem tiefen Verständnis der zurzeit ablaufenden Entwicklungen, der sichtbaren wie der unsichtbaren. Dazu öffnen wir das Blickfeld: Geound Sicherheitspolitik, Welthandel und Währungspolitik, Verschiebungen der Produktionsstandorte, demographische Trends und auch Veränderungen im Wertegerüst einer Gesellschaft und der politischen Prozesse. Dann beginnt die Arbeit mit Strategieprozess-Modellen zum Aufstellen einer Strategie und die Auseinandersetzung mit der eigenen Entscheidungsfindungsqualität. Hier spielen dann Fragen wie das Führen von unternehmerischen Ökosystemen, der

«Ein Entrepreneur ist, wer auf dem Weg zu seiner Vision immer wieder über sich hinauswächst und dabei andere mitzieht, so dass alle gewinnen.»

Umgang mit Wertsteigerungshebeln, das Planen einer nachhaltigen Wachstumsstrategie und der Umgang mit Innovationen hinein.

Kann man strategisches Vorgehen lernen?

Das ist das Ziel, mit den passenden Modellen und Ansätzen die Qualität des strategischen Vorgehens zu verbessern. Die Zukunft selbst ist nicht genau planbar, aber wie man das eigene Bild der Zukunft entwickelt und wie man trotz Störungen auf dem Weg dazu vorankommt, das ist erlernbar. Hierzu hat gerade die HSG eine grosse Expertise aufgebaut. Und da wir eine Unternehmerschule sind, wollen wir natürlich auch die aktive Gestaltung der eigenen Zukunft fördern. Dazu dienen die Projekt- bzw. Diplomarbeiten, mit denen strategische Herausforderungen analysiert, gelöst und dann – ganz wichtig – auch in die Tat umgesetzt werden. Das ist dann die Königsdisziplin, die wir fördern wollen.

„Ein Entrepreneur ist, wer auf dem Weg zu seiner Vision immer wieder über sich hinauswächst und dabei andere mitzieht, so dass alle gewinnen.“ Sagte Karl Schlecht.

Was bedeutet „Operational Excellence“ in der heutigen Zeit?

Operational Excellence muss neben der unternehmensinternen Effektivität und Effizienz immer auf den Mehrwert für die Kunden ausgerichtet sein. Dazu sind menschliche und technologische Kompetenzen intelligent miteinander zu kombinieren. Das ist dann je nach Branche und Unternehmen stärker menschen- oder stärker technologieorientiert.

Wie wichtig ist bei den Programmen der Austausch mit Führungskräften aus anderen Branchen?

Steckbrief

Nach ihrer Gründung 2006 durch die Henri B. Meier Sti ung startete die HBM Unternehmerschule an der Universität St. Gallen ihren Betrieb mit dem weiterhin angebotenen Diplomprogramm «Management von Wachstum in Technologie-Unternehmen (TU-HSG)», das 2017 in das «Leadership Development Program» überführt wurde. 2011 wurde dann das «Advanced Management Program» für oberste Führungskrä e lanciert. Seit Mitte 2022 liegt die Programm-Direktion für die genannten Programme bei Prof. Dr. Christoph Müller. Er ist Titularprofessor für Betriebswirtscha slehre mit besonderer Berücksichtigung der KMU und der Unternehmensgründungen an der Universität St. Gallen. Der Schweizer Entrepreneur und HSG-Alumni Dr. Henri B. Meier ist weiterhin im Sti ungsrat aktiv.

Mehr Informationen unter unternehmerschule.unisg.ch

Prof. Dr. Christoph Müller Titularprofessor für Betriebswirtscha slehre

Ganz entscheidend. Bei Führungskräften besteht die Gefahr, wie bereits erwähnt, dass sie tendenziell immer einsamer werden. Wem können sie sich noch anvertrauen, wer gibt ihnen einen ehrlichen und offenen Ratschlag? Hier nimmt der branchenübergreifende Austausch im Rahmen unserer Diskussionen und Workshops eine wichtige Rolle ein, um in einem vertrauensvollen, geschützten Rahmen über die eigenen Führungserfahrungen und strategischen Herausforderungen sprechen zu können. Und siehe da, man ist nicht mehr so alleine auf der Welt, andere haben dieselben Herausforderungen zu meistern, und gehen Wege, die auch für einen selbst gangbar sind. Hinzu kommen die unternehmerischen Erfahrungen unserer Dozierenden. Diese sind nicht nur theoretische Profis, sondern haben in ihrem Leben auch bewiesen und erfahren, wie Führung in der Praxis gelebt wird. Und dann entsteht ein echter, lebendiger und nutzenbringender Erfahrungsaustausch.

VON RÜDIGER SCHMIDT-SODINGEN

Dass die Rechenleistungen immer weiter steigen, liegt nicht nur an der allgemeinen Digitalisierung wirtschaftlicher Vorgänge oder dem privaten Smartphone- und Streamingkonsum. Wo die technologischen Möglichkeiten immer besser werden, werden auch die kriminellen besser. Das bedeutet, dass auch die Unternehmen und Privatpersonen ins Rechnen kommen müssen, die sich gegen Angriffe oder Betrugsversuche umfassend wehren wollen. Über kurz oder lang wird der Staat die Sicherheit vor Cyberangriffen oder Deepfakes garantieren müssen. Die Polizei patrouilliert dann zunehmend auf Datenautobahnen und weniger auf Dorfstrassen.

Mehr Datenverkehr, mehr Überprüfungen, mehr Abwehraktionen und kurzfristige Verlagerungen von angegriffenen Datenstrukturen auf Ersatzserver bedeuten vor allem eins: noch mehr Rechenleistung. Entsprechend ist der Kampf um neue Datacenter, die nicht nur in den Städten, sondern auch auf dem Land entstehen sollen, eigentlich schon entschieden. In Volketswil soll 2028 ein 100-Megawatt-Rechenzentrum ans Netz gehen, dass «so viel Strom verbrauchen wird wie rund ein Fünftel der Stadt Zürich», resümiert Tamara Keller in einem Beitrag für die Initiative AlgorithmWatch, die sich die menschen- und vor allem demokratiefreundliche Nutzung von algorithmischen Entscheidungssystemen und KI auf die Fahnen geschrieben hat. Keller weist daraufhin, dass «über zehn Neu- und Ausbauten von Rechenzentren in den kommenden drei Jahren in der Schweiz fertiggestellt werden sollen». Dabei werden die Datacenter zwar in «möglichst geringer geografischer Distanz voneinander gebaut, jedoch so weit voneinander entfernt, dass der Betrieb auch gesichert bleibt, falls eines der Zentren ausfallen sollte». Dieses Bauprinzip erkläre, «zumindest teilweise», die Konzentration von Projekten rund um Zürich.

Rechenzentren als Daten- und Stromumwandler

Inwieweit die bereits bestehenden oder im Bau befindlichen Schweizer Datacenter auch für das Trainieren grosser Sprachmodelle verwendet werden, ist noch nicht vollständig geklärt. Ein zusätzlicher Energiebedarf dagegen schon. Der Aus- und Aufbau von Rechenzentren erfordert zudem entsprechende Kühlungsvorrichtungen, die ebenfalls Strom verbrauchen. Da die eingesetzte Energie vollständig in Abwärme umgewandelt wird, die dann mit der entsprechenden Aufbereitung durch Wärmepumpen zu mindestens 85 bis 90 Prozent in Heizsysteme fliessen könnte, sind Rechenzentren mehr als nur Daten- und Stromfresser. Sie sind im doppelten Sinne Umwandler, die Daten in neue Erkenntnisse und Strom in neue Energie verwandeln. Gleichzeitig stellt die Stromversorgung dieser kritischen Hochleistungsinfrastrukturen nicht nur die Elektrizitätswerke, sondern auch die Übertragungsnetzbetreiber vor Herausforderungen. Zusätzlich erfasst das am 1. Januar in Kraft getretene «Bundesgesetz über eine sichere Stromversorgung mit erneuerbaren Energien» auch die Betreiber von Rechenzentren als Grossverbraucher. Einerseits könnten diese von den neuen Möglichkeiten zur Bildung von lokalen Elektrizitätsgemeinschaften profitieren, andererseits drohen weitere Verordnungen, um aktiv zur Netzstabilität beizutragen. Wolfgang Zepf, Geschäftsführer von Vantage Data Centers Schweiz, sagt im Interview mit dem Blue Magazin der EKZ: «Die Kunst ist es, grössere bebaubare Industrieparzellen von circa drei Hektar in geographisch günstiger Lage zu finden, für die sich dann auch noch ein entsprechender Stromanschluss von zwischen 60 bis 100 MW innert nützlicher Frist realisieren lässt. Während wir die Dinge

Daten suchen ein Zuhause

Die zunehmende Digitalisierung erfordert entsprechende Rechenkapazitäten. Energieanbieter und Dienstleister stehen vor grossen Herausforderungen, um Datacenter rund um die Uhr in Betrieb zu halten und Ausfälle oder Angri e jederzeit kompensieren zu können.

für Planung und Bau der Rechenzentren relativ gut selbst in der Hand haben, sind wir bei der Strombeschaffung stark von den jeweiligen Netzbetreibern und deren Kapazitäten abhängig.» Die Bereitstellung von Rechenzentren könne nie schnell genug erfolgen. «Hier treffen mitunter zwei Welten aufeinander. Ich wünschte mir schnelleres Handeln und effizientere Taskforces bei und unter den Netzbetreibern, um innert nützlicher Frist eine grobe Machbarkeitsstudie als Grundlage für den Netzanschlussvertrag zu erarbeiten. Auf politischer Ebene ist zu sagen, dass der Grossteil aller Regulierungen entstanden ist, bevor Rechenzentren überhaupt zu einer Kategorie im Immobilienbereich wurden. Hier wäre die eine oder andere sinnvolle Anpassung sicherlich im allgemeinen Interesse.» Im Vergleich zum internationalen Wettbewerb sei die Schweiz «klar auf der langsamen Seite».

Ressourcenverbrauch vs. Datensouveränität

Dass sich einige Gemeinden oder NGOs gegen Rechenzentren wehren, liegt nicht nur an einer überfallartigen Planung oder am enormen Stromverbrauch, sondern auch an der Wasserkühlung mithilfe der örtlichen Trinkwasserversorgung oder Flüsse, wobei einige Kühlungssysteme, die direkt über die Chips fliessen, nur einmal befüllt werden müssen und nicht kontinuierlich Wasser verbrauchen. In ihrem Beitrag für AlgorithmWatch moniert Tamara Keller am Ende vor allem

eine mangelnde Transparenz: «Angesichts der Konsequenzen, die Rechenzentren für die Energieversorgung haben, ist auffällig, dass die Branche weitgehend unsichtbar bleibt. Wer in den Rechenzentren Flächen mietet, welche Daten dort verarbeitet werden, welche Sprachmodelle laufen, wie viel Energie KI-Workloads beanspruchen oder wie viel Wasser einzelne Anlagen benötigen», sei kaum nachvollziehbar. So habe «selbst der Bund» in seinem Mitte September 2025 veröffentlichten Bericht «Künstliche Intelligenz und Versorgungssicherheit» eingeräumt, «dass er gar nicht weiss, welche KI-Modelle in der Schweiz überhaupt betrieben werden, geschweige denn, wie viel Strom sie verbrauchen».

Mit der Inbetriebnahme von Rechenzentren bilden sich zudem IT- und Facility-Management-Strukturen, die kritische Ersatzteile in greifbarer Nähe unterbringen und regelmässig die Umgebungsbedingungen samt Kühltechnologien und Sicherheitsstrukturen untersuchen müssen. Auch der Transportweg und die Lieferketten müssen für einen kontinuierlichen Betrieb einwandfrei geklärt sein. Angesichts der zunehmenden Debatten um digitale Selbstbestimmung und digitale Souveränität, die Stadt als auch Land betreffen, müssen Gemeinden der Bevölkerung vermitteln können, wie sehr Rechenzentren für jeden einzelnen Bürger arbeiten. Auch die globalen Auswirkungen, etwa die Einbeziehung bis dato vom Wirtschaftsleben

ausgeschlossener Menschen in entfernten Ländern, müssen thematisiert werden, um zu erfassen, was digitale Dienste in Zukunft noch leisten werden, um Gerechtigkeit herzustellen oder ein neues Wirtschaften zu ermöglichen.

Rechenzentren als Crime-Killer Wenn gleichzeitig immer mehr Menschen Opfer von Deepfakes werden, mit wirtschaftlichen wie psychischen Folgen, müssen Staaten aber nicht nur die Chancen, sondern auch die Risiken der digitalen Welt mithilfe eigener Datenleistungen und -verarbeitungen in die Hand nehmen. «Künstliche Intelligenz revolutioniert den Kampf zwischen Unternehmen und Betrügern», sagt Jochen Werne vom globalen Daten- und Technologiedienstleister Experian. «Globale Bedrohungen erfordern den Einsatz modernster Technologien und Datenanalysen, um neuen Gefahren stets einen Schritt voraus zu sein. Regelbasierte

Modelle reichen nicht mehr aus, um auf die dynamisch sich entwickelnde Bedrohungslage zu reagieren und somit der Sorgfaltspflicht gegenüber den eigenen Kunden nachzukommen.» Dabei seien «die kontinuierliche Weiterentwicklung und KI-basierte Verfeinerung der Modelle entscheidend, um persönliche und finanzielle Daten in einer zunehmend digitalen Welt dauerhaft zu schützen». Wer keine Rechenkapazitäten hat, muss den Stecker ziehen oder sich Cyberangriffen wehrlos ergeben. Fake-Profile, von KI generierte Anrufe, kompromittierende Bilder, Phishing-E-Mails, Produktfälschungen, Verschleierungen von Kinderarbeit… Die Liste der Schäden wird jeden Tag länger – und taugt nicht dafür, gegen den Bau von Rechenzentren mobil zu machen. Das Echte wird nur gerettet werden können durch die mit erheblichen Rechenleistungen verbundene Abwehr oder Enttarnung des datengenerierten Falschen.

«Das Echte wird nur gerettet werden können durch die mit erheblichen Rechenleistungen verbundene Abwehr oder Enttarnung des datengenerierten Falschen.»

KI, die wirklich funktioniert

Die Vision eines autonomen Kundenservice treibt Unternehmen an, doch die Realität ist ernüchternd. Eine aktuelle MIT-Studie bestätigt, dass 95 Prozent der KI-Projekte scheitern. Die Lösung liegt in einem neuen Paradigma: weg von isolierten Bots, hin zu orchestrierten KI-Teams, die in die komplexen Prozesse von Unternehmen eingebettet sind.

Die Erwartungen an Künstliche Intelligenz im Kundenservice sind hoch: Die Technologie soll die Effizienz steigern, Kosten senken und gleichzeitig die Kundenzufriedenheit verbessern. Doch der Weg von der Vision zur Realität ist steinig. Die MIT-Studie «The GenAI Divide» des NANDA-Forschungsprogramms kommt zu einem klaren Ergebnis: 95 Prozent der KI-Pilotprojekte in Unternehmen liefern keinen messbaren Geschäftswert. Eine zweite, unabhängige Studie von Typewise, basierend auf Interviews mit 61 C-Level-Führungskräften aus zwölf Branchen in Europa, identifiziert die tieferliegenden Ursachen: Es sind nicht die KI-Modelle, die versagen, sondern die organisatorischen Rahmenbedingungen.

Die unsichtbare Hürde: Systemgrenzen

Die Typewise-Studie «Beyond the Bot» zeigt, dass die grössten Hindernisse nicht technologischer, sondern organisatorischer Natur sind. So nennen 43 Prozent der befragten Führungskräfte den internen Widerstand als grösstes Hemmnis für den KI-Einsatz. Zudem offenbart die Untersuchung eine durchschnittliche «Agenten-Reife» von nur 2,9 von fünf Punkten – selbst die am weitesten fortgeschrittenen Branchen wie Software und IT-Dienstleistungen bewegen sich im Bereich «gut, aber noch nicht erstklassig». Die grundlegenden Voraussetzungen für den autonomen KI-Einsatz – von durchgängigen Prozessen über saubere Daten bis hin zu klaren Governance-Strukturen – sind in den meisten Organisationen noch nicht gegeben.

Ein einfacher Bot stösst hier schnell an seine Grenzen, wenn eine Kundenanfrage mehr erfordert als eine simple Datenbankabfrage – etwa die gleichzeitige Prüfung von Bestelldaten, die Aktualisierung eines CRM-Eintrags und die Einholung einer internen Freigabe. Die KI kann eine Aufgabe nicht zu Ende führen, weil sie nicht befähigt ist, systemübergreifend zu agieren. Das Ergebnis sind Prozessbrüche, manuelle Nacharbeit und frustrierte Kundschaft.

Die Lösung: Das orchestrierte KI-Team Um diese Systemgrenzen zu überwinden, ist ein fundamental neues Architekturprinzip erforderlich. «Agenten-KI im Kundenservice scheitert nicht, weil die Sprachmodelle zu schwach sind, sondern weil die Koordination in realen Unternehmensumgebungen zusammenbricht», erklärt David Eberle, CEO und Mitgründer von Typewise. «Eine Kundenanfrage ist selten eine einzelne Aktion. Sie erfordert Datenabrufe, System-Updates, Freigaben und menschliches Urteilsvermögen. Unsere KISupervisor-Engine wurde entwickelt,

um genau diese kollaborativen, realen Arbeitsabläufe zu managen.» Der Ansatz von Typewise zerlegt komplexe Probleme in handhabbare Aufgaben, die von einem Team spezialisierter Agenten bearbeitet werden. Ein Spezialisten-Agent versteht die Kundenabsicht und steuert den Lösungsprozess, während ein Wissens-Agent Informationen aus internen Systemen und Wissensdatenbanken beschafft und ein Aktions-Agent innerhalb definierter Leitplanken sicher Aktionen in Geschäftssystemen wie CRM oder ERP ausführt. Gesteuert wird dieses Team von einem KI-Supervisor, der als Dirigent die Orchestrierung übernimmt, Richtlinien durchsetzt und bei Bedarf menschliche Expertise hinzuzieht. Entscheidend ist, dass die Konfiguration dieser Workflows in natürlicher Sprache erfolgt und somit die Fachexpertinnen und Fachexperten im Kundenservice befähigt, die KI selbst zu steuern – ohne Abhängigkeit von IT-Abteilungen oder externen Integratoren.

Ein Stufenplan für sichere Autonomie KI muss verantwortungsvoll und schrittweise skaliert werden. Typewise nutzt hierfür die «Agentic Ladder», ein Reifegradmodell, das den Weg von der reinen Assistenz zur gesteuerten Autonomie vorzeichnet. Der Prozess beginnt im assistiven Modus, in dem die KI menschlichen Agenten zuarbeitet, indem sie Antworten vorschlägt, Konversationen zusammenfasst oder relevantes Wissen bereitstellt. Die Studie bestätigt, dass

Typewise ist eine führende EnterprisePlattform für KI im Kundenservice mit Sitz in Zürich. Mit KI-Agenten und einem intelligenten Agenten-Assistenten automatisiert das Unternehmen den Kundenservice von Grund auf. Zahlreiche Fortune-500-Unternehmen, darunter Unilever und DPD, konnten mit der Technologie von Typewise den Aufwand um 50 Prozent oder mehr reduzieren. Typewise wurde vom renommierten US-Accelerator Y Combinator gefördert, vom Swiss Economic Forum mit dem «SEF.Growth High Potential Label»

hier heute der grösste Wert realisiert wird: Assistive KI ist in Chat- und EMail-Kanälen bereits weit verbreitet und liefert messbare Produktivitätsgewinne. Erst wenn Sicherheit und Mehrwert bewiesen sind, werden der KI in einem semi-autonomen Modus mehr Handlungsrechte übertragen – immer innerhalb klar definierter Leitplanken. Volle gesteuerte Autonomie wird nur dort gewährt, wo robuste Governance und lückenlose Auditierbarkeit dies rechtfertigen. Die Studie identifiziert Governance und Evaluation als die stärksten Prädiktoren für eine sichere Autonomie – nicht die Wahl des Sprachmodells.

Praxistest Beurer: Vom Konzept zum Live-Betrieb Die Wirksamkeit dieses Ansatzes zeigt sich bei Beurer, der weltweit bekannten Marke für Gesundheits- und Wellnessprodukte. Um die Implementierung zu beschleunigen und die Abhängigkeit von externen Integratoren zu verringern, entschied sich Beurer für das

ausgezeichnet und wird auf der Vergleichsplattform G2 regelmässig als «High Performer» im Bereich der KI-gesteuerten Automatisierung geführt.

David Eberle (CEO) ist ehemaliger Strategieberater (Booz & Co.) mit MBA der INSEAD. Janis Berneker (CTO) war Lead Data Science beim Schweizer Radio und Fernsehen (SRF). Die beiden gründeten Typewise gemeinsam.

Mehr Informationen unter typewise.app

Self-Service-Modell von Typewise – und konnte innerhalb kürzester Zeit eine produktive Umgebung aufbauen. «Typewise bot uns die Flexibilität und Implementierungsgeschwindigkeit, die wir bei grösseren, monolithischen Anbietern nicht finden konnten», sagt Heike Hocks, Customer Care Lead bei Beurer. «Mit der Konfiguration in natürlicher Sprache kann unser Team sofort Multi-Agenten-Workflows erstellen und testen. Wir haben uns schnell von einem Piloten zu einer Live-Produktionsumgebung entwickelt, in der KI-Agenten eingehende Kundenanfragen triagieren, Tickets erstellen und an den richtigen Agenten weiterleiten. So können sich unsere menschlichen Mitarbeitenden voll und ganz auf die Problemlösung konzentrieren.»

Der Sprung in die Praxis: In 24 Stunden live Der Erfolg von KI im Unternehmen wird nicht durch das fortschrittlichste Sprachmodell entschieden, sondern

durch die Fähigkeit, die Technologie nahtlos in die bestehende Prozess- und Systemlandschaft zu integrieren. Die Erkenntnisse der MIT-Studie und die Praxiserfahrungen von Typewise zeigen: Der Multi-Agenten-Ansatz bietet einen pragmatischen und skalierbaren Weg, um die Lücke zwischen Pilot und Produktion zu schliessen. Indem die Fachabteilungen befähigt werden, die KI selbst zu steuern, und eine intelligente Orchestrierungsschicht die systemübergreifende Zusammenarbeit sicherstellt, wandelt sich KI von einem isolierten IT-Projekt zu einem integralen Bestandteil der Wertschöpfung. Mit über zweihundert vorkonfigurierten Integrationen, einer ISO-zertifizierten, DSGVO-konformen Infrastruktur und einer Inbetriebnahme in oft nur 24 Stunden können Unternehmen den Schritt aus der monatelangen Pilot-Falle in den produktiven Betrieb schaffen. Für Führungskräfte, die 2026 nicht länger auf den ROI ihrer KI-Investitionen warten wollen, ist dies der entscheidende Hebel.

«Agenten-KI im Kundenservice scheitert nicht, weil die Sprachmodelle zu schwach sind, sondern weil die Koordination in realen Unternehmensumgebungen zusammenbricht.»
Steckbrief
David Eberle CEO
Janis Berneker CTO

Was die industrielle Revolution der Intelligenz für die Schweiz bedeutet

Sehr geehrte Leserinnen und Leser,

Wenn ich Geschäftsleitungen und Verwaltungsräte in der Schweiz treffe, spüre ich eine Mischung aus Neugier und Vorsicht. Die Frage, die dabei fast immer fällt: «Wie ernst müssen wir Künstliche Intelligenz nehmen?» Meine Antwort: Sehr ernst. Was wir gerade erleben, ist kein kurzfristiger Technologietrend. Es ist der tiefgreifendste Umbruch seit der Erfindung des Internets. Und die Unternehmen in der Schweiz stehen vor der Wahl, ob sie diesen Wandel aktiv mitgestaltet oder ihm zuschaut.

Als NVIDIA-Gründer Jensen Huang im Januar am World Economic Forum in Davos sprach, formulierte er es so: Wir erleben den grössten Infrastrukturumbau der Menschheitsgeschichte, vom Energienetz über die Halbleiter bis zur Software wird der gesamte Technologieverbund neu erfunden. Das ist kein Marketingversprechen. Es ist eine nüchterne Zustandsbeschreibung, gestützt auf Investitionszahlen, die jeden bisherigen Vergleich sprengen. Weltweit sind wir erst wenige hundert Milliarden Dollar am Anfang einer Transformation im Billionenbereich. Die grössten Chipfertiger bauen neuer Fabriken, Systemintegratoren errichten Montagewerke im industriellen Massstab, und die Investitionen in Speichertechnologie erreichen historische Höchstwerte. Was diese Zahlen für die Schweizer Wirtschaft konkret bedeuten, erschliesst sich über eine einfache Unterscheidung: Künstliche Intelligenz ist keine zusätzliche Funktion, die man bestehender Software überstülpt. Sie ist ein fundamentaler Plattformwechsel. Jeder grosse Technologieumbruch der vergangenen Jahrzehnte, der PC, das Internet, das Smartphone, brachte nicht nur neue Anwendungen, sondern eine komplett neue technologische Grundlage hervor. Der aktuelle Umbruch führt zu einer Infrastruktur für Echtzeitintelligenz: Systeme, die Kontext und

Absicht verstehen, ohne Zeile für Zeile programmiert werden zu müssen. Was heute als Chatbot wahrgenommen wird, ist morgen die Plattform, auf der ganze Industrien aufgebaut werden.

Fünf Schichten braucht es, damit diese Intelligenz funktioniert: Energie als Treibstoff, Chips und Rechenleistung als Fundament, Rechenzentren als Infrastruktur, KI-Modelle als Denksysteme und schliesslich die Anwendungsschicht. Sei es in der Medizin, im Finanzwesen, in der Robotik. Der wirtschaftliche Nutzen entsteht an der Spitze, doch er ist unmöglich ohne die vier Schichten schwerer Industrie darunter. Deshalb ist die Frage nach KI-Infrastruktur keine technische Detailfrage, sondern eine strategische Standortfrage.

Die Schweiz hat das früh erkannt und handelt bereits. Mit dem Supercomputer «Alps» am nationalen Hochleistungsrechenzentrum CSCS in Lugano betreibt die Schweiz eine der leistungsfähigsten öffentlich zugänglichen KI-Infrastrukturen der Welt: über 10,000 NVIDIA Grace Hopper Superchips. Und im September 2025 wurde auf dieser Infrastruktur Apertus lanciert, das erste offene, mehrsprachige Schweizer Sprachmodell, trainiert auf über 15 Billionen Textbausteinen in mehr als tausend Sprachen, darunter auch Schweizerdeutsch und Rätoromanisch. Entwickelt von EPFL, ETH Zürich und CSCS, verfügbar über Swisscom. Das ist digitale Souveränität zum Anfassen: keine Theorie, sondern eine funktionierende Wertschöpfungskette auf Schweizer Boden.

nur träumte, sondern die Verhandlungen führte, die Finanzierung beschaffte und das Projekt zum Durchbruch brachte.

Denn das ist der Kern: Jede Nation besitzt einzigartige Daten wie beispielsweise die Sprache, Kultur, regulatorisches Wissen, Geschichte. Nationen können es sich nicht leisten, Intelligenz zu importieren; sie müssen ihre eigenen Daten auf eigener Infrastruktur verarbeiten. KI-Rechenzentren werden in den kommenden Jahren zu nationaler Grundversorgung, vergleichbar mit dem Stromnetz. Bereits heute besteht in der Schweiz ein Defizit an sogenannten «AI Factories» – also Hochleistungsrechenzentren – was zu einer nationalen Unterversorgung in diesem Bereich führt. Wir haben exzellente Hochschulen, erstklassige Fachkräfte und eine bewundernswerte Ingenieurkultur. Aber wir tun uns schwer mit dem Vorangehen im grossen Stil. Uns fehlt heute ein Alfred Escher, also jene Art von Visionär, der im 19. Jahrhundert die Gotthardbahn nicht

«Was heute als Chatbot wahrgenommen wird, ist morgen die Plattform, auf der ganze Industrien aufgebaut werden.»

Die KI-Revolution ist das Gotthard-Projekt unserer Generation. Sie verlangt nicht nur technisches Können, sondern den politischen Willen, die unternehmerische Kühnheit und die Bereitschaft zur Koordination über Branchen- und Kantonsgrenzen hinweg. Damit das gelingt, brauchen wir KIKompetenz dort, wo die strategischen Entscheide fallen, wie zum Beispiel im Verwaltungsrat. Wer heute über Investitionen in Dateninfrastruktur, CloudStrategien oder automatisierte Prozesse entscheidet, soll die Grundlagen künstlicher Intelligenz verstehen, nicht als Informatiker, sondern als strategischer Entscheidungsträger. KI-kompetente Verwaltungsräte können Unternehmen verantwortungsvoll in einer Wirtschaft führen, die sich in den nächsten Jahren fundamental verändern wird.

Die Sorge, KI werde Arbeitsplätze vernichten, wird derweil durch die Studien zunehmend widerlegt. Die entscheidende Unterscheidung ist nicht Mensch gegen Maschine, sondern Aufgabe gegen Zweck. KI automatisiert wiederkehrende Tätigkeiten, das Auswerten eines Scans, das Erfassen von Berichten, damit der Mensch sich auf seinen eigentlichen Zweck konzentrieren kann: die Diagnose stellen, den Patienten betreuen, die strategische Entscheidung treffen. In der Radiologie prophezeiten 2016 viele, KI werde Ärztinnen und Ärzte ersetzen. Zehn Jahre später sehen diese mehr Patientinnen und Patienten, die Erlöse steigen, die Nachfrage wächst. In der Pflege, wo auch in der Schweiz dringend Fachkräfte fehlen, übernimmt KI die Dokumentation, mit dem Ergebnis, dass Spitäler mehr Personal einstellen können, nicht weniger. Produktivitätsgewinne schaffen historisch betrachtet stets mehr Nachfrage. Gleichzeitig demokratisiert KI den Zugang zu Technologie. Früher brauchte es ein Informatikstudium, um Computer

zu programmieren. Heute genügt natürliche Sprache. Die Technologiekluft schliesst sich, weil die Software sich selbst erklärt. Eine Milliarde Menschen haben diese Werkzeuge in rund drei Jahren angenommen, eine Verbreitungsgeschwindigkeit, die alles Bisherige in den Schatten stellt. Für Schweizer KMU bedeutet das: Die Eintrittsschwelle für KI-gestützte Wertschöpfung sinkt dramatisch. Ein Maschinenbauzulieferer im Mittelland kann heute Qualitätskontrolle, vorausschauende Wartung oder Kundeninteraktion mit Werkzeugen optimieren, die vor zwei Jahren nur Grosskonzernen zugänglich waren. Die nächste Grenze ist bereits sichtbar und sie kommt der Schweiz entgegen. Nach der digitalen KI, die Sprache und Bilder versteht, entsteht nun die physische KI: humanoide Roboter und autonome Fahrzeuge. Für ein Land wie der Schweiz mit den industriellen Wurzeln liegt hier eine enorme Chance. Unser Trumpf wird es sein, gewachsenes Industriewissen, Präzisionsfertigung, Robotik oder etwa Entwicklungen in der Pharmaindustrie mit solchen KI-Systemen zu verbinden, die keine klassische Programmierung mehr voraussetzen. Die industrielle Revolution der Intelligenz lässt sich nicht aufschieben. Die Frage für den Wirtschaftsstandort Schweiz ist nicht, ob dieser Wandel kommt, sondern wie entschlossen wir die nötige Infrastruktur aufbauen und die Standortvorteile – Talent, Präzision, Vertrauen, Mehrsprachigkeit – in echten wirtschaftlichen Mehrwert übersetzen. Die Grundlage dafür wird gerade weltweit gelegt, von der Energieversorgung bis zur Anwendungsschicht. Alps und Apertus zeigen, dass wir das können, wenn öffentliche Institutionen, Wirtschaft und Forschung zusammenarbeiten. Was es jetzt braucht, sind mehr Unternehmerinnen und Unternehmer, die wie Alfred Escher denken: gross, verbindend und mit dem Mut, heute die Infrastruktur zu bauen, die morgen den Unterschied macht.

Marc

Arbeitsplätze sichern durch Automatisierung mit KI

Ist KI der Game Changer, der die Industrie langfristig revolutioniert? Roger Schelbert, Geschä sleiter der Aurovis und Spezialist für Automation, Robotik und Visionssysteme, erklärt, warum Unternehmen jetzt auf KI setzen sollten, um ihre Produktivität zu erhöhen und den Produktionsstandort Schweiz zu erhalten.

Herr Schelbert, was müssen Unternehmen in der gegenwärtigen Situation tun, um wettbewerbsfähig zu bleiben?

Meine Botschaft ist: Wir müssen automatisieren! Dazu nutzen wir den Menschen und die KI unterstützt uns dabei, damit wir es richtig machen. KI ist in der Lage, grosse Datenmengen in kurzer Zeit zu analysieren – das ist ein Epochenwechsel. Zweitens müssen wir über eine konsequente Vollautomatisierung sprechen und diese planen – im Sinne einer Dark Factory. Es gibt viele Leute, die davor Angst haben und fragen: Was soll ich dann machen? Denen sage ich: Wenn du ein Handy bedienen kannst, dann kannst du auch einen Roboter am Laufen halten. Wenn wir von Automatisierungslösungen und neuen Tätigkeiten sprechen, reden wir eben nicht mehr nur von Ingenieuren. Den Unternehmen rufe ich zu: Automatisiert, habt keine Angst davor! Nutzt die KI, die Technologie dazu kommt aus China. Das ist nun mal so, alles andere ist wishful thinking. Und egal, wo die Roboter nun herkommen, aus China, den USA oder aus Europa: Wir werden sie brauchen, denn die Leute laufen uns davon. Wer will denn in Zukunft hierzulande noch an einer Produktionslinie arbeiten?

Das sehen auch die Investoren so? Investoren stürzen sich derzeit nur auf zwei Dinge. Das erste sind humanoide Roboter. Und das zweite sind Künstliche Intelligenz und Automatisierung. Humanoide Roboter sind ja eigentlich dumm und weniger gut geeignet als industrielle Roboter, aber mit humanoiden Robotern gewinnen Sie die Investoren, weil jeder denkt: Oha, der ist wie ein Mensch, das rentiert sich. Die Roboter und Bildverarbeitungssysteme nutzen für ihre Arbeiten KI – und das ist wichtig, denn KI hilft uns, gleichbleibende Arbeiten, die Qualitätskontrolle oder auch Arbeiten, die sonst nur der Mensch beurteilen kann, zu automatisieren. Seit 2010 nutzen wir KI für die Bildverarbeitung. Aber was jetzt in den letzten zwei Jahren passiert ist, ist so unglaublich, dass es die Menschen überfordert. Selbst ich, der sich den ganzen Tag nur mit industriellen Anwendungen beschäftigt, stehe immer wieder vor Herausforderungen, weil ich beurteilen soll, welches der aktuellen Tools oder KI-Möglichkeiten sich wirklich durchsetzen wird. Wir über-

legen uns immer: Ist dieses Tool in der Lage, ein spezifisches Problem in der Produktion zu lösen? Viele technische

Aurovis

Lösungen basieren auf Bildern, die man eintrainieren muss. Das beste Beispiel ist wahrscheinlich die Beurteilung von Flecken, Kratzern oder der Oberflächenqualität – das können Sie nicht mit Google machen. Google hat sicher schon viele Flecken gesehen, aber das passt nicht unbedingt zu Ihrem Produkt.

Wie kaufen Unternehmen denn KI-Lösungen ein? Es gibt am Markt viele kommerzialisierte Lösungen, die allerdings auch für Unsicherheit sorgen. Denn Firmen wissen nicht, wo sie starten sollen und fragen: Ist das jetzt der Standard? Kann das schon alles? Das ist der Unterschied zum Menschen, der alles erkennen kann. Die KI lernt noch immer dazu. Letztendlich bringt der Mensch Unsicherheit in solche Systeme, indem er nicht genau weiss, wie oder in welchem Zeitraum ein Ergebnis erzielt werden soll. Er disponiert gerne kurzfristig um oder ist ungeduldig. Dagegen hilft nur eins: Man muss sich mit den Tools beschäftigen, die einem zur Verfügung gestellt werden. Und dann geht es um eine solide Datenbasis, die man haben oder aufbauen muss, damit das System arbeiten kann. Eine KI ist bewusst nicht statisch, sie soll sich weiterentwickeln.

Wie müssen sich die Mitarbeitenden in Unternehmen auf KI ein- oder umstellen?

Die etwas ältere Generation ist noch sehr stark so geprägt, dass sie alles verstehen muss. Ich habe hier sehr viele junge Leute, der älteste ist 33. Natürlich haben alle einen technischen Hintergrund, aber sie arbeiten trotzdem ganz

anders. Eine neue IT-Ingenieurin, die seit vier Monaten hier arbeitet, hat eine Bachelorarbeit geschrieben. Vorgestern ist sie wieder gestartet und ich habe sie gefragt: «Wie machst du das jetzt, programmierst du alles mit KI?» Sie sagte dann: «Schau mal, auf der einen Seite habe ich mein Programm und auf der anderen Seite meinen KI-Assistenten. Wenn ich etwas nicht verstehe, dann sieht er das und hilft mir, den Fehler zu finden.» Meine Leute nutzen KI täglich – und ich sage jedem: Ihr müsst schauen, dass ihr 1,5 Mitarbeiter werdet! Und zwar im Sinne von: Geht nach Hause, lasst die KI arbeiten und schaut am nächsten Morgen, ob das Resultat so ist, wie ihr es euch vorgestellt habt. Das fängt an beim Marketing, bei Recherchen, und geht bis zur Erstellung der Homepage. Um die Mitarbeitenden in Unternehmen zu trainieren, ist es wichtig, ihnen die Ängste zu nehmen – auch vor Fehlern. Innovation bedeutet, Recherchen und Experimente zu machen, bei denen man ruhig auch einmal oder mehrmals scheitern darf. Das geht gar nicht anders. Gute Firmen haben auch eine gute Fehlerkultur. Wenn Unternehmen nach dem ROI fragen, den sie gerne sofort haben wollen, weise ich darauf hin, dass Automatisierung auch eine Sicherung von Arbeitsplätzen bedeutet. Wenn die Mitarbeitenden das verstanden haben, kommen die Inputs automatisch. Meist kommen so viele Inputs, dass sie diese gar nicht direkt verarbeiten können.

Welche Herausforderungen gibt es für Unternehmen noch?

Viele Menschen gehen demnächst in

Pension. Die Demografie wird noch viel dramatischer, als es im Moment dargestellt wird. Darauf sollten sich Unternehmen jetzt schon einstellen. Es gibt zum Beispiel Mitarbeitende, die gehen durch eine Produktionsstrasse und hören sofort, dass da eine Maschine pfeift und eventuell bald ausfällt. Wer macht oder merkt das, wenn der Mitarbeitende nicht mehr da ist? Das muss und kann auch die KI lernen. Dafür brauchen wir keine Lösung erst in der Zukunft, sondern heute. Ein Mitarbeitender muss feststellen, wann ein gewisses Level überschritten ist, und lernt dann die KI als Assistenten an. Das ist auch eine der Grundeinstellungen, die Unternehmen und Mitarbeitende brauchen: Sie müssen KI als Assistenten sehen, der ihnen hilft. Was viele Unternehmen lähmt, ist die ständige Fixierung auf Einsparmöglichkeiten. Da zeigt sich dann der Unterschied zwischen einem Manager und einem Unternehmer.

Und der Unterschied ist…? Wenn eine Firma, die Möglichkeit hat, Geld dadurch zu sparen, dass sie 200 Leute entlässt, sagt der Manager: Ja, das machen wir. Dabei denkt er vielleicht an seinen Bonus im nächsten Jahr. Wenn Sie Unternehmer sind, sagen Sie: Nein. Die 200 Leute behalten wir und bauen das Business weiter aus. Und dieser Unternehmergeist ist es, der mich umtreibt. Ich würde die KI nehmen und sagen: Lasst uns mal recherchieren, was die KI meint, was wir gut können. Dazu analysiert sie beispielsweise die Homepage. Das dauert ein paar Sekunden – und schon wissen wir, wo wir das Geschäft ausbauen können.

«Der Mensch muss letztlich entscheiden. Das ist das Wichtigste. Das kann einem KI nicht abnehmen.»

Steckbrief

Der Firmenname steht für Automation, Robotics und Vision Systems. Mit innovativen Produkten und Lösungen und einem hohen Mass an Qualitätsbewusstsein vernetzt Aurovis mittels Sensoren, Robotern und industrieller Bildverarbeitung Anlagen, Produkte und Prozesse, um Produktionsanlagen nachhaltig zu verbessern und e izienter zu machen.

Roger Schelbert ist seit November 2017 Geschä sführer und Inhaber der Aurovis AG in Alpnach. Zuvor war er fast 14 Jahre lang Mitglied der Geschä sleitung und Mitinhaber der 1949 gegründeten Credimex AG.

Mit KI?

Mehr Informationen unter aurovis.ch

Roger Schelbert Inhaber AUROVIS

Mit KI und mit den Menschen. Denn der Mensch muss letztlich entscheiden. Das ist das Wichtigste. Das kann einem KI nicht abnehmen. Wichtig ist aber, dass wir ein anderes Bewusstsein bekommen. Ich habe fast mit der ganzen Welt zu tun – und ich muss sagen, wir sind hier in Europa vielleicht ein bisschen träge geworden. Die Asiaten bombardieren mich fast täglich mit Anfragen. Die neuen Länder, die Teil von Europa geworden sind, verhalten sich ähnlich aktiv. Da herrscht ein Pioniergeist, wie wir ihn zuletzt in den 1970er Jahren erlebt haben. Was mir zudem Hoffnung macht, sind die jungen Leute. Sie verstehen, dass wir automatisieren müssen, damit die Produktivität und Produktion hier im Land bleibt. Dazu muss man allerdings die Produktivität erhöhen – und das geht nur mit Automatisierung und KI.

usm.com

Besuchen Sie unsere autorisierten Handelspartner oder unsere USM Showrooms: Bern, Hamburg, London, München, New York, Paris,Schanghai, Tokio
Das neue USM Haller Soft Panel. Eine weiche Note für den Klassiker – magnetisch, bunt, verspielt.

Turn static files into dynamic content formats.

Create a flipbook