Page 1

Januar / Februar 2019

Ausgabe #6-18 Deutschland Euro 12,00

ISSN: 1864-8398

www.dokmagazin.de

Das kommt! Future Workspace Kolossal kollaborativ & absolut automatisiert Cognitive ‚Vibes‘ Search & Recherche: Virtuos mit kognitiven Verfahren! Business Analytics Stream Processing – Revolution der Datenverarbeitung E-Invoicing - Next Gen KI, Machine Learning & Blockchain-Technologien

Digital Business Security – They did it again?

Einladung zum Abenteuer Digitalisierung Proudly powered by DOK. + DIGITUS


Nachhaltig Wert schĂśpfen mit zukunftsweisenden Technologien STAR CPM

Corporate Process Management

PRISMA

Smart Content Services

MindReader fĂźr Outlook E-mail Assistance

STAR MT

Corporate Machine Translation

WebTerm

Web-based Terminology

STAR CLM

Corporate Language Management

GRIPS

Global Realtime Information Processing Solution

MindReader

Authoring Assistance

Transit

Translation and Localization

TermStar

Terminology Management

STAR WebCheck

Online Translation Reviewing

www.star-group.net Your single-source partner for corporate product communication


Editorial

DIGITALQUADRAT – Da haben wir die Bescherung! Wie gehen wir mit dem Ende eines ‚DOK.Jahres‘ und mit dem Anfang von etwas Neuem um? Ein Resumé ziehen? Gut. Besser ist: Den Blick weiten auf das, was kommt! Doch ein bisschen Tradition wollen wir uns in dieser Jahreszeit schon leisten. So liegt es für uns nahe, Ihnen mit der Dezember-Ausgabe einen Almanach des digitalen Business zu überreichen. Wussten Sie, dass der Ausdruck Almanach ursprünglich ein astronomisches Tafelwerk bezeichnete und abgeleitet ist vom arabischen Wort al-minḥa, welches „Geschenk“ oder speziell „Neujahrsgeschenk“ bedeutet? Und im Digitalen Wörterbuch der deutschen Sprache wird Almanach als ein mit poetischen Beigaben und Bildern versehenes Jahrbuch beschrieben. In diesem Sinne erstellten wir mit dieser DOK.Ausgabe, quasi vorausschauend, ein Jahrbuch 2019 der Digitalisierung: Der Future Workspace trägt den Weitblick bereits im Namen. Die Cognitive Vibes haben wir im Bereich des früher als „Wissensmanagement“ bezeichneten Themenkomplexes (auf)gespürt, mit Stream Processing bringen wir die Realtime-Revolution bei der Datenverarbeitung ins Spiel und die zukünftige Bedeutung von Künstlicher Intelligenz, Machine Learning- und Blockchain-Technologien visualisieren wir am Beispiel von E-Invoicing Prozessen. Und was kommt noch in 2019? DIGITALQUADRAT. Der erste Digitalisierungs-Event von DOK. + DIGITUS. Und das schon am 14. März 2019, damit genügend Zeit für eine zweite ‚Auflage‘ in 2019 bleibt. Wir verstehen DIGITALQUADRAT als eine Einladung zum Abenteuer Digitalisierung, weil ein ‚Abenteuer‘ eine absolut spannende und neue Erfahrung beschreibt. Und exakt dieses NEUE wird Sie bei DIGITALQUADRAT erwarten: ein enormes Quantum an digitalem Wissen, kombiniert mit dem gewissen Flair einer konzentrierten Leichtigkeit und garniert mit dem Wichtigsten: der Mensch-Mensch-Kommunikation – auch: Networking genannt. Da haben Sie nun unsere Bescherung! Unsere Vorfreude ist riesig und wir würden diese gerne auf Sie übertragen. Seien Sie dabei und informieren Sie sich auf www.digital-quadrat.de. Planen Sie mit uns Ihr Frühjahr 2019! Bringen Sie Ihr digitales Wissen und Ihre Erfahrungen mit und teilen Sie es in intensiven Diskussionspanels und beim Networking mit uns und mit allen Teilnehmern – auch bei der After-Event-Party (mit Open End). Unser Eventpartner sugarandspice hat eine sensationelle Location im Herzen von München für DIGITALQUADRAT organisiert. Sie dürfen neugierig sein! Und damit wünsche ich Ihnen eine friedvolle & frohe Zeit und freue mich auf ein Wiedersehen im nächsten Jahr

Birgit Reber Chefredaktion DOK.magazin birgit.reber@dokmagazin.de


Inhalt 3 | Editorial 4 | Inhalt

Thema | Future Workspace

Robotic Process Automation

6 | Interview | Das kommt! Der Future Workspace als Innovation Lab Kolossal kognitiv & absolut automatisiert. Andrew Filev, Wrike

26 | RPA – das „Schweizer Taschenmesser“ der Prozessautomatisierung David Schneider, X-INTEGRATE Software

10| Interview | Warum nennen wir den ‚Arbeits-Platz‘ nicht ‚Arbeits-Sphäre‘? Guido Grotz, Step Ahead 14 | Meinung | „Collamunication“ oder Warum die richtige Kommunikation ausschlaggebend ist für erfolgreiche Zusammenarbeit. Volker Scheidler, acoris

Virtual Agents

Cognitive Search

XTRA | Digital Business Security

16 | Ist gut: Enterprise Search. Geht besser: Mit Cognitive Computing! Matthias Hintenaus, Sinequa 20 | Systematische Recherche – spektakulär stark durch kognitive Verfahren Dr. Uwe Crenze, interface projects

30 | Kommen (richtig) gut an: Intelligente Chatbots Bernd Much, ServiceNow

34 | Interview | They did it again!!! Thomas Ehrlich, Varonis 40 | PKI – die Schlüsselfunktion der IT-Sicherheit Anne-Sophie Gógl, Sichere Identität BerlinBrandenburg e.V.

Systematische Recherche – spektakulär stark durch kognitive Verfahren

20

Das kommt! Der Future Workspace als Innovation Lab

6 4|5

Kolossal kognitiv & absolut automatisiert.


Managed Services

Paper to digital: Die E-Akte

45 | Managed Services – made for Digital Business. Bartlomej Kluska, Comarch

59 | Paper to digital: Scannen statt Drucken Wilhelm Gassner, PFU

Blockchain für E-Invoicing

E-Commerce / Kundenbindung

49 | Blockchain-basierte Finanzprozesse: Werden Rechnungen überflüssig? Marcus Laube, crossinx

Digital Asset Management 52 | DTP per DAM – der Weg „2020“. Gunter Leonhardt, PEAK-14

62 | Daten Á-la-carte. Otto Neuer, Talend

Business Analytics & Stream Processing 65 | Interview | Stream Processing revolutioniert die Datenverarbeitung Stephan Ewen, data Artisans

Digital Learning

Edge Computing

55 | Digital Learning: Discover the German ‚Wortschatz‘ Susanne Franz, telc

69 | Edge Computing Daten – Out of the ‚Box‘! Bernd Hanstein, Rittal

34 49 Digital Business Security

They did it again!!!

Blockchain-basierte Finanzprozesse: Werden Rechnungen überflüssig?

DOK. 6-2018


Thema | Future Workspace

Das kommt! Der Future Workspace als Innovation Lab

Interview mit Andrew Filev, Wrike. Andrew Filev, Gründer und CEO von Wrike. Wrike ist eine cloud-basierte Projektmanagementund Collaboration-Lösung, die Unternehmen dabei unterstützt, kontinuierlich exzellente Ergebnisse zu erzielen. Die Lösung wird von über 18.000 Unternehmen in 130 Ländern genutzt. Zahlreiche Auszeichnungen dokumentieren die Führungsstellung von Wrike im Bereich kollaboratives Arbeitsmanagement. www.wrike.com/de

6|7


Kolossal kollaborativ & absolut automatisiert.

Für viele deutsche Unternehmen beginnt das neue Jahr nicht mit dem berühmten Blick nach vorne, sondern mit einem Blick zurück. Im Bereich IT sind sie zunächst in der Pflicht, ihre Hausaufgaben zu machen. Zum Beispiel im Bereich Automatisierung: Sie hat in unserem Arbeitsalltag bereits Einzug gehalten und wird großenteils positiv gesehen. 45 Prozent der Befragten im Digital Work Report 2018 des Arbeitsmanagement-Experten Wrike sind überzeugt, dass Automatisierung ihrem Unternehmen einen Wettbewerbsvorteil bringt. Auf die Frage, welche Arbeiten die Studienteilnehmer in ihrem Unternehmen innerhalb der nächsten ein bis zwei Jahre gerne automatisieren würden, wurde der Bereich Dateiverwaltung und -dokumentation am häufigsten genannt. Darüber hinaus wünschten sich die Teilnehmer eine Automatisierung sich wiederholender Prozesse und Arbeitsabläufe und dass Informationen zwischen Systemen selbstständig kopiert werden. Zudem sollten Meetings automatisiert aufgesetzt sowie die dort besprochenen Arbeitsaufträge dokumentiert werden können.

Die Realität hinkt hinterher Betrachtet man den Status quo, den der Digital Work Report auf Unternehmensseite offen legt, wird jedoch klar, wie weit Wunsch und Realität noch auseinander liegen: Nur sieben Prozent der befragten Unternehmen in Deutschland, Frankreich und Großbritannien gaben an, eine unternehmensweite Automatisierungsstrategie zu haben beziehungsweise eine Umsetzung innerhalb der nächsten zwölf bis 14 Monate zu planen. Eine positive Einstellung gegenüber Prozessautomatisierung allein hilft also nicht. Unternehmen müssen ihren Mitarbeitern entsprechende Software-Lösungen an die Hand geben. Manager und Teamleiter müssen geschult und befähigt werden, ihre Teams anzuleiten, wie Arbeit durch Automatisierung effizienter gestaltet werden kann. Nur so bleiben deutsche Unternehmen laut Arbeits­ management-Experte Andrew Filev wettbewerbsfähig.

DOK. 6-2018


Thema | Future Workspace

„Das Zauberwort heißt kollaboratives Arbeitsmanagement“ Betrachtet man die Perspektiven für das kommende Jahr, wird die zunehmende Automatisierung der Arbeit sicherlich mehr und mehr Realität werden. Doch sollte diesem „Mehr“ auch ein „Weniger“ zur Seite gestellt werden: weniger unterschiedliche Tools und Anwendungen. Denn viele Unternehmen agieren aktuell in einem digitalen Chaos. Ob im Kundenservice, in der Warenwirtschaft oder eben in der Teamzusammenarbeit – 2019 wird das Jahr, in dem viele Unternehmen ihre Vision und Ziele (neu er)finden und ihre IT darauf ausrichten sollten. Grund genug, dazu ganz präzise bei Andrew Filev, Gründer und CEO von Wrike im DOK.Interview nachzufragen. Herr Filev, Ihr Unternehmen führt seit einigen Jahren regelmäßige diverse Umfragen unter Arbeitnehmern zum Thema digitale Arbeiten durch. Darin wurden einige „Produktivitätsbremsen“ wie z.B. Multitasking ausgemacht. Was wird uns 2019 produktiver machen? Das Zauberwort heißt hier kollaboratives Arbeitsmanagement oder Collaborative Work Management. Die Mehrzahl inter­ national agierender Unternehmen setzt auf Collaborative Work Management (CWM)-Tools – insbesondere solche, die aggressive Wachstumspläne in den nächsten zwei bis fünf Jahren verfolgen. Ich gehe davon aus, dass deutsche Unternehmen im kommenden Jahr deutlich mehr CWM-Tools abteilungs­ übergreifend einsetzen werden, um dem steigenden Wett­ bewerbsdruck zu begegnen. Der Bereich Operations wird im Jahr 2019 enorm an Einfluss gewinnen, da es Operations-Manager sind, die die unglaub­ liche Menge an digitalen Daten, die uns zur Verfügung stehen, aus­werten und interpretieren können. Denn nur wer die richtigen Daten zum richtigen Zeitpunkt den richtigen Personen im Unternehmen zugänglich macht, kann Produktivität fördern und Wachstumspotenziale im Unternehmen erschließen. Die Tat­sache, dass aktuell 1,3 Millionen Positionen für Operations Manager über die Plattform LinkedIn ausgeschrieben sind, spricht Bände. Ich kann jedem Manager und Teamleiter nur empfehlen, sich mit Tools und Techniken für eine effektive Datenanalyse zu beschäftigen.

8|9

Künstliche Intelligenz gilt in Deutschland aktuell eher als Buzzword mit noch wenig Relevanz für die tägliche Arbeit. Wo stehen wir hier Ende 2019? Wir erleben gerade, dass KI-Infrastruktur zur Handelsware wird, wie zum Beispiel die Cloud-KI-Produkte von Google, Microsoft Cognitive Services und das Open Source TensorFlow-Framework. Ich gehe davon aus, dass rund 80 Prozent der Fortune100-Unternehmen vor Ende 2020 mindestens ein erfolgreiches AI-Projekt durchführen werden. Ich weiß, dass KI leicht die Aufmerksamkeit von Medien und Vorstandsetagen auf sich zieht, aber das wichtigere Zugpferd für die Produktivität am Arbeitsplatz ist die Automatisierung. Mit der Umstellung auf die digitale Wirtschaft erfindet jedes einzelne Unternehmen einige seiner Prozesse neu und schafft dadurch die Möglichkeit, einen Teil dieser Arbeit durch Vorlagen zu automatisieren. Informationen müssen nicht mehr manuell gefunden oder verschoben werden. Das ist oft einfacher zu konzipieren und auszuführen als größere KI-Initiativen und erfordert keine besonderen Fähigkeiten oder Technologien. Wenn wir uns den ROI von KI und Automatisierungsinitiativen im Jahr 2019 anschauen, gehe ich davon aus, dass mindestens drei Viertel davon keine ausgereiften KI-Techniken erfordern und auf einfachere Automatisierungen angewiesen sind, einschließlich der Erstellung von Standardarbeitsanweisungen, Statistiken zu Routinearbeiten und Heuristiken. Für viele Firmen ist es zu einer Priorität geworden, "Digital Natives" ins Unternehmen einzubinden. Wie können Arbeitgeber die Erwartungen der jungen, IT-affinen Arbeitnehmer erfüllen? Heutzutage haben sich die Kunden an die On-Demand-Wirtschaft gewöhnt, egal, ob es um eine Pizza, eine Urlaubsreise oder um eine Dienstleistung geht: Verbraucher wollen individuell auf sie abgestimmte Produkte – und zwar sofort. Die aktuell in die Unternehmen drängenden „Digital Natives“ haben oft selbst eine solche Erwartungshaltung und verstehen daher diesen Kundenanspruch sehr gut. Allerdings erwarten sie dies auch von ihrem Arbeitgeber. Unternehmen müssen ihre IT-Ausstattung prüfen und ob ihre Apps und Systeme den Erfolg am digitalen Arbeitsplatz vorantreiben. Sie müssen Echtzeitanalytik bieten sowie Arbeitsautomatisierung und Collaboration ermöglichen. Das sichert nicht nur die Qualität der Ergebnisse, sondern führt im zweiten Schritt oft auch zu kulturellen Veränderungen in der Organisation: Teammitglieder sind inspirierter und motivierter.


Sie arbeiten im Silicon Valley – welche Arbeitsplatztrends gibt es dort aktuell, welche werden 2019 stärker, welche werden wieder verschwinden? Denken Sie, dass zum Beispiel die Automatisierung in der Wissensarbeit 2019 weiter zunehmen wird? Meine Erwartung ist, dass Unternehmen ihre Talente in Zukunft katalysieren und disruptive, digitale Technologien dafür nutzen, um ihre zukunftsgestaltenden Ideen umzusetzen und schnell zu skalieren. Betriebe werden vielmehr zu Brutkästen der Innovation. Die Geschwindigkeit des Arbeitslebens wird weiterhin zunehmen, allerdings wird unsere Arbeit weniger aus Routine und Standardaufgaben bestehen, denn hier wird weiterhin viel automatisiert werden. Ich bin mir allerdings sicher, dass drei Bereiche nicht von Maschinen übernommen werden können: Das sind Empathie, Strategie und Kreativität. In diese Fähigkeiten sollte jeder Arbeitnehmer und jedes Unternehmen investieren.

tens ein weibliches Vorstandsmitglied haben muss und weitere bis Ende 2021. Dieses Gesetz wird viele Unternehmen, Tochtergesellschaften sowie Start-ups mit hohem Wachstum betreffen – auch außerhalb Kaliforniens. Das Interesse an Quotenregelungen ist zwar politisch motiviert, wird aber auch die Wirtschaft voranbringen: Eine Studie von Ernst & Young aus dem Jahr 2016 zeigte, dass die Erhöhung des Frauenanteils in Top-Führungspositionen von 0 auf 30 Prozent mit einer Steigerung der Rentabilität von 15 Prozent verbunden ist. Im Jahr 2019 wird der Einfluss von Frauen sowohl auf der oberen als auch auf der mittleren Ebene noch größer werden, eine Entwicklung, die ich persönlich sehr begrüße. Herr Filev, wir danken Ihnen sehr für diesen viel versprechenden Ausblick in das kommende Jahr!

n

Worauf sind Sie 2019 gespannt? 2019 wird ein bedeutendes Jahr für die Geschlechter-Gleich­ stellung werden, denn in Kalifornien tritt ein neues Gesetz in Kraft, nach dem Unternehmen, die an einer großen US-Börse notiert sind und entweder komplett in Kalifornien sitzen oder dort ihren Hauptsitz haben, bis Ende des Jahres 2019 mindes-

DOK. 6-2018


Thema | Future Workspace

Interview | Warum nennen wir den ‚Arbeits-Platz‘

#DigitalWorkplace, #Cloud, #Wissensarbeiter, #ModernOffice, #NewWork, #Homeoffice, #War-For-Talents

Alle reden vom digitalen Arbeitsplatz. Aber was impliziert der Begriff genau? Welche gesellschaftlichen Chancen, aber auch Risiken gehen mit diesem Konzept einher? Wo steht die aktuelle Entwicklung und wie geht es weiter? In der Diskussion wird deutlich, dass der „digitale Arbeitsplatz“ kein zu 100 Prozent klar definierter Begriff ist. Eher lässt er sich als ein dynamisches Konzept verstehen. Unsere heutige Auffassung vom „Digital Workplace“ kann also morgen schon wieder ganz anders aussehen. Man kann den digitalen Arbeitsplatz auch als eine Art gegenstandsfreien Werkzeugkasten beschreiben – vom minimalen Hardware- zum maximalen Digitalanteil. Damit beinhaltet er die aktuelle Tendenz zur „Entmaterialisierung“. Dazu zählen Software, Netzabdeckung sowie möglichst bewegliche, portable Geräte. Je weniger Gegenstände ein Mensch für seine Arbeit benötigt, desto digitaler ist er. Je mehr er virtualisiert und vernetzt ist, desto unabhängiger ist er. Das bedeutet: Wahl­ freiheit des Ortes, Wahlfreiheit des Zeitpunktes und Wahlfreiheit in Bezug auf Arbeitsgeräte. Diese Perspektive teilt auch Guido Grotz, Vorstand der Step Ahead AG, im Gespräch mit dem DOK.magazin.

Die Step Ahead AG begleitet mittelständische Unternehmen im deutschsprachigen Europa bei der Digitalisierung und Optimierung von Geschäftsprozessen. Mit der „Steps Enterprise Solution“ hat der CRM- & ERP-Anbieter mit Sitz in Germering bei München eine umfassende Unternehmenslösung entwickelt, mit der Firmen ihre Unternehmensprozesse bzw. Geschäftsmodelle digitalisieren und steuern.

Herr Grotz, sprechen wir das Thema gleich direkt an: Wie stellen Sie sich den „Arbeitsplatz der Zukunft“ vor?

www.stepahead.de

Der Arbeitsplatz der Zukunft wird in Bezug auf Ort und Zeit

10 | 11

Interview mit Guido Grotz, Vorstand der Step Ahead AG.


nicht ‚Arbeits-Sphäre‘?

flexibler. Dadurch werden Jobs vielfältiger und abwechslungsreicher. Den Arbeitsplatz, an den ich mich pünktlich mit Anwesenheitspflicht einzufinden habe, wird es so nicht mehr geben. Das Homeoffice wird dann – obwohl inzwischen „ein alter Hut“ – durch neue Möglichkeiten der Digitalisierung wirklich zur Stätte von Produktivität. Dennoch wird es weiterhin physische Orte geben – wie Konferenz- und Besprechungsräume – wo sich Menschen zum Arbeiten einfinden. Open-Space-Konzepte sind beispielsweise heute im Start-up-Umfeld schon stark verbreitet. Denn bei all der zeitlichen und räumlichen Flexibilisierung ist es wichtig, dass die soziale Komponente nicht verloren geht. Welche technischen Lösungen sind für einen digitalen Arbeitsplatz Ihrer Meinung nach Voraussetzung? Um zeit- und ortsunabhängig arbeiten zu können, brauchen Mitarbeiter passende Hard- und Software. Für viele Berufe reichen heutzutage ein Notebook, ein Smartphone und WLAN. Selbstbestimmtes Arbeiten ist davon abhängig, schnell an Informationen zu gelangen. Nur dann können Entscheidungen getroffen werden. Moderne Tools für die Kommunikation und Kollaboration mit Kollegen sind genauso wichtig, wenn die physische Nähe wegfällt. Damit das Konzept des digitalen Arbeitsplatzes aber tatsächlich flächendeckend funktioniert, muss der Breitbandausbau vorangetrieben werden.

Ihr Unternehmen hat eine Lösung entwickelt, die Sie als „digitale Arbeitsplatzlösung“ bezeichnen. Inwieweit reiht diese sich in Ihr Konzept ein? Unsere Lösung mySTEPS ist ein Beispiel, Mitarbeitern das mobile Arbeiten zu erleichtern. Über die App oder das Web­portal haben Mitarbeiter alle für sie relevanten Daten aus unserer CRM& ERP-Lösung jederzeit verfügbar. Damit unsere Lösung ein komfortables Arbeiten ermöglicht, haben wir sie so gestaltet, dass sie sofort einsatzfähig und personalisierbar ist. Um die unternehmensweite Digitalisierung nachhaltig voran­ zutreiben, ist es aber unerlässlich, jeden einzelnen Mitarbeiter auf diese Reise mitzunehmen. Unsere Lösung bezieht diesen Aspekt unmittelbar mit ein: Sie lässt sich ohne Schulung intuitiv bedienen. Können Sie uns kurz Ihre Einschätzung beschreiben: Wie weit sind die Unternehmen mit der Etablierung eines digitalen Arbeitsplatzes und welche Herausforderungen gibt es? Einige große Unternehmen wie beispielsweise Microsoft, aber auch ein paar Mittelständler, sind bei der Entwicklung eines Digital Workplace schon relativ weit fortgeschritten. Sie haben in ihren Büros kaum noch feste Arbeitsplätze, sondern Arbeitsbereiche mit Screens und Docking-Stationen für die Laptops. Andere hingegen sind noch dabei, ihre papierbasierten

DOK. 6-2018


Thema | Future Workspace

Entwicklung vom minimalen Hardware- zum maximalen Digitalanteil am Arbeitsplatz (© Step Ahead AG)

Fächern – sorgt dafür, dass sich die Millennials ihren Arbeitgeber nahezu aussuchen und nicht umgekehrt. Um im „War for Talents“ zu bestehen, müssen Unternehmen als Arbeitgeber attraktiv sein. Dazu gehört auch ein Konzept des digitalen Arbeitsplatzes. Wer das seinen Mitarbeitern bereitstellt, präsentiert sich als modernes Unternehmen. Digital Natives erwarten auch im Business-Umfeld komfortable digitale Lösungen, die sie aus dem privaten Consumer-Bereich kennen. Gibt es eine Kehrseite der Medaille? Wo liegen die Grenzen des digitalen Arbeitsplatzes bzw. wo sollten sie gezogen werden?

Prozesse zu digitalisieren. So schaffen sie die Voraussetzungen für einen digitalen Arbeitsplatz. Den Sprung vom Server im lokalen Rechenzentrum in die Cloud, der ebenso die Grundlage für das ortsunabhängige und flexible Arbeiten darstellt, haben viele Unternehmen schon geschafft. Insgesamt erhalten natürlich mehr technische (insbesondere mobile End-) Geräte Einzug ins Büro. Die Anforderungen an die IT-Abteilungen, die diese Geräte verwalten, steigen. Der Weg in die Cloud und das Hosten von Softwarelösungen sind daher heute wichtige Stellschrauben, um die IT-Administratoren zu entlasten. Kommen wir zu einem weiteren Aspekt in Bezug auf die „Zukunft“. Welche Rolle spielt der digitale Arbeitsplatz im War for Talents? Mit dem digitalen Arbeitsplatz und auch dem Generationenwechsel geht eine komplett neue Arbeitswelt einher. Der digitale Arbeitsplatz wird von jungen Fachkräften, die Unternehmen aufgrund des Fachkräftemangels stark umwerben, offensiv gefordert. Für die gerade auf den Arbeitsmarkt kommende Generation der Millennials spielen Selbstbezug, Sinnsuche und das Abwägen von Alternativen eine wichtige Rolle. Die Knappheit von Fachkräften – vor allem in naturwissenschaftlichen

12 | 13

Ja, definitiv gibt es die. Eine Herausforderung ist zum Beispiel die erhöhte zeitliche Verfügbarkeit. Was grundsätzlich erst einmal positiv klingt, weil der Mitarbeiter die tatsächliche Arbeitszeit frei wählen kann, kann umgekehrt auch ins Gegenteil um­schlagen. Es kann auf Arbeitgeberseite zu dem Anspruch führen, dass Mitarbeiter immer und überall erreichbar sind. So tragen sie zur „digitalen Erschöpfung“ bei. Viele Unternehmer haben im Gegenzug aber auch die Sorge, dass sich die Mitarbeiter durch die physische Distanz weniger mit dem Unternehmen identifizieren. Wichtig ist es also, dass sowohl Mitarbeiter als auch Unternehmen verantwortungsbewusst mit dem Konzept umgehen – das erfordert einen Kulturwandel. Der digitale Arbeitsplatz ist dabei selbst nur ein Werkzeug von vielen. Falsch verstanden und falsch eingesetzt, führt dieses automatisch zu Überlastungssituationen. Richtig eingesetzt, profitieren aber Mitarbeiter und Unternehmer. Mitarbeiter haben die Chance, die Work-Life-Balance frei zu gestalten im Einklang mit den Werten und Prinzipien des Unternehmens. Unternehmen profitieren von einer produktiveren, effizienteren Arbeitsweise und gewinnen im War for Talents. Herr Grotz, vielen Dank für diesen Beitrag zur Diskussion um den „Digitalen Arbeitsplatz“.

n

DOK. 6-2018


Future Workplace | Meinung

MEINUNG

„Collamunication“ oder

Warum die richtige Kommunikation ausschlaggebend ist für erfolgreiche Zusammenarbeit. Wir arbeiten immer häufiger, immer intensiver mit immer mehr wechselnden Individuen, Organisationen und Institutionen zusammen – und für viele unserer Kollegen und Mitmenschen wird es immer schwerer, der Flut der Informationen und der Geschwindigkeit der Veränderungen zu folgen. Doch die richtige Kommunikation ist ausschlaggebend für erfolgreiche Zusammenarbeit! Oder wie wir es als Liebhaber von Anglizismen ausdrücken würden: „For a successfull collaboration we need the right communication.“ Als Spezialist für Collaboration & Communication stellen wir uns daher zwangsläufig die Frage: Müsste es nicht längst „Collamunication“ heißen?

Wie wollen und können wir kommunizieren?

Volker Scheidler ist Vorstand, Lenker und Ideengeber der acoris AG, dem Spezialisten für Colla­ boration and Communication mit Microsoft SharePoint. Gegründet 2012 als Joint Venture der CAIRO AG und der SAC GmbH ist die acoris AG Teil der ACCAS-Group. Die über 80 MitarbeiterInnen verfügen über spezialisiertes Know-how aus IT-Projekten in Industrie, Beratungsunternehmen und öffentlicher Verwaltung. www.acoris.de

14 | 15

Seit über 10 Jahren beschäftige ich mich intensiv mit der Frage, wie das Umfeld sein sollte, wie die Werkzeuge aussehen müssen, die mir als Individuum, uns als Team (hier steht Team stellvertretend für jede Gruppe von Menschen, die gemeinsam zu einem Zweck temporär oder dauerhaft, wiederkehrend zusammenarbeiten) oder meinem Unternehmen zur Verfügung stehen müssen, um sinnstiftend und wertschöpfend, sowohl für jeden Einzelnen wie auch für das Unternehmen arbeiten und wirken zu können. Ja, ich spreche immer noch von „selbst arbeiten“ – und nicht davon, dass Werkzeuge/Systeme/Roboter/KI uns die Arbeit grundsätzlich abnehmen, sondern sie lediglich erleichtern, ja sie für uns auch nachhaltig verändern. Wie also schaffen wir eine „Umwelt“, in der sich sowohl unsere Kollegen und Mitmenschen wie auch ich selbst, sich nicht ständig überfordert und zu langsam fühlen? Als Antwort darauf sind wir auf das gekommen, was ja eigentlich so naheliegt. Nicht ich oder einer der KollegInnen allein kann es bewältigen. Nur zusammen schaffen wir es, diesen Herausforderungen weiter erfolgreich entgegen zu treten. Daher sind Open Company


oder Enterprise x.0 oder sonstige Begriffe, die man dafür finden kann, für uns einfach nur Label für transparente Informationsbereitstellung und gemeinsame Informationserarbeitung im gesamten Unternehmen. Das Ziel lässt sich aber konkret beschreiben: Jeder muss in seiner Rolle und seiner Funktion oder Position in der Lage sein, sowohl als Informationsproduzent wie auch als Informationskonsument sinnstiftend und wertschöpfend zu agieren.

verschiedenen Stellen Informationen suchen und abrufen und Informationen eingeben und bereitstellen, so dass am Ende einfach nur das erreicht wird, was die meisten von uns wollen: ihren Job richtig zu machen und dabei wertschöpfend und sinnstiftend zu arbeiten.

Wie findet Informationsaustausch heute eigentlich statt?

Wie geht das weiter – wohin wird das führen? Welche Lösungen haben die schlauen Berater und Softwarelieferanten für uns parat?

Wie aber kriege ich die unterschiedlichen Blickwinkel für mein Unternehmen und auch für unsere Kunden vereint?

Ohne Prophet sein zu wollen oder zu können, wird es auch auf absehbare Zukunft nicht das Tool, nicht das System, nicht die eine Stelle geben, die endlich das liefert, was mir als „Personal Cockpit“ schon so lange versprochen wird. Aber wenn ich daran denke, wie lange das papierlose Büro versprochen wurde und wie lange wir darüber gelächelt, ja laut gelacht haben … So muss ich jetzt doch feststellen: Viel Papier habe ich heute wirklich nicht mehr im Büro und ja, es ist ein Glaube daran eingetreten, dass wir es wirklich schaffen werden, bald ganz ohne Papier auszukommen.

Was für mich persönlich richtig (strukturiert, organisiert, formuliert, dargestellt, …) erscheint, ist noch lange nicht für alle meine Teammitglieder genauso richtig präsentiert und angenehm verwendbar – geschweige denn für die ganze Organisation oder gar über die Organisationsgrenzen hinweg. Wie also kommen wir dazu, im Rahmen unseres Tuns in einer uns naheliegenden Art ohne zu große Mehraufwände und Regeln unser Wissen und unsere Informationen so zu explizieren, dass sie für Andere erfolgreich nutzbar werden? Schauen wir uns die Kommunikation und die Informationsexplikation (im Speziellen im Unternehmen) an, so stellen wir fest, dass für den überwiegenden Teil der Kolleginnen und Kollegen sowohl Schrift- wie auch Sprachkommunikation sowohl in synchroner wie auch asynchroner Form, sowohl im 1:1 als auch im 1:n Format, zum Standard-Repertoire gehören. Immer häufiger auch auf mobilen Endgeräten, an unterschiedlichsten Orten und zu unterschiedlichen Zeiten. Anders formuliert: Jeder von uns tätigt Anrufe, nimmt an Meetings und Telefonkonferenzen teil, schreibt Mails an einzelne Personen und Verteiler oder, schlimmer, sitzt auf zu vielen Verteilern. Ich sehe mir Webcasts an, chatte mit Kollegen, hinterlasse Sprachnachrichten und protokolliere Meetings. Wir bloggen, schreiben Wiki-Artikel und tragen Daten in CRM- und ERP-Systeme ein. Gleichzeitig arbeiten wir dabei mit Werkzeugen im Scope des PIM (Personal Information Management) wie auch für den Kontext von Teams, dem Unter­ nehmen oder über Unternehmensgrenzen hinweg.

Viele Tools, noch mehr Systeme – wer bietet mehr? Was war, was ist die Folge? Unzählige Tools für die unterschiedlichsten Zwecke und mit dem neuen „Heilsbringer“ Cloud werden es gerade noch eine Unmenge mehr. Anstatt als Mensch mit nur 1x24 Stunden am Tag nur einen Kalender zu pflegen, nur einen Posteingang zu haben, nur eine Taskliste zu nutzen (wie schön wäre es doch, wenn alles in meinem Outlook stecken würde …), muss ich in den unterschiedlichsten Systemen mit den unterschiedlichsten Oberflächen und Bedienphilosophien an X

Wie könnte die Zukunft aussehen?

So oder so ähnlich sehe ich das Versprechen des „Personal Cockpit“ und meine Zukunftsvision beginnt mit den neuen technischen Möglichkeiten zu wachsen. Wir mit unseren Erfahrungen und unserer Art, wie wir arbeiten wollen und können, stehen den Produkten von Microsoft sehr nahe. Das mag uns vielleicht an der ein oder anderen Stelle unempfindlicher für durchaus betrachtenswerte Alter­nativen machen. Dennoch denke ich, dass wir mit Microsoft Teams nun einen neuen Ansatz erleben, der es Wert ist, intensivst betrachtet, verfolgt und getestet zu werden. Und zwar nicht mit dem Hype-Gedanken und den nach MarketingAussagen so nahe liegenden Versprechungen im Kopf, nach denen alles schnell, agil, ad-hoc für jeden gelöst und geregelt wird. Nein, mit dem Bewusstsein all dessen, was dieser Artikel bisher beschreibt, und mit einer in unserem Land näherliegenden Denkhaltung und Vorgehensweise.

Offen für neue Technologien? Welcher Weg könnte sich also lohnen? Nun, vor einer Antwort gilt es, zunächst mit kühlem Kopf zu überlegen, was diese – oder eine andere – Technologie an neuer, veränderter Vorgehensweise unter Einbeziehung unserer bisherigen Erfahrung, unserer eigenen Organisationsstruktur und Kultur tatsächlich für uns bereitstellt. Darüber machen wir uns auch bei acoris intensiv Gedanken, arbeiten und testen tiefgreifend die Möglichkeiten rund um Microsoft Teams und angrenzende Technologien, sowohl intern wie auch in Zusammenarbeit mit ersten ebenfalls wissbegierigen Kunden. Welche Erfahrungen wir machen – welche alten Ansätze wir vielleicht einfach nur bestätigen oder welche neuen Ansätze wir tatsächlich entwickeln können für unseren Weg zur „Collamunication“, darüber werden wir wieder berichten. n

DOK. 6-2018


Cognitive Search

Ist gut: Enterprise Search. Geht besser: Mit Cognitive Computing! #Cognitive-Search, #Kognitive-Analyse, #Machine-Learning, #Insight-Engine, #Natural-Language-Processing

Unternehmen in datenintensiven Branchen sind bestrebt, Werte zu schaffen, Kundenerlebnisse zu verbessern und sich vom Wettbewerb abzuheben. Wissensarbeiter stellt dies vor bisher nicht gekannte Anforderungen. Denn die Daten und das Wissen, nach dem sie suchen, liegen in vielen segmentierten, voneinander isolierten Töpfen. Aus diesen müssen die richtigen Informationen zur richtigen Zeit aufgedeckt werden, um Beziehungen und Muster darin zu erkennen. Mit herkömmlicher EnterpriseSearch-Technologie angesichts der sekündlich anwachsenden Datenmenge eine Sisyphos-Arbeit. Zudem werden die Datenmengen, die sich in Unternehmen anhäufen, immer größer und unübersichtlicher. Matthias Hintenaus, Sales Director DACH des französischen Softwareherstellers Sinequa, einem Spezialisten für kognitive Suche und Analyse. Basierend auf den Ergebnissen jahrelanger sprachwissenschaft­ licher Forschung und mit neuen Machine Learning Algorithmen lassen sich mit der Sinequa-Plattform wertvolle Informationen aus sehr großen und komplexen Datenbeständen, aus strukturierten und unstrukturierten Datenquellen gewinnen. www.sinequa.com

16 | 17

Um diesen Herausforderungen gerecht zu werden, kommt es deshalb umso mehr auf die Methoden an, mit denen aus den Daten umsetzungsfähige Erkenntnisse und Antworten gezogen werden. Doch der Prozess hin zu einer effektiven Informationsarbeit verläuft in vielen Firmen noch alles andere als optimal. Zu diesem Schluss kommt auch das Analystenhaus Forrester in einem 2017 veröffentlichten Report [1]: Dort wird berechnet, dass über die Hälfte der globalen „Information Worker“ permanent in ihrer Arbeit unterbrochen werden, nur für zeitraubende Versuche, Zugang zu wichtigen Informationen zu erhalten.

Kognitive Fähigkeiten für die Unternehmenssuche Mittlerweile bekommen die Werkzeuge zur Unternehmens­suche Verstärkung durch Kognitive Suche und Analyse. Dabei wird der Begriff der kognitiven Suche jedoch neu ausgerichtet: So ist auch in dem bereits genannten Bericht von Forrester [1] die Rede von einer neuen Generation der Unternehmenssuche, bei der KI-Technologien wie die Verarbeitung natürlicher Sprache


(Natural Language Processing, NLP) sowie maschinelles Lernen eingesetzt werden, um digitale Inhalte aufzunehmen, zu verstehen, zu organisieren und abzufragen. Neue Lösungen für Cognitive Computing kombinieren also leistungsstarke Indizierungstechnologie mit fortgeschrittenem NLP- und Machine-Learning-Algorithmen. Dadurch wird eine tiefere Wissensbasis aus allen Quellen unstrukturierter und strukturierter Daten geschaffen. Natürlichsprachliche und verdeckte Abfrageschnittstellen (Bereitstellung von relevanten Informationen ohne explizite Abfrage) werden dabei verwendet, um dem Nutzer Wissen via Text, Sprache, Visualisierungen und/ oder sensorisches Feedback zu vermitteln. Anstelle von „Cognitive Search“ spricht Gartner auch von „Insight Engines“. Kognitiv sind die Lösungen, weil sie mit dem Nutzer in einer natürlichen Art und Weise interagieren, weil sie selbständig dazulernen durch Sammeln und Analysieren von Daten, auch über das Nutzerverhalten, und indem sie proaktiv Verbindungen zwischen verwandten Daten aus verschiedenen Quellen herstellen, sowohl intern als extern.

Die Grundlage: Datenquellen integrieren und ‚verstehen‘ Welche Vorteile ergeben sich aus kognitiver Suche für Organisationen? Mit den neuen Technologien lassen sich wertvolle

Informationen aus großen Mengen komplexer und unterschiedlichster Datenquellen extrahieren. Eine Analyse solch großer Datenmengen war mit bisherigen Mitteln nicht oder nur schwer möglich. Essentiell ist dabei, dass alle verfügbaren Unternehmensdaten erschlossen werden, ob intern oder extern, strukturiert oder unstrukturiert. Nur so erhält der Nutzer tiefere Einblicke, die am Ende zu fundierten Geschäftsentscheidungen führen. Relevantes Wissen über alle Datenquellen hinweg erfordert kognitive Systeme mit NLP, um zu verstehen, worum es bei unstrukturierten Daten geht, seien sie aus Texten (Dokumenten, E-Mails, Social Media Blogs, Ingenieurberichten, Marktforschung …) oder Rich-Media-Inhalten (Videos, Call-Center-Aufnahmen …). Machine-Learning-Algorithmen helfen dabei, die Erkenntnisse aus den gewonnenen Daten zu verfeinern. Branchenund Firmen-Wörterbücher sowie Ontologien geben Aufschluss über Synonyme und Beziehungen zwischen verschiedenen Begriffen und Konzepten. Das bedeutet: Eine Menge Intelligenz und Leistung muss unter der Haube eines Systems vereint werden, um relevantes Wissen oder Einsichten bereitzustellen.

Das Ziel: Relevante Informationen gewinnen Über Machine-Learning-Fähigkeiten wird die Relevanz der Ergebnisse kontinuierlich verbessert. Zu den gebräuchlichsten Machine-Learning-Algorithmen in diesem Kontext gehören

DOK. 6-2018


Cognitive Search

Collaborative Filtering und Empfehlungen, Klassifizierung über Beispiele, Clusterbildung, Ähnlichkeitsberechnungen für unstrukturierte Inhalte und Prädiktive Analyse. Sie schaffen einen Mehrwert durch kontinuierliche Verfeinerung und Ver­besserung der Suchergebnisse. Die neue Generation der kognitiven Suche geht weit über den bisherigen „Enterprise Search“-Ansatz mit seinem traditionellen Suchfeld hinaus. Denn sie bietet Anwendern die Möglichkeit, relevantes Wissen zur richtigen Zeit auf dem richtigen Gerät abzurufen. Durch die Erweiterung um künstliche Intelligenz unterstützen Softwarelösungen wie Sinequa Organisationen auf ihrer Wandlung vom daten- zum informationsgetriebenen Unternehmen.

Die Chance: Anwendungsmöglichkeiten in vielen Branchen Lösungen mit kognitiver Suche finden in den verschiedensten Branchen zu einem erfolgreichen Einsatz. So beschreibt ein von IBM Watson veröffentlichter Bericht die konkrete Anwendung von kognitiver Suche im Luft- und Raumfahrtsektor [2]. Ein großer Hersteller der Branche nutzt die erweiterten Suchfunktionen, um die Transparenz seiner Lieferkette zu verbessern und Durchlaufzeiten zu verkürzen. Mithilfe der Cognitive-SearchPlattform werden Beträge im siebenstelligen Bereich eingespart, die sonst für kritische, außerplanmäßige Teilelieferungen ausgegeben werden müssten. Flugzeugtechniker durch­suchen außerdem unzählige Wartungsprotokolle und technische Dokumentationen. Will ein Techniker z.B. die Ursache für hohe

18 | 19

Hydrauliköltemperaturen herausfinden, identifiziert die Plattform historische Fälle mit ähnlichen Umständen und liefert Muster, die auf die Ursache des Problems hindeuten können. Weitere Anwendungsbeispiele von kognitiver Suche und Analyse finden sich etwa im Gesundheits-/Pharmasektor oder im Kundenservice. In einem Interview mit „AI Business“ erklärte Karenann Terrell, Chief Data and Analytics Officer von Glaxo­ SmithKline und ehemaliger CIO von Walmart, die Entwicklungszyklen neuer Medikamente würden sich durch Einsatz von Computern der nächsten Generation und maschinellen Lern­prozessen künftig drastisch reduzieren. Auch im Servicebereich sind Anwendungen für personalisierte und hochrelevante Kommunikation, Pflege der Kundenbeziehungen und Verhinderung von Kundenabwanderung bereits vielfach im Einsatz.

Die Herausforderung: Korrekte Musterdaten und klare Ziele Um dem System die notwendige Wissensgrundlage zu vermitteln, müssen zu Beginn ausreichend klassifizierte Trainings­datensätze zur Verfügung gestellt werden, aus denen das System lernen kann. Bei diesem kontrollierten maschinellen Lernen erkennt das System Muster, indem es die vom Menschen bereitgestellten „richtigen“ Muster beobachtet. Nach dem ersten Laden der Datenund Wissensdatenbank sollte die Cognitive-Search-Plattform eine Phase der Verfeinerung durchlaufen, während derer die Varianz der Machine-Learning-Algorithmen, die Intentionserkennung im NLP und gegebenenfalls die Modellverfeinerung für kognitive Schlussfolgerungen verbessert werden.


Hier liegt die größte Herausforderung: den Bedarf des Systems an geeigneten Daten mit der richtigen menschlichen Führung und Interpretation, die für seine Schulung erforderlich sind, in Einklang zu bringen. Dies ist sowohl eine Frage der Fähigkeiten und der Prozesskultur als auch der technischen Expertise und spiegelt sich in einer kürzlich durchgeführten Genpact-Umfrage unter über 300 Führungskräften wider, in der es heißt: „KI kann nicht stückweise implementiert werden. Es muss Teil des gesamten Businessplans der Organisation sein, zusammen mit abgestimmten Ressourcen, Strukturen und Prozessen.“ [3] Schließlich ist es notwendig, klare Ziele und Ergebnisse zu formulieren. Die Cognitive-Search-Plattform muss mit einem definierten Ziel und ausreichendem iterativem Training in einem dynamischen Umfeld angewandt werden, so dass sie effektiv aus Versuch und Irrtum lernen kann. Dies wäre sozusagen die Königsdisziplin, wenn ML-Algorithmen strategisch eingesetzt werden.

Fazit Derzeit läuft ein Großteil der Einsätze von Cognitive-Search-Plattformen noch mit NLP-Techniken und unter Nutzung von Regeln, die Klassifizierung von Daten und Steuerung von Geschäfts­ prozessen erzeugen. Damit lassen sich schon jetzt erhebliche Einsparungen beim Auffinden von Informationen erreichen. Auch werden mit dieser Methode bereits Daten klassifiziert und angereichert. Eine weitergehende Option ist aber, parallel zu dieser Vorgehensweise Experimente mit ML-Algorithmen auf den ständig reichhaltiger werdenden Daten durchzuführen. Nach der erfolgreichen Durchführung dieser Experimente wäre der Zeitpunkt gekommen, die gewonnenen Algorithmen ein­ zusetzen – ohne Störung des laufenden Betriebs. Die Einrichtung kognitiver Suchplattformen ist demnach kein langwieriges und riskantes Großprojekt: Nach dem Start lassen sich Schritt für Schritt weitere Technologien – wie eben ML – und weitere Datenquellen hinzufügen, um die Wertschöpfung für das Unternehmen sukzessive zu erhöhen. n

Referenzen [1]  The Forrester Wave™: Cognitive Search and Knowledge Discovery Solutions, Q2 2017 [2]  https://www.ibm.com/analytics/us/en/watson-explorer/ whitepaper/case/ [3] https://fortunefkg.com/wp-content/uploads/2017/09/ Genpact- white-paper.cm_.9.18.17.WEB-FINAL.pdf

DOK. 6-2018


Cognitive Search

Systematische Recherche – spektakulär stark durch kognitive Verfahren #Cognitive-Search, #Künstliche-Intelligenz, #Maschinelles-Lernen, #Vector-Space-Modelle, #Neuronale Netze, #Word-Embeddings, #Patentrecherche

In den letzten fünf Jahren konnten erhebliche Fortschritte beim Einsatz von maschinellen Lernverfahren, basierend auf künst­ lichen neuronalen Netzen, verzeichnet werden. Im Bereich der Text- und Multimedia-Analyse wird in diesem Zusammenhang typischerweise von kognitiven Verfahren gesprochen. Hierzu zählen insbesondere Verfahren zur Klassifikation, Verschlagwortung, Erkennung relevanter Entitäten und zur Unterstützung einer semantisch-assoziativen Suche (kognitive Suche). Insbesondere systematische Rechercheprozesse profitieren von kognitiven Verfahren bei der Erschließung unbekannter Dokumente.

Dr. Uwe Crenze ist seit 1993 geschäftsführender Gesellschafter und Mitgründer der in Dresden ansässigen interface projects GmbH, die mit dem eigenen Produkt intergator einer der führenden deutschen Anbieter von Enterprise Search- und Wissensmanagement­ lösungen ist. Mit Hilfe einer Vielzahl von Konnektoren zu Informations­ systemen und integrierten kogni­tiven Verfahren werden von interface:projects für Kunden aus einem großen Spektrum an Branchen maßgeschneiderte Recherchelösungen realisiert. www.intergator.de

20 | 21

Wie in kaum einem anderen Bereich gehört das systematische Recherchieren zur Kernaufgabe der Prüfer in Patentämtern. Die stark ansteigende Anzahl von Patentanmeldungen auf nationaler und internationaler Ebene stellt eine große Herausforderung bei der Bearbeitung der Schutzrechtsverfahren dar. Gleiches gilt für Patentabteilungen in Unternehmen und Forschungseinrichtungen. Erschwerend kommt hinzu, dass bei der Erstellung der Patentschriften gezielt Umschreibungen verwendet werden, welche die Nähe der angemeldeten Innovation zu bereits erteilten Patenten verschleiern und eine Entgegenhaltung zum angemeldeten Patentanspruch verhindern soll. Die durch kognitive Verfahren durchgeführte Analyse der Patentschriften unterstützt die Patentprüfer bei der Aufdeckung solcher Verschleierungen indem besser nach inhaltlich ähnlichen Patentschriften für entsprechende Entgegenhaltungen recherchiert werden kann. Eine andere Herausforderung besteht in der gezielten Zuordnung eines für eine bestimmte Patentklasse erfahrenen Prüfers. Hier unterstützen kognitive Verfahren bei der Klassifikation eingehender Patente. In diesem Beitrag werden verschiedene kognitive Verfahren vorgestellt, die im Rahmen der Zusammenarbeit zwischen


dem Deutschen Patent- und Markenamt (DPMA) und der Firma interface projects GmbH auf der Basis des Produktes intergator entwickelt und am DPMA eingeführt wurden.

Evolution der Text-Indexierung Für ein effizientes Text-Information-Retrieval wurden zahlreiche Verfahren entwickelt. Weit verbreitet sind insbesondere sogenannte Vector-Space-Modelle (VSM), die nahezu jede Text-Suchmaschine verwendet. Die Dimension der Vektoren wird durch die Anzahl unterschiedlicher Terme in dem zu durch­suchenden Korpus bestimmt. Ein Vektor repräsentiert ein Dokument im Korpus. Vektor-Space-Modelle werden deshalb verwendet, weil die Ähnlichkeit von Dokumenten leicht durch den Cosinus zwischen den Dokument-Vektoren bestimmt werden kann. Die Nachteile von Term-VSM liegen in der hohen Dimensionalität des Vektorraums mit sehr schwach besetzen Vektoren. Verfahrensbedingt geben diese Vektoren zudem keinerlei Information über die semantische Ähnlichkeit von Dokumenten. Erfolgt eine Suchanfrage mit einem Begriff, der in den gesuchten Dokumenten nicht enthalten ist, erhält man keine Treffer. Mithilfe einer breiten Palette von weiteren Methoden des Natural Language Processing (NLP) können viele linguistische und semantische Aufgabenstellungen grundlegend, aber meist nicht befriedigend gelöst werden. Hinterlegte Wörterbücher und sonstige Begriffs-

systeme einschließlich aufwendig erstellter Ontologien können von den Nutzern in der Regel weder bereitgestellt, geschweige denn aktuell gehalten werden. Mit den Arbeiten von Mikolov bei Google und später bei Facebook wurden die grundlegenden VSM unter Anwendung künstlicher neuronaler Netze auf eine neue Stufe gehoben. Das unter Word2Vec [1] 2013 bekannt gewordene Verfahren für Distributed Word Embeddings verwendet neuronale Netze zum Lernen von Zusammenhängen zwischen Wörtern. Ein Vektor repräsentiert dabei ein Wort in einem Vektorraum mit wenigen hundert Dimensionen. Räumliche benachbarte Vektoren beschreiben Wörter mit einem ähnlichen Kontext. Daraus ergeben sich vielfältige Anwendungsgebiete, wie die automatische Ermittlung von sinnverwandten Suchbegriffen, die Suche in fremdsprachigen Dokumenten bis hin zur Klassifikation von Dokumenten. Bild 1 visualisiert den semantischen Kontext zum Begriff "Regler" in Form einer 2D-Projektion eines aus ca. 300.000 Patenten trainierten 300-dimensionalen Word-Embedding-Vektorraums. Die Besonderheit dieser Word-Embedding-Vektoren liegt darin, dass ein Wort über die gelernten Kontexte, in denen es auftritt, beschrieben wird. Darüber hinaus sind Word-EmbeddingVerfahren robust gegenüber unbekannten Begriffen in Dokumenten, die nicht in das Modell-Training einbezogen waren. Auf diese Weise werden auch falsch geschriebene Wörter durch ihren Kontext richtig eingeordnet. Word Embeddings liefern somit

DOK. 6-2018


Cognitive Search

Bild 1: Verwandte Begriffe zu "Regler"

eine optimale Strategie für eine semantisch-assoziativ unscharfe Suche. Letztendlich bildet die Gesamtheit der gelernten WordEmbedding-Vektoren ein Sprachmodell. Aus großen Korpora (wie zum Beispiel Wikipedia, Zeitungs- und Nachrichtenarchiven u. ä.) lassen sich allgemeine Sprachmodelle vortrainieren und im Zusammenhang mit völlig anderen Text­beständen nutzen. Auch lassen sich Word-Vektoren von einem Sprach­modell in ein anderes transformieren, um Suchen in fremdsprachigen Dokumentenbeständen zu ermöglichen. Interessanter Weise werden beim Trainieren der Word-Embedding-Vektoren linguistische Beziehungen zwischen in einem bestimmten Zusammenhang stehenden Begriffen mitgelernt. Über Vektoroperationen lassen sich somit gezielt semantische Relationen ermitteln und für Frage-Antwort- oder Empfehlungssysteme einsetzen. Das maschinelle Lernen von Word Embeddings ist vom Grundsatz her unüberwacht. Das heißt, es müssen keine manuell kategorisierten Dokumente bereitgestellt werden. Mittels spezieller Erweiterungen (wie zum Beispiel bei fastText [2]) lassen sich auch klassenspezifische Modelle trainieren, die im Anschluss von einem entsprechenden Klassifikator verwendet werden. Ein umfassender Überblick über das Lernen von Word Embeddings mit Hilfe neuronaler Netze wird in [3] gegeben.

22 | 23

Status quo: Textbedeutungen müssen erschlossen werden Die Patentrecherche ist ein wesentlicher Bestandteil des Patent­ erteilungsverfahrens. Im Rahmen der Patentprüfung ermittelt der Prüfer eine Liste von relevanten Patentschriften oder Nichtpatentliteratur zum Stand der Technik einer Patentanmeldung – den sogenannten Entgegenhaltungen – und entscheidet anhand des Rechercheergebnisses, ob die Grundvoraussetzung der Neuheit und der erfinderischen Tätigkeit gegeben sind. Die Patentrecherche mit dem DPMA-hauseigenen Deutschen Patentinformationssystem (DEPATIS) basiert bis dato auf der Suche nach Schlagwörtern (Keywords) und bibliographischen Daten von Patentschriften. Die Suchtechnologie basiert auf einer Booleschen Suche, Suchbegriffe werden exakt oder trunkiert eingegeben und verwandte Begriffe müssen aus händisch gepflegten Wortlisten übernommen werden. Die Suche nach bibliographischen Daten, wie zum Beispiel Namen von Erfindern oder zitierten Schriften, liefert Dokumente in denen exakt diese bibliographischen Daten vorkommen. In der Praxis ist dafür die Bildung von komplexen und langen Suchanfragen notwendig, weil die Kombination von Begriffen und Synonymen explizit angegeben werden muss. Die Suche


Bild 2: Kognitive Suche in Patenten

soll eine Liste von Dokumenten liefern, die in einer angemessenen Zeit vom Prüfer gesichtet und bewertet werden muss. Das schnelle Anwachsen der Anzahl publizierter Patentschriften verschlechtert die Lage des Prüfers noch mehr, da die zu analysierenden Listen länger werden. Die Formulierung solcher Suchanfragen ist sehr zeitaufwändig, fehlerträchtig und er­fordert langjährige Erfahrung auf dem Prüfgebiet. Da Anmeldungen oft allgemein formuliert werden, um den Wirkungsgrad des Patentes zu erhöhen ("Kleinfahrzeug" anstatt "Fahrrad"), der Anmeldegegenstand durch die Verwendung abseits vom Stand der Technik liegender Begriffe, Umschreibungen ("im Kreis bewegen" anstatt "rotieren") oder Wortneuschöpfungen ("Müllentsorgungsdrohne") meist verschleiert ist, muss der Prüfer den Text erschließen. Die Bedeutung des Textes muss intellektuell erfasst werden und Schlagwörter und Synonyme als Suchbegriffe müssen manuell gebildet werden um die relevanten Entgegenhaltungen zu finden.

Neue Perspektive: Kognitive Suche findet Text-Ähnlichkeiten Die kognitive, auf semantischer Textähnlichkeit beruhende Suche reduziert den manuellen Aufwand und ermöglicht eine einfache, effiziente und effektive Recherche. Denn eine

kognitive Suche ist in der Lage, inhaltlich ähnliche Dokumente zu einer Patentanmeldung zu finden. Es ist sowohl möglich relevante Abschnitte einer Anmeldung für die Suche auszuwählen, als auch in Kombination mit anderen relevanten Druckschriften zu suchen. Bei der Suche werden Synonyme oder sinnverwandte Begriffe gefunden, die in weiteren Recherchen verwendet werden können. Die intellektuelle Ermittlung von Synonymen für die Formulierung der Suchanfrage bzw. Erstellung und Pflege von Synonym-Listen ist nicht mehr erforderlich. Die Bewertung der Suchergebnisse wird durch Hervorheben von Begriffen, die eine semantische Nähe zur Eingabe aufweisen erleichtert. Das Neuartige an dieser semantischen Suchtechnologie ist die Identifizierung von Patentliteratur mit ähnlicher Bedeutung. Ein ähnliches Dokument kann auch dann von der Suchmaschine als relevant angesehen werden, wenn die Begriffe der Sucheingabe nicht darin vorkommen. Diese Funktionalität ist für die Patentrecherche besonders wichtig, da für die Neuartigkeit eines Patentes die Idee entscheidend ist und nicht die Begriffe, die verwendet werden. Die Idee der Word Embeddings ist neben einzelnen Begriffen auch auf größere Textabschnitte anwendbar. Diese sogenannten Sentence Embeddings bilden die Bedeutung von Phrasen, Sätzen oder ganzen Dokumenten auf Vektoren ab. Es hat sich gezeigt, dass für die kognitive Suche Embeddings,

DOK. 6-2018


Cognitive Search

die mit dem Sent2Vec-Algorithmus [4] erlernt wurden, die besten Ergebnisse liefern. Einzelne Wörter und ganze Dokumente werden in demselben Vektorraum projiziert und können mit einfachen räumlichen Entfernungsmetriken in Verbindung gesetzt werden. Mit diesem universellen Ansatz eröffnen sich vielfältige, neue Möglichkeiten, ohne aufwendige linguistische (und damit sprachabhängige) Verfahren anwenden zu müssen.

Herausforderung: Klassifikationsschemata werden laufend angepasst Die Patentklassifikation dient dem einheitlichen Klassifizieren von Patentdokumenten nach technischen Gebieten. Durch die ordnungsgemäße und feingranulare Einordnung von Patent­ dokumenten in eine hierarchische Klassifikationsstruktur wird dem Patentprüfer der Zugriff auf die darin enthaltenen technischen und rechtlichen Information erleichtert. Es existieren verschiedene Klassifikationsschemata wie zum Beispiel die inter­ nationale Patentklassifikation (IPC). Mit dem ständig wachsenden Stand der Technik wird auch die Patentklassifi­ kation fortlaufend erweitert. Die IPC [5] mit dem Revisionsstand 2018.01 enthält über 74.000 IPC-Symbole. Verglichen mit anderen Klassifikationsproblemen, gibt es hier besondere Herausforderungen: 1. Der Wortschatz der Patentliteratur ist auf Grund seiner technischen Natur sehr umfangreich und mehrdeutig. 2.  Potentiell sind sehr viele Kategorien zu unterscheiden. Diese sind hierarchisch angeordnet, so dass sie thematisch überlappen und sich in tieferen Ebenen nur noch durch spezifische Teilaspekte unterscheiden. 3. Durch Änderungen im Schema müssen Dokumente umklassifiziert werden. 4.  Die unterschiedliche Relevanz von Themengebieten im Stand der Technik spiegelt sich in der IPC-Hierarchie wider. Die Patentschriften sind daher ungleich über die Kategorien verteilt. So gibt es Kategorien, denen nur ein Patent zugeteilt ist, während andere tausende Patente umfassen.

24 | 25

Fazit & Ausblick Kognitive Verfahren liefern mächtige, neue Instrumente, um die Recherchen effektiver und effizienter zu gestalten. Naturgemäß geht bei unscharfen, assoziativen Verfahren die Exaktheit verloren. Im Suchszenario führt dies zum Beispiel dazu, dass eine Suche nach "Fahrrad" auch Dokumente zu "Klein­ fahrzeugen" oder "Motorrädern" als relevant erkennt. Je nach Anwendung kann dieser Effekt gewollt oder ungewollt sein. Im hochdimensionalen Raum sind viele syntaktische und semantische Aspekte kodiert. Eine Treffermenge ist immer nur eine Reduktion, bei der Eigenschaften verloren gehen. Eine eindimensionale Liste der Suchtreffer ist daher nicht ausreichend, um die vielfältigen Ähnlichkeitsaspekte wiederzugeben, vor allem in großen Suchräumen. Alternative Darstellungsformen in Verbindung mit interaktiven Navigationskonzepten im Suchraum können dem Nutzer helfen, seine Intention auszudrücken. Darin liegt ein Schwer­ punkt künftiger Entwicklungen. Eine vollständige Übersicht und Evaluation der hier vorgestellten Verfahren wird in [6] dargestellt. n

Referenzen [1]  Mikolov, T.; Chen, K.; Corrado, G.; Dean, J.: Efficient Estimation of Word Representations in Vector Space, 2013, https://arxiv.org/ abs/1301.3781v3 [2] Joulin, A.; Grave, E.; Bojanowski, P.; Mikolov, T.: Bag of Tricks for Efficient Text Classification, 2016, https://arxiv.org/ abs/1607.01759v3 [3] Korger, C.: Clustering of Distributed Word Representations and its Applicability for Enterprise Search, Diploma Thesis, Dresden University of Technology, 2016 [4] Pagliardini, M.; Gupta, P.; Jaggi, M.: Unsupervised Learning of Sentence Embeddings using Compositional n-Gram Features, 2017, https://arxiv.org/abs/1703.02507v2 [5] Internationale Patentklassifikation, Handbuch zur IPC Ausgabe 2018. Deutsches Patent- und Markenamt, München, 2018. [6] Reinke, M.; Kischkel, A.; Jahns, V.; Crenze, U.; Beltcheva, O.: Einsatz kognitiver Verfahren am Deutschen Patent- und Markenamt, BTW 2019, Lecture Notes in Informatics (LNI), Gesellschaft für Informatik, Bonn, 2018

DOK. 6-2018


Promotion

Gegenargumente – Fehlanzeige

Nicht genug, dass die Alaris Produktionsscanner höchste Produktivität liefern und das Unternehmen in den letzten Jahren Marktführer in diesem Segment ist sowie zum dritten Mal in Folge den begehrten Award „Scanner Line of the Year“ von Buyers Lab erzielen konnte – nun bietet Kodak Alaris auch noch einen finanziellen Anreiz mit Wechselprämien bis zu 10.000 Euro. Höchste Produktivität: Alaris Produktionsscanner Überall dort, wo große Mengen an Papierdokumenten gescannt werden müssen zählt jeder Handgriff. Bisher fallen ca. 60 – 70 % aller Kosten bei der Digitalisierung großer Volumen noch immer auf manuelle Tätigkeiten bei der Vor- und Nachbereitung des Belegguts. Hier schafft Kodak Alaris mit intelligenten Funktionen Abhilfe. Die Produktionsscanner Kodak i5650S und Kodak i5850S zum Beispiel bieten eine intelligente Sortierfunktion mit drei Ausgabefächern. So können Trennblätter separat ausgegeben und wieder verwendet oder auch Originaldokumente von Kunden, die zurückgegeben werden müssen, in einem getrennten Fach gesammelt werden. Doch die Scanner der i4000 und i5000 Serien bieten noch viel mehr. Der innovative Papiertransport sorgt für sicheres und staufreies Scannen. Der intelligente Dokumentenschutz „hört“ verdächtige Knittergeräusche und stoppt sofort den Scanvorgang. Genauso werden Metallklammern erkannt bevor sie in die Papierführung gelangen und das Scannerglas beschädigen können.

Prozesse automatisieren: Alaris Capture Pro Die optional erhältliche Erfassungslösung ist die optimale Ergänzung. Sie wandelt nicht nur große Stapel an Papierdokumenten in wertvolle Informationen um, sondern automatisiert ganze Prozesse. So zum Beispiel die intelligente „AutoJobSelect“-Funktion. Sie nutzt spezifische Patchcode-Trennblätter zur Automatisierung von Auftrags- und Profilwechseln, so werden Stillstandzeiten zwischen Aufträgen minimiert. Oder das intelligente Auslesen von Barcodes, das immer für akkurate Ergebnisse bei der Datenextrahierung sorgt. Mit „Intelligent Exception Processing“ werden im Vorfeld Pflichtfelder definiert. Die Scanlösung erkennt nicht ausgefüllte Pflichtfelder und weist den Anwender darauf hin. Wechsel leicht gemacht Zusätzlich zu den schlagkräftigen Argumenten bietet Kodak Alaris bis zum 31. Januar 2019 einen Wechselbonus, der sich sehen lassen kann. Maßgabe ist der Eintausch eines Dokumentenscanners mit einer Geschwindigkeit von mind. 100 Blatt pro Minute, ganz gleich von welchem Drittanbieter. Zum Wechsel stehen die Scanner­ modelle i4650, i4850 sowie die gesamte i5000 Serie zu Verfügung. Je nach Modell beträgt die Prämie von 2.000 Euro bis zu 10.000 Euro. Alle Einzelheiten zur Aktion unter http://bit.do/Wechsel.

Die Perfect Page Bildverarbeitungstechnologie sorgt stets für qualitativ hochwertige Bilder, auch bei schlechten Vorlagen. Das sind nur einige der Vorteile, die die Alaris Produktionsscanner bieten. Unter www.alarisworld.de sind ausführliche Informationen zu finden. Kodak Alaris Germany GmbH Hedelfinger Str. 60 | 70327 Stuttgart Tel.: +49 (0)711 / 25 28 19 41 scannerfamilie@kodakalaris.com www.alarisworld.com


Robotic Process Automation

RPA – das „Schweizer Taschenmesser“ der Prozessautomatisierung #Robotic-Process-Automation, #Business-Process-Management, #Künstliche-Intelligenz, #Machine-Learning

David Schneider ist bei der X-INTEGRATE Software und Consulting GmbH im beratenden Vertrieb tätig. Die X-INTEGRATE GmbH aus Köln ist IBM PremiumPartner und Spezialist für Business Integration Software auf Basis etablierter Methodik, offener Standards und IBM Middleware sowie Open Source Plattformen. www.x-integrate.com

Das Wachstum der digitalen Wirtschaft verbindet Menschen und Organisationen auf neue Weise. Aber es hat auch wiederkehrende Aufgaben hervorgebracht, wie z.B. die Anforderung, Daten manuell eingeben zu müssen. Viel zu viel Zeit verbringen Büroangestellte demnach damit, Daten über nicht zusammenhängende Systeme hinweg zu kopieren und einzutragen. Wissensarbeiter/innen verfügen über große Fähigkeiten, sind aber nicht so produktiv, wie sie sein könnten, da der wiederholte Zugriff auf Informationen länger dauert, als es sein sollte. Unternehmen benötigen deshalb einen kosteneffektiven Weg, um ihre Daten effizienter verarbeiten und verwalten zu können.

Prozessoptimierung: Einsatz auf verschiedenen Ebenen Das Verselbstständigen von Geschäftsprozessen ist kein Trend, der erst mit der zunehmend digitalisierten Arbeitswelt stattfindet. Tief in der Geschäftswelt verwurzelt ist das Streben nach autonom arbeitenden Systemen, die den Menschen in seiner Arbeit unterstützen, ergänzen und häufig ersetzen. Während sich das Thema Automatisierung in seinen Ursprüngen hauptsächlich auf das Optimieren von Prozessen im Bereich der industriellen Fertigung und der Landwirtschaft konzentrierte (die meist mit körperlicher Arbeit in Verbindung standen), sind die potenziellen Einsatzbereiche heute vielfältiger. Wer sich mit der Automatisierung von Betriebsabläufen auseinandersetzt, weiß, dass die automatische und toolgestützte

26 | 27


Ausführung von Geschäftsprozessen mittlerweile auf mehreren Eben stattfinden kann. Überall dort, wo Arbeitsschritte häufig wiederkehren, findet sich ein potenzielles Einsatzgebiet für eines der zahlreich auf dem Markt verfügbaren Automatisierungstools. Gängige Anwendungsfälle wären etwa das Automatisieren von Rechnungs- oder Bewerbungseingangsprozessen, das Anlegen neuer Mitarbeiter/innen in betriebsinternen Systemen oder eine systemübergreifende Generalisierung von Dokumenten.

Robotic Process Automation als Baukastensystem Durch die fortschreitende Weiterentwicklung im Bereich der Automatisierungstools lassen sich heute mit verhältnismäßig wenig Aufwand bereits große Mehrwerte durch Verringerung von Fehlerpotenzialen, Einsparung von Kosten und Entlastung von Arbeitskräften erzielen. So oder ähnlich vermarkten die großen IT-Konzerne SAP, IBM und Co. ihre Automatisierungstools. Und sie haben recht. Tools wie IBM RPA (Robotic Process Management) zeichnen sich durch eine benutzerfreundliche Oberfläche und eine Art modifizierbaren Baukastensystem aus und bieten so auch Beschäftigten ohne tiefgreifende Entwicklungskenntnisse Möglichkeit, in kurzer Zeit bereits kleinere Use Cases wie zum Beispiel das Öffnen und Einloggen in lokale Programme umzusetzen. Die Kernkompetenzen von RPA lassen sich dabei in vier wesentlichen Punkten zusammenfassen:

(1) Schnelle Wertschöpfung: Erstellung, Test und Auslieferung neuer automatisierter Prozesse benötigt nur noch Tage oder wenige Wochen. (2) Reduzieren menschlicher Fehler: Die Automatisierung von Prozessen reduziert menschliche Fehler, die mit der manuellen Eingabe von Daten verbunden sind. (3) Erhöhter Durchsatz: Software-Roboter ‚laufen‘ schneller als Menschen. Sie benötigen zudem keine Pausen. (4) Senkung der Entwicklungskosten: Es wird eine intuitive Bot-Design-Umgebung bereitgestellt, über welche die Automatisierungsanwendungen visuell und ohne Code auch von Mitarbeiter/innen ohne tiefgreifende Programmierkenntnisse modelliert werden können. Ein leistungsstarker Recorder baut die Anwendungen auf, indem er den Angestellten bei der Arbeit beobachtet und eine umfangreiche Bibliothek von Vorlagen­ aktivitäten anlegt. Dies ermöglicht es, die aufgezeichneten Prozesse zu bearbeiten und zu verbessern.

Marktplatz für ‚Automation Anywhere‘ Eine weitere Möglichkeit, um eine noch schnellere Wertschöpfung zu erzielen, bietet der „Automation Anywhere Bot Store“, ein Online-Marktplatz von Automation Anywhere, einem der Weltmarktführer für Robotic Process Automation (RPA). Dort werden in über zehn verschiedenen Kategorien mehr als 200 verschiedene pre-built Bots angeboten. Die bereits fertig entwickelten Bots können online erworben und mit nur wenig Konfigurationsaufwand direkt über die Automation Enterprise Plattform eingesetzt werden.

DOK. 6-2018


Robotic Process Automation

Robotic Process Automation als benutzerfreundliches und modifizierbares Baukastensystem

Geplant ist, dass zukünftig auch Unternehmenspartner von Automation Anywhere den Marktplatz nutzen können, um ihre selbst erstellten Bots dort zu vertreiben. Man kann also davon ausgehen, dass der bisher noch dürftig ausgestattete Marktplatz mit der Zeit wachsen und sich zu einer Plattform mit einem breiten Portfolio an Bots für die verschiedensten Anwendungsbereiche entwickeln wird.

stets optimiert, kann – wenn es um die Integration einer neuen Applikation geht – nicht alle Faktoren berücksichtigen. Nur ein geschultes Auge erkennt, an welcher Stelle im System die Applikation integriert wird, welche Daten benötigt werden, um entsprechende Use Cases abzubilden und wie die Software­ roboter konfiguriert werden müssen, um nachhaltig die gewünschten Ziele zu erreichen.

Detaillierte Prozessanalyse ist die Grundlage

KI und Machine Learning als Kernelemente

Für Unternehmen, die daran interessiert sind, in Zukunft auf Automatisierungstools zu setzen, ist es von höchster Relevanz, die eigenen Prozesse bis ins kleinste Detail zu analysieren, um festzustellen, welche von ihnen durch Automatisierungstools übernommen werden können. Je mehr Energie in die Analyse der Geschäftsprozesse fließt, desto gezielter können Automatisierungstools eingesetzt werden. Unternehmen, die bereits mit Business Process Management Systemen, Case Managementoder Contact-Center/Back-Office-Applikationen arbeiten, sind hier im Vorteil. Denn sie verfügen zumindest teilweise über eine Abbildung ihrer Geschäftsprozesse und Automatisierungstools wie IBM RPA harmonieren hervorragend mit diesen Systemen bzw. erweitern sie entsprechend.

Sowohl Künstliche Intelligenz als auch Machine Learning sind Schlüsseltechnologien, die sich in den vergangenen Jahren aufgrund ihrer vielseitigen Einsatzmöglichkeiten zu überaus nützlichen Helfern entwickelt haben. Im Bereich der Automatisierung sind sie jedoch weniger eigenständige Komponenten denn Bindeglied zwischen den drei Bereichen Task-Automation, Workflow-Automation und Decision-Automation. Durch Einbindung dieser Technologien werden moderne Automatisierungslösungen zu einem zentralen Bestandteil eines jeden Unter­ nehmens.

Um Stolpersteinen bei der Integration aus dem Weg zu gehen, ist es allerdings auch für diese Unternehmen notwendig, einen Experten einzuschalten, der die zu automatisierenden Prozesse und die dahinter liegende IT-Infrastruktur genauer unter die Lupe nimmt. Auch ein Unternehmen, das seine Prozesse

28 | 29

KI und ML etablieren sich damit als zentrales Kernelement von Automatisierungslösungen und stehen in direktem Zusammenhang mit den uns heute bekannten Funktionalitäten sowie erweitern diese. Der Einsatz von KI und ML im Automatisierungsumfeld ermöglicht einem Unternehmen mehr als nur die Abbildung und Automatisierung von repetitiven Prozessen. Mit KI lassen sich Prozesse automatisieren, die zwar regelbasiert sind, allerdings bislang noch von menschlichem Input abhängig

DOK. 6-2018


waren. So können beispielsweise mit Automatisierungstools, die über KI mit kognitiven Fähigkeiten verfügen, E-Mails automatisch vorsortiert bzw. beantwortet oder weiterleitet werden. Denkbar wäre auch ein Einsatz in Kundencentern, wo Anrufe von einer KI entgegengenommen werden und mit den Ergebnissen aus den Telefonaten automatisch nachgelagerte Prozesse wie Dokumentation oder Terminplanungen abgewickelt werden.

Fazit Das amerikanische Marktforschungsunternehmen Gartner Inc. prognostiziert, dass bis 2020 85 Prozent der Beziehungen zwischen Kunde und Unternehmen ohne menschliche Interaktion verwaltet werden. Dies zeigt: Intelligente Automatisierungs­ lösungen sind nicht einfach ein weiteres Instrument im

Optimierungswerkzeugkasten, sondern ein für Erfolg und Misserfolg bzw. Effizienz und Ineffizienz ausschlaggebendes Element. Um in Zukunft konkurrenzfähig zu bleiben, sind Unternehmen gezwungen, ihre Prozesse zu analysieren, zu optimieren und – sofern die äußeren Umstände es zulassen – auch zu automatisieren. Automatisierungstools können Unternehmen, die bislang noch wenig Erfahrung im Automatisierungsumfeld haben, bei den ersten Gehversuchen unterstützen. Aber auch solchen, die ihre Prozesse stets optimieren, verleihen sie die Möglichkeit, diese schnell und einfach zu automatisieren. Neue Technologien wie KI und ML machen Automatisierungstools zu einer Art Schweizer Taschenmesser der Prozessoptimierung, indem sie das Portfolio für Einsatzszenarien von Automatisierungstools in vertikaler und horizontaler Richtung immens erweitern. n

Barrierefreie Dokumente sind auch mehrkanalfähige Dokumente Design Once Alle Dokumente sind omni-kanalfähig und allgemein zugänglich (barrierefrei gemäß PDF/UA und responsiv gemäß HTML5) Alle Formate Dokumente jeden Formats inkl. PDF/UA erzeugen Offene Standards Die wichtigsten internationalen Standards unter einem Dach Hohe Performance Extrem hochleistungsfähig und somit für Massenverarbeitung wie auch für transaktionale Einzelverarbeitung einsetzbar

Sichern Sie sich jetzt ein kostenloses Dossier und erfahren Sie mehr über unsere Lösung. Compart | www.compart.com | info@ner.compart.com | +49 7031 6205-0


Virtual Agents

Kommen (richtig) gut an: Intelligente Chatbots #Virtual-Agents, #Künstliche-Intelligenz, #Konversationsdesigner, #dialogorientierte-Benutzeroberfläche, #Kommunikationskanäle

Technologien revolutionieren und vereinfachen unseren Alltag. Die Lieferadresse kurzfristig mobil ändern oder die Playlist per Sprachbefehl steuern, sind nur zwei Beispiele dafür. Während im privaten Bereich Anwendungen häufig intuitiv und leicht zu bedienen sind, dominieren im Arbeitsalltag komplizierte, aufwendige Prozesse fernab jeglicher Nutzerfreundlichkeit.

Bernd Much, Director Solution Consulting Germany, ServiceNow (NYSE: NOW). ServiceNow macht das Arbeiten für Menschen besser und einfacher. Die Cloud-basierte Plattform ermöglicht eine intuitive Nutzererfahrung, die Menschen optimal bei ihrer Arbeit unterstützt. www.servicenow.de

Um diese Leichtigkeit ins Unternehmen zu bringen, ist cloud­ basierte künstliche Intelligenz (KI) notwendig. Mitarbeiter und Kunden wollen intuitive und nutzerfreundliche Erfahrungen, die sie aus ihrem Alltag kennen, auch in der Arbeitswelt erleben. Vorgefertigte, benutzerfreundliche Chatbots können beispielsweise mittels Drag-and-Drop individuell an die jeweiligen Bedürfnisse angepasst und einfach implementiert werden. Benutzer können automatisierte Agenten (Bots) erstellen und Bot-Konversationen entwerfen, mit denen sie schnell Informationen erhalten, Entscheidungen treffen und mit denen sich häufige Arbeitsaufgaben ausführen lassen.

Intelligente Chatbots mit Self-Service-Funktionen Mitarbeiter können mit einem leistungsstarken, intelligenten Chatbot einfache IT-Anfragen direkt mittels Self-Service-Funktionen selbst tätigen. Die Funktionen des Chatbots erlauben es ihnen, Probleme schnell und einfach zu lösen. Somit müssen sich weder die Angestellten noch die IT-Abteilung mit beispielsweise einem Hin und Her via Mail aufhalten. Mit KI wird ein einzigartiger Chatbot geschaffen, die den Chat von der ersten Kommunikation bis zur Problemlösung unterstützt. Fragen werden dem

30 | 31


Virtual Agent in menschlicher Sprache gestellt. Integriert in eine unternehmensweite Plattform für jegliche Art von Arbeits­prozessen, kann die Chat-Anwendung auch dabei unterstützen, Tickets zu eröffnen, Optionen einzusehen und sogar Probleme direkt im Chat zu lösen.

ist, dass der Virtual Agent Teil einer zentralen Plattform ist, die Abteilungen wie Kundenservice (CSM), IT Service Management (ITSM) und Human Resources (HR) verbindet. Der Chatbot sollte dabei ein umfassendes Kontingent an vorgefertigten Konver­ sationen für Anfragen aus Konversation via Chatbot diesen Bereichen vorweisen. Mittels individuDiese intelligenten Virtual Agent Chatbots eller Konfiguration können Unternehmen dann berücksichtigen den Kontext und liefern individualisierte Antdiese Konversationen an die spezifischen Geschäftsbedürfnisse worten. Benötigt ein Mitarbeiter zum Beispiel ein neues Smartanpassen. phone, stellt der Virtual Agent den Mobilfunkanbieter und die Tarife zusammen. So erleben Mitarbeiter eine persönlichere Dabei sollten Chatbots vor allem schnelle Antworten auf Erfahrung und ihre Anfragen werden schneller gelöst. häufige und grundlegende Anfragen bieten, und so IT, HR und CSM entlasten. Das ‚Raster‘ für die vorgefertigten Inhalte sieht dabei folgende Inhalte vor:

‚Konversation‘, individuell angepasst und konfiguriert Der intelligente Chatbot hat das Potenzial, etwa 15 bis 20 Prozent der wiederkehrenden, einfachen Interaktionen in allen Unternehmensbereichen zu übernehmen. Voraussetzung dafür

n  IT: Erstellung eines Vorfalls mit Gesprächshistorie und Arbeitshinweisen, Bereitstellung von Links zu relevanten Katalogelementen und Artikeln aus der Wissensdatenbank sowie Berichterstattung über aktuelle Ausfallinformationen. n HR: Beurlaubung, Untersuchung von Gehaltsunterschie-

DOK. 6-2018


Virtual Agents

Self-Service heute

den und Aktualisierung eines Mitarbeiterprofils. Wenn keine Antworten gegeben werden können, wird automatisch ein Fall für die Nachbereitung durch die HR-Mitarbeiter erstellt. Die Personalabteilung kann zudem für zusätzliche Anfragen die Konversation durch individuelle, HR-bezogene Bausteine erweitern. n

C  SM: Standardmäßige Fragen und Themen sowie eine nahtlose Eskalation zu einem Live-Chat-Agenten. Auch hier kann das CSM-Team mit individuellen Konversations-Bausteinen zusätzliche Anfragen über die Self-Service-Funktion ab­bilden.

Diese vorgefertigten Konversationen ermöglichen eine schnelle Bereitstellung. Zusätzlich kann ein grafischer Konversations­ designer, der wenig oder gar keine Programmierung benötigt, die Verwaltung des virtuellen Agenten weiter verbessern. Ein Drag & Drop-/Point & Click-Erlebnis bietet eine Kombination aus Text und umfangreichen Steuerelementen (wie Bilder und HTML), die die Entitätsextraktion nutzen, um Workflows zu steuern. Eine einfach zu bedienende Palette, bestehend aus Benutzereingaben, Bot-Antworten, Skripting-Komponenten, Aktionen und einer Vorschau, liefert dem Endnutzer ein echtes Konversationserlebnis. Der Konversationsdesigner erlaubt es jedem Systemadministrator, dank einer einfachen, klaren Benut-

32 | 33

zeroberfläche, einen Konversationsfluss nach dem No-CodePrinzip zu entwerfen. So können ohne Codierung intuitive und nutzerfreundliche Konversationen geschaffen werden.

Agenten für konkrete Problemlösung Wenn Nutzer beispielsweise Hilfe für einen beschädigten Bildschirm benötigen und „Ich habe einen Sprung im Bildschirm“ in die Suchleiste eingeben, erhalten sie häufig eine Reihe von Optionen wie Benutzerhandbuch, Supportforum, FAQ und vielem. Da keines dieser Optionen das Problem löst, klicken sie schließlich auf „Get Help“, wo sie ein Formular mit vielen Feldern sehen, die größtenteils dem System schon bekannt oder für den Sachverhalt irrelevant sind wie Alter oder Adresse. Was wäre, wenn es einen einfacheren Weg gäbe? Was, wenn man ihnen nur eine Frage stellen würde: „Wie können wir Ihnen helfen?“ Mit dem virtuellen Agenten erhalten Nutzer genau das. Eine dialogorientierte Benutzeroberfläche (Chat) über mehrere Plattformen hinweg fragt den Benutzer, was er benötigt – ganz ohne Listen, frei von Formularen. Die Out-of-the-Box-Lösung liefert bereits eine breite Palette an vorgefertigten Konversationen. Einfache Anwendungsfälle wie „Wissensdatenbank

DOK. 6-2018


durchsuchen“ oder „Status meiner offenen Tickets anzeigen“ werden vom Virtual Agent automatisch und ohne menschliche Interaktion bearbeitet. Da sich die Informationen auf einer integrierten Plattform befinden, handelt es sich um eine nahtlose Sofortmaßnahme. Anwender müssen sich nicht mit langwierigen Suchen oder umständlichen Formularen aufhalten.

mehr mobile Geräte oder Collaboration Tools von Drittanbietern, besonders im Unternehmensumfeld. Sobald die spezifische Konversation im Virtual Agent aufgebaut ist, sollte sie daher auf mehreren Kanälen veröffentlicht werden. So können Mitarbeiter in ihrer gewohnten Umgebung Anfragen tätigen, bearbeiten und beantworten. Dazu gehören beispielsweise Integrationen in weitere Chat-Clients wie Microsoft Teams oder Slack.

Fazit

Die Bereitstellung des Chatbots auf mehreren Kommunikationskanälen erlaubt es zusätzlich, die Anfrage oder Aufgabe schnell und bequem zu tätigen. Der Virtual Agent gewährleistet auch personalisierte Kundenerlebnisse, indem Benutzerinformationen während des Gesprächs angewendet und gespeichert werden. n

Die Implementierung eines virtuellen Agenten für häufige Anfragen und Aufgaben bietet Nutzern Tag und Nacht sofortige Hilfe. Es ist zudem wichtig, dass der virtuelle Agent nicht nur im Desktop-Browser funktioniert, denn Nutzer verwenden immer

Digitalisierung anpacken! Wir begleiten Sie und Ihr Unternehmen – mit modernstem ECM und Know-how! ceyoniq.com | info@ceyoniq.com | + 49 521 9318 1000

Jetzt das Whitepaper downloaden:„Enterprise Content Management“!


XTRA | Digital Business Security

Interview | They did it again!!!

#Digital-Business-Security, #Datensicherheit, #Zugriffsrechte, #Need-to-know-Prinzip, #Data-Owner, #Nutzerverhaltensanalyse

In den letzten Monaten sind Meldungen über Datenschutz­ verletzungen zum traurigen Alltag geworden. Allein in der ersten Hälfte des Jahres 2018 verzeichnete der Breach Level Index über drei Milliarden kompromittierte Datensätze. Die überwiegende Mehrzahl der Fälle wurde dabei durch externe Angreifer verursacht (56 Prozent), aber auch Innentäter, wie zuletzt bei Tesla, sorgen häufig für gravierende Schäden. Das größte und am meisten verbreitete Problem sind dabei zu weit gefasste Zugriffsrechte. So zeigte der Varonis DatenrisikoReport 2018, dass durchschnittlich 21 Prozent der Ordner eines Unternehmens für jeden Mitarbeiter zugänglich sind und in 41 Prozent der Unternehmen sämtliche Mitarbeiter Zugriff auf mindestens 1.000 sensible Dateien haben – wie personenbezogene Daten, Kreditkarten- oder auch medizinische Informationen.

Achillesferse Zugriffsrechte Entsprechend ist die Reduzierung und effektive Kontrolle der Zugriffsrechte ein wesentlicher Punkt für mehr Datensicherheit. Grundsätzlich sollten sie nach dem Need-to-know-Prinzip ver­geben werden. Dadurch sollten nur diejenigen Mitarbeiter Zugriff auf Dateien haben, die sie für ihre Arbeit auch tatsächlich benötigen. Und je geringer die Anzahl der Berechtigten ist, desto geringer auch das Risiko.

34 | 35

Interview mit Thomas Ehrlich, Country Manager DACH und Osteuropa bei Varonis. Varonis verfolgt seit der Firmengründung im Jahr 2005 einen anderen Ansatz als die meisten IT-SicherheitsAnbieter, indem es die Unternehmensdaten ins Zentrum der Sicherheits­strategie stellt. Varonis erkennt InsiderBedrohungen und Cyberangriffe durch Verhaltens­analyse und bewahrt einen sicheren Zustand der Systeme durch effiziente Automatisierung. www.varonis.de


Problematisch in diesem Zusammenhang sind auch sogenannte Ghost Users, also veraltete, nicht mehr benötigte, aber nicht deaktivierte Nutzerkonten. Die Studie hat ergeben, dass jedes dritte Nutzerkonto nicht mehr genutzt wird. Der Hauptgrund hierfür ist eine oftmals mangelnde Kommunikation zwischen den einzelnen Abteilungen und der IT. So kann die IT-Abteilung zwar Änderungen implementieren, aber sie ist dabei auf Informationen anderer Stellen, etwa der Personalabteilung, angewiesen, um sicherzustellen, dass Konten deaktiviert werden.

Unter anderem um diese Problematik zu adressieren, aber auch um ganz allgemein eine bessere Datenhygiene zu erzielen, empfiehlt sich die unternehmensweite Etablierung von Data Ownern, also Datenverantwortlichen. Diese gehören nicht der IT, sondern den entsprechenden Fachabteilungen an und sind damit in der Lage, präzise zu entscheiden, welcher Mitarbeiter auf welche Dateien zugreifen muss. Auf diese Weise wird nicht nur die Datensicherheit erhöht, sondern auch die IT-Abteilung entlastet.

Data Owner als Verantwortliche Für Hacker sind diese Accounts ideal, da ihre Nutzung oft nicht weiter auffällt. Zum einen gibt es ja keinen aktiven Nutzer, der sich über vermeintlich von ihm selbst durchgeführte Aktionen wundern würde, zum anderen sind es legitime Konten mit bestimmten Berechtigungen. Auf diese Weise sind Cyberkriminelle in der Lage, sich in aller Ruhe und ohne Aufmerksamkeit zu erzeugen in den anvisierten Unternehmen umzuschauen und diese von innen heraus kennenzulernen. Und je nach Zugriffsrechten können hierbei bereits auch schon Daten unauffällig entwendet werden. Einfache Rechtevergabe durch Datenverantwortliche

DOK. 6-2018


XTRA | Digital Business Security

Nutzerverhalten als zusätzlicher Indikator In Bezug auf Datensicherheit sind die Zugriffsrechte aber nur die eine Seite der Medaille. Auch wenn sie auf das Nötigste reduziert werden, besteht immer noch eine (wenngleich deutlich geringere) Gefahr des Datendiebstahls. Hier muss eine intelligente Analyse des Nutzer- und Maschinenverhaltens (UEBA) ansetzen. Diese erkennt abnormales Verhalten, etwa in Bezug auf Uhr­ zeiten, Ordner, auf die zugegriffen wird, oder auch Geolokation, und ist in der Lage, Alerts auszugeben und (automatisiert) entsprechende Verteidigungsmaßnahmen einzuleiten.

„Es muss klar sein, dass Datensicherheit ein ständiger Prozess ist“ Daten sind sicherlich die mit wertvollsten Assets, über die Unternehmen verfügen. Deswegen müssen sie entsprechend geschützt werden. Analysiert man aktuelle Hacker-Attacken, spielen oftmals unstrukturierte Daten eine wesentliche Rolle. Warum das so ist und was Unternehmen hiergegen unter­ nehmen können, erklärt Thomas Ehrlich, Country Manager DACH von Varonis Systems, im Interview.

So ist auf diese Weise möglich, das Abfließen von Daten zu identifizieren und zu stoppen, sogar bei Zero-Day-Attacken. Mit anderen Worten: Es spielt keine Rolle, auf welche Weise der Angreifer hinter den Perimeter gelangt ist, sei es mittels Social Engineering, Phishing, gestohlenen Zugangsdaten oder durch bekannte oder unbekannte Sicherheitslücken. Auch können auf diese Weise böswillige Aktivitäten von Insidern erkannt und unterbunden werden. Thomas Ehrlich

Datensicherheit ist der Dreh- und Angelpunkt Viele Unternehmen konzentrieren sich jedoch nach wie vor zu stark auf den Perimeter-Schutz, reagieren auf immer neue Bedrohungen und Angriffsvektoren mit immer neuen vermeintlich sicheren Insellösungen, anstatt die Datensicherheit ins Zentrum der Security-Strategie zu stellen: Mit der Durchsetzung restriktiver Zugriffsrechte nach dem „Need-to-know“-Prinzip und intelligenter Nutzerverhaltensanalyse kann das Risiko wesentlich verringert und die Sicherheit wesentlich erhöht werden.

Herr Ehrlich, warum sind unstrukturierte Daten für Angreifer ein so beliebtes Ziel? Das hat vor allem zwei Gründe: Zum einen liegen hier die wertvollen Informationen des Unternehmens: Von geistigem Eigentum (wie Produktionspläne oder CAD-Dateien) über Mitarbeiter- bis hin zu Kundendaten, oft inklusive Adressen, Finanzinformationen und medizinischer Daten. Zum anderen zeigt sich immer wieder, dass diese Daten aufgrund zu weit gefasster Zugriffsrechte einfach zu finden bzw. zu erreichen und damit relativ problemlos zu stehlen sind. Deshalb konzentrieren wir uns ausschließlich auf die unstrukturierten Daten eines Unternehmens, also alles, was jenseits von Datenbanken auf den Unternehmensservern oder in der Cloud gespeichert ist. Wir decken dabei nicht nur die Windows-Welt mit Active Directory, Exchange, SharePoint und Office 365 ab, sondern auch UNIX/Linux. Und da immer mehr Unternehmen über hybride Umgebungen verfügen, in denen Dateien sowohl lokal als auch in der Cloud gespeichert werden, arbeiten unsere Lösungen auch mit Dell EMC, NetApp, Nasuni und HPE zusammen. Worauf kommt es neben Management und Optimierung von Zugriffsrechten noch an?

Überwachung des Nutzerverhaltens

36 | 37

Wir verstehen Datensicherheit als einen dreistufigen Prozess: Erkennen des Risikos und der exponierten und sensiblen Daten, Verhindern von zu weit gefassten und unnötigen Zugriffsrechten und schließlich Erhalten des erreichten Zustands, etwa durch Automatisierung. Wir sind in der Lage, für jeden dieser

DOK. 6-2018


Bereiche entsprechende Module unserer Datensicherheits-Plattform anzubieten, sodass Unternehmen eine auf ihre speziellen Bedürfnisse ausgerichtete Lösung erhalten. Neben dem kontinuierlichen Management der Zugriffsrechte – und es muss allen Verantwortlichen klar sein, dass Datensicherheit ein ständiger Prozess und keine einmalige und abschließbare Aktion darstellt – ist es aber unabdingbar, auch das Verhalten von Nutzern und Maschinen auf Abnormalitäten zu überwachen. Dies gelingt durch intelligente Nutzerver­ haltensanalyse (UBA). Was unterscheidet Ihren UBA-Ansatz von anderen, etwa von Security Information and Event Management (SIEM)-Lösungen?

Gerade SIEM-Systeme werden von IT-Sicherheitsverantwortlichen oft als sehr „laut“ empfunden, da sie viele Warnungen/ False-Positives geben. Die Folge ist oftmals, dass ihnen gar keine Beachtung mehr beigemessen wird und die teuren Investitionen letztlich nutzlos betrieben werden. Mit unserer neuen Lösung Edge können wir jedoch den von SIEM-Systemen generierten Informationen zusätzlichen Kontext hinzufügen und damit noch besser Bedrohungen erkennen. Kontext spielt eine große Rolle bei der Unterscheidung, ob es nur außergewöhnliches, aber durchaus legitimes Verhalten ist, oder ob mehr dahintersteckt. Gleichzeitig werden die vielfach brachliegenden SIEMLösungen, die ja eigentlich durchaus sinnvoll sind und wertvolle Informationen bereitstellen, wieder sinnvoll genutzt.

Unser System lernt das normale Nutzerverhalten kennen und ist so in der Lage, sehr präzise abnormales Verhalten zu erkennen.

Nahezu jede Security-Maßnahme hat ihre Daseinsberechtigung, sei es der Perimeterschutz oder AV-Software. Aber eines hat

: Chancen der Digitalisierung nutzen CodeMeter unterstützt Sie: ■ Schutz und Lizenzierung von Software und Daten ■ Neue Geschäftsmodelle einfach umsetzen ■ Integration in Portale und eCommerce-Lösungen

Bestellen Sie Ihr CodeMeter SDK s.wibu.com/sdk

Neue Herausforderung gesucht? wibu.com/jobs

+49 721 931720 sales@wibu.com

Kontinuität in Produkt und Team, Innovation und Partnerschaft seit 1989


XTRA | Digital Business Security

Analyse der Zugriffsrechte

die Geschichte doch gezeigt: Egal wie groß das Schloss ist, es wird geknackt. Angreifer werden es immer hinter den Perimeter schaffen. Und genau da stellt sich die entscheidende Frage: Was passiert dann? Und hier hilft es unserer Ansicht nach nur, grundsätzlich den Einflussbereich von Nutzern (seien es legitime oder aber böswillige) auf das Nötigste zu beschränken und bei verdächtigem Verhalten entsprechende Gegenmaßnahmen einzuleiten. Gleichzeitig ist es sinnvoll, die Informationssilos der SecurityLösungen aufzubrechen und durch Integrationen den Anwendern ein klareres Bild der Sicherheitslage zu ermöglichen. So verfügen wir etwa über Integrationen mit Splunk, RSA oder QRadar. Durch die neue Varonis-App für QRadar fügen wir Kontext zu ungewöhnlichen Dateiaktivitäten, E-Mails und Active Directory-Verhalten hinzu. Auf diese Weise erhalten Nutzer direkt in IBM QRadar Benachrichtigungen und Warnhinweise und können in der Web-Benutzeroberfläche die entsprechenden Vorfälle weiter untersuchen.

aufzuklären. Selbstverständlich muss hier immer abgewogen werden zwischen dem Interesse der Verhaltensüberwachung, das sich auf einer Auswertung des Verhaltens auf Anomalien begrenzt, und dem Persönlichkeitsrecht. Unsere Datensicherheits-Plattform ist auch kein Überwachungstool, das die individuelle Arbeitsleitung misst. In aller Regel liegen die MonitoringDaten zunächst nur anonymisiert oder pseudonymisiert vor. Erst bei einem Verdachtsfall findet eine Re-Personalisierung statt, und diese ist auch den Berechtigten (also etwa dem oder der Datenschutz-Beauftragten) zugänglich. Herr Ehrlich, wir danken Ihnen sehr für diese interessanten Informationen zum Thema Datenschutz! n

Wie sieht die rechtliche Grundlage zum Betrieb Ihrer Lösung aus? Die DSGVO weist in ihrem Artikel 6 auf ein berechtigtes Interesse des Unternehmens hin, unrechtmäßige Datenabflüsse zu verhindern, frühzeitig zu erkennen, zu verhindern und schließlich

38 | 39

DOK. 6-2018


Promotion

Qualität von Dokumenten in ihrem Lebenszyklus E I NGAN Jeder erlebt die täglich steigende Informations- und Dokumentenflut. Genauso wie die Datenmenge zunimmt, verzeichnet die Qualität einen entsprechenden Schwund.

PDF QUALITY GATE

MANAGE Bearbeitung

PRESERVE

Automatisierung & Verarbeitung innerhalb der ISO Richtlinien und Unternehmensvorgaben

Archivierung

DELIVER

G

Postausgang

TIE

RU

NG

S IGNI ERUNG

NG

Sicherstellen der Authentizität & Integrität für den Dokumentenaustausch

ER

Validierung der DokumentenQualität & Signatur vs. Archivrichtlinien

OPT IMI ERUN

V

ALI DI

ER

U

Manage – Nach der Assemblierung von Dossiers aus verschiedenen Quellen werden diese optimiert für die Weiterverarbeitung.

R

Capture – Eingangsdokumente aus verschiedenen Kanälen werden standardisiert.

Digitalisierung der Eingangspost und Prüfung des elektronischen Posteingangs

ATU

Create – Die intern erstellten Dokumente, welche die eigenen Qualitätsanforderungen nicht erfüllen, werden entsprechend nachgebessert.

Posteingang

PAR

Das PDF Quality Gate von PDF Tools widmet sich diesem Thema. Die Lösung bietet für die verschiedenen Prozessschritte, die ein Dokument durchlaufen kann, entsprechende Funktionalität und Unterstützung an. Eine möglichst hohe Automatisierungen und zentrale Verarbeitung entschärft fehleranfällige Verarbeitungsschritte, stellt das gewünschte Qualitätsniveau sicher und verkürzt die Verarbeitungszeit.

L

NV

Wie sichert man die Qualität geschäftsrelevanter Informationen gesetzes-, unternehmens- und branchenkonform?

OL

KO

Es ist für jedes Unternehmen wünschenswert, dass sich im gesamten Dokumenten-Lebenszyklus „saubere“ Dokumente bewegen.

CAPTURE

TR

RE

Dokumentenaustausch findet intern wie extern statt. Die Qualität von intern generierten Dokumenten zu gewährleisten ist einfacher. Vorausgesetzt die entsprechenden Szenarien sind definiert, geprüft und eingeführt. Doch was passiert mit den Daten, welche von Dritten ins Unternehmen einfließen?

ON

E

Wie sauber sind digital-born Dokumente von internen und externen Applikationen und wo kann der Hund begraben sein, wenn man Dokumente weiterverarbeitet oder in ein elektronisches Langzeitarchiv ablegt? Ist ein via Mail erhaltenes PDF oder PDF/A wirklich eines? Besteht es einen Test auf Konformität und hält den Standard ein?

GSK

Der Einsatz einer bewährten Technik, respektive Software, unterstützt das Vorhaben von Unternehmen die Aufgaben und Anforderungen im Dokumentenprozess zu erfüllen. Ein entsprechendes Werkzeug bietet zahlreiche Möglich­keiten, wie ressourcenschonend(er) zu arbeiten und Mehrwert für Unternehmen, deren Kunden und Partner zu schaffen. Das Thema Compliance liegt nicht mehr so schwer im Magen, die DSGVO kann man intelligent in den Prozessen berücksichtigen, Zertifizierungen durch gezielte Dokumentation schneller erwirken oder bestätigen und Vieles mehr. Bessere Prozesse und mehr Tempo gepaart mit guter Qualität, können einen wichtigen Wettbewerbsvorteil darstellen. Und ein Quality Gate für den Dokumentenprozess kann zu diesem Vorteil beitragen.

Deliver – Dokumente werden für den sicheren Austausch aufbereitet. Sie werden ggf. elektronisch signiert und erhalten einen Zeitstempel. Preserve – Das zu archivierende Dokument wird gegen die Archiv-Richtlinien geprüft. Die Gültigkeit der elektronischen Signatur wird geprüft. Durch die Architektur, welche eine Art „Baukasten“ zur Verfügung stellt, sind Unternehmen in der Lage eine „Assemblage“ der Kontrollinstanzen und Unterstützung zusammenzustellen, die den individuellen und relevanten Bedarf deckt.

PDF Tools AG Kasernenstrasse 1 | 8184 Bachenbülach | Schweiz www.pdf-tools.com pdfsales@pdf-tools.com


XTRA | Digital Business Security

PKI – die Schlüsselfunktion der IT-Sicherheit

#Public-Key-Infrastrukturen, #Quantencomputing, #Blockchain, #Zertifikatsmanagement, #qualifizierte-Signatur

Die Digitalisierung oder das Internet der Dinge sind nur dann erfolgreich, wenn die Identitäten der Kommunikationspartner vertrauenswürdig sind sowie Daten und Informationen sicher ausgetauscht werden können. Mit Public-Key-Infrastrukturen lassen sich digitale Identitäten sicher ausstellen, verwalten und nachweisen. Zudem können elektronische Daten und Informationen verschlüsselt sowie Dokumente mit digitalen Signaturen vor Manipulation geschützt werden.

Anne-Sophie Gógl ist Geschäfts­ führerin des Vereins ‚Sichere Identität Berlin-Brandenburg e.V. (SIDBB). Der Verein ist das zentrale Netzwerk von und für Unternehmen, Hochschulen und Forschungsein­ richtungen, die sich mit Fragen rund um die Sichere Identität in der Hauptstadtregion befassen. Ziel des Vereins ist, Politik, Verwaltung, Wirtschaft, Medien und Gesellschaft stärker für Sichere Identitäten zu sensibilisieren. www.sichere-identitaet-bb.de

Dennoch stellt sich die Frage, vor welchen Herausforderungen Public-Key-Infrastrukturen stehen und welche Zukunftschancen sie im Zeitalter von Quantencomputing und Blockchain noch haben. Denn trotz der großen Nutzenvorteile haben sich PKI-basierte Anwendungen bei zentralen Anwendungen – wie zum Beispiel beim Verschlüsseln von E-Mails oder beim elektronischen Signieren von Dokumenten – in der Breite nicht durchgesetzt. Um jedoch das volle Marktpotenzial auszuschöpfen, müssen sich PKI-Konzepte drei zentralen Herausforderungen stellen: Aufbau und Betrieb effizient durchführen, Produkte und Lösungen einsetzen, die einfach und intuitiv zu bedienen sind sowie Smartphones und Tablets in bereits existierende PKIs integrieren.

PKI-Management ist umfassende Aufgabe Die zentrale Aufgabe einer PKI besteht darin, elektronische Zertifikate auszustellen. Doch damit ist es aber noch lange nicht getan –– Zertifikate „leben“, sie müssen auf Medien wie zum

40 | 41


Beispiel Smartcards oder Software-Token verteilt, zentral verwaltet, nach Ablauf der Gültigkeit erneuert und bei Bedarf für ungültig erklärt werden. All dies erfordert eine Lösung für das Zertifikatsmanagement. „Der Aufwand und die dafür benötigten Ressourcen sind nicht zu unterschätzen. Deshalb ist es sinnvoll, auf skalierbare und flexible Software-Plattformen zurückzugreifen, die auf gültigen Standards basieren, mit denen sich Zertifikate über den gesamten Lebenszyklus verwalten lassen,“ erklärt Bernd Dieckmann, Director Sales der Nexus Group für die DACH-Region. Besonders in großen IT-Umgebungen kommen solche Zertifikatsmanagement-Plattformen zum Einsatz.

dend für den Anwender ist, dass Sicherheit und einfache Bedienung Hand in Hand gehen.“

Public-Key-Infrastrukturen (PKI) können aber nicht nur in Eigenregie, sondern auch mit externer Unterstützung betrieben werden. Das Ausstellen, Verteilen, Verwalten und Prüfen digitaler Zertifikate übernimmt dann eine Zertifizierungsstelle, auch als Vertrauensdiensteanbieter (VDA: früher Trustcenter) bezeichnet. Der VDA agiert als dritte, vertrauenswürdige Instanz zwischen verschiedenen Kommunikationspartnern.

Mobile Endgeräte benötigen Identitätsnachweis

Anwender fordern Sicherheit und einfache Handhabung

Dies ist eine große Herausforderung, weil Smartphones in der Regel keine eingebauten Slots besitzen, um USB-Token oder Smartcards zu nutzen. Hierbei zeigen mobile PKI-Lösungen neue Wege auf. Anwender können durch den Einsatz einer App sicher und bequem auf Internet-Anwendungen, Unternehmensnetzwerke und Cloud-Services zugreifen. Dabei wird die digitale Identität des Anwenders verschlüsselt gespeichert und ist an das Gerät gebunden. Für den Identitätsnachweis lässt sich der Fingerabdrucksensor oder andere biometrische Merkmale wie die Gesichtsgeometrie des Smartphones verwenden.

IT-Lösungen setzen sich erst dann in der Breite durch, wenn sie einfach zu handhaben sind. Peter Rost, Director Business Development and Strategy bei der Rohde & Schwarz Cyber­ security GmbH sieht PKI-Konzepte auf einem guten Weg: „Mit dem zunehmend benutzerfreundlichen Angebot ist die Nachfrage nach PKI-basierten Lösungen gestiegen. Entschei-

Als Beispiel nennt er eine sichere und transparente Festplatten­ verschlüsselung mit PKI-Technologie. Schlüssel und Zertifikate werden dabei im Hintergrund erzeugt und zentral gemanagt, ohne dass der Anwender in seiner Arbeit eingeschränkt ist. Auf die verschlüsselten Speichermedien lässt sich nur dann zugreifen, wenn eine starke Multifaktor-Authentifizierung erfolgt ist, beispielsweise mit einer Smartcard und durch die Eingabe einer PIN.

Smartphones und andere mobile Geräte werden immer häufiger auch im Geschäftsalltag eingesetzt. Dadurch erhöhen sich die Gefahren von Cyberangriffen. Einen wirkungsvollen Schutz bietet die Einbindung mobiler Endgeräte in bestehende PublicKey-Infrastrukturen.

DOK. 6-2018


XTRA | Digital Business Security

PKI schafft mehr Vertrauen in vernetzte Geräte

Haben PKI-Lösungen eine Zukunft? Die vorgestellten PKI-Lösungen zeigen, dass die Herausforderungen erfolgreich zu meistern sind. Doch wie steht es um die Zukunft der Public-Key-Infrastrukturen? Ist ein gut 30 Jahre altes Sicherheitskonzept auch für die zukünftigen Trends und Entwicklungen geeignet? Entschieden wird diese Frage mit Blick auf zentrale Thesen: Voraussichtlich werden PKIs in Zukunft noch stärker an Bedeutung gewinnen, notwendig werden dabei aber neue Standards. Dennoch bleiben PKIs aktuell, obwohl auch die Blockchain neue Möglichkeiten für das Identitätsmanagement bietet. Sie werden dadurch aber nicht abgelöst.

DSGVO, IoT und Fernsignatur steigern Nachfrage Rechtliche Vorgaben zum Informations- und Datenschutz sind ein großer Business-Treiber für die PKI. An erster Stelle steht hier die europäische Datenschutzgrundverordnung (EU-DSGVO). „Die DSGVO verpflichtet Unternehmen, personenbezogene Daten mit technisch-organisatorischen Maßnahmen nach dem ‚Stand der Technik’ zu schützen. Genau diesen ‚Stand der Technik’ bieten PKI-Lösungen“, sagt Dr. Kim Nguyen, Geschäftsführer der D-TRUST GmbH. So werden sich auf PKI-Technologien basierende SSL/TLS-Zertifikate im Internet flächendeckend durchsetzen. SSL/TLS-Zertifikate ermöglichen einen verschlüsselten Datentransfer zwischen dem Computer des Internet-Nutzers und Webseiten. Zudem erhält das Thema ‚E-Mail-Verschlüsselung’ neuen Schwung. Ein großer deutscher Automobilhersteller verlangt bereits von all seinen Lieferanten, E-Mails zu verschlüsseln und zu signieren.

42 | 43

Einer der großen Zukunftstrends ist das Internet der Dinge, in der „intelligente“ Geräte und Maschinen untereinander vernetzt sind und ständig Daten austauschen. Die zunehmende Vernetzung schafft jedoch neue Einfallstore für Cyberangriffe. So stellen Sicherheitsbedenken ganz klar die größte technische Herausforderung für IoT-Projekte dar, wie eine aktuelle Studie der Computerwoche herausfand [1]. „In Public-Key-Infrastrukturen liegt die Zukunft sicherer und gesicherter Geräte. Denn hier kommen die Vorteile von PKI-Lösungen – eine sichere Authentifizierung von Anwendern und Maschinen sowie eine verschlüsselte Datenübertragung – voll zum Tragen. Dadurch können ‚Smart Devices’ sicher elektronisch kommunizieren“, betont Peter Rost von Rohde und Schwarz. Ein gutes Beispiel für diese Aussage ist die Verkehrsvernetzung, auch als V2X (Vehicle-to-everything) bezeichnet. Im Mittelpunkt steht die elektronische Kommunikation zwischen den Akteuren und Komponenten des Straßenverkehrs: Fahrzeug, Straße, Infrastruktur, Netzwerk und Personen. „Bei der Verkehrsvernetzung weist eine Public-Key-Infrastruktur vertrauenswürdige digitale Identitäten nach und sorgt damit für eine sichere Fahrzeugkommunikation“, erläutert Bernd Dieckmann von der Nexus Group. Aktuelle PKI-Plattformen statten die Fahrzeuge bereits ab Werk mit unterschiedlichen Zertifikaten aus. Bernd Dieckmann: „Die Zertifikate können aus der Ferne signiert und aktualisiert werden. Jedes von einem Datensicherheitsproblem betroffene Fahrzeug kann aus dem System ausgeschlossen werden, bis das Problem gelöst und die Vertrauenswürdigkeit wieder hergestellt ist“.

Elektronisch signieren wird einfacher Neue Impulse für die elektronische Signatur gibt die EU-Verordnung über elektronische Identifizierung und Vertrauensdienste (eIDAS), die seit 1. Juli 2016 im gesamten EU-Raum in die Praxis umgesetzt wird. Eine der wichtigsten Neuerungen ist ein vereinfachtes Verfahren für die Signaturerstellung: die sogenannte Fernsignatur. Dabei sind die Mittel zur Signaturerstellung (Zertifikat und Schlüsselkomponenten) nicht auf einer Karte, sondern auf den hochsicheren Servern eines so genannten qualifizierten Vertrauensdiensteanbieters (früher als Trustcenter bezeichnet) aufbewahrt. Der Anwender kann somit die elektronische Unterschrift aus der Ferne auslösen.

DOK. 6-2018


PKI-Technologien agieren „schlanker“ Public-Key-Infrastrukturen können zu einer der zentralen Sicherheitstechnologien im Internet-der-Dinge werden. Doch noch gilt es Hürden zu überwinden. „Viele vernetzte Geräte besitzen nur eingeschränkte Ressourcen, wie eine geringe Rechenleistung, wenig Speicherplatz und wenig Energie. Aktuelle Protokolle, mit denen PKI-Komponenten auf die Geräte verteilt werden, sind demgegenüber zu ressourcenintensiv. Um PKI-Technologie auch für Geräte mit begrenzten Ressourcen nutzen zu können, muss diese ‚schlanker’ werden“, beschreibt Bernd Dieckmann die Herausforderung. An der neuen Generation ressourcenschonender Protokolle für PKI-Anwendungen wird aktuell intensiv gearbeitet. Ein Beispiel dafür ist das CEBOT-Projekt (Certificate Enrollment for Billion of Things). Bernd Dieckmann: „Mit CEBOT können Geräte mit eingeschränkten Ressourcen eine vertrauenswürdige Identität in Form eines signierten digitalen Zertifikats erhalten.“

Verschlüsselungsverfahren müssen sich ständig anpassen In naher Zukunft wird es Computer geben, die schneller, effizienter und leistungsstärker als normale Computer sind. Sie nennen sich Quantencomputer und basieren auf den Gesetzen der Quantenmechanik. Mit ihrer Rechenleistung bedrohen sie die Datenverschlüsselung. Das betrifft auch Public-Key-Infrastrukturen, die ein sogenanntes asymmetrisches Verschlüsselungsverfahren nutzen. Dabei werden ein öffentlicher Schlüssel für das Kodieren der Nachricht und ein privater Schlüssel für das Decodieren eingesetzt. Bisher ist es kaum möglich, aus der Kenntnis des öffentlichen Schlüssels den privaten Schlüssel zu berechnen. Genau dies können die neuen Quantencomputer, denn sie sind um ein Vielfaches schneller als herkömmliche Rechner. „Die gegenwärtig gängige Public-Key-Kryptografie muss durch Verfahren ersetzt oder ergänzt werden, die auch gegen Angriffe mit Quantencomputern abwehren. Deshalb ist die

KANN ICH MIT MEINEM KUNDEN PERSONALISIERT UND INTERAKTIV IN ECHTZEIT KOMMUNIZIEREN? MEINEN UMSATZ STEIGERN UND DEN SERVICE VEREINFACHEN?

WARUM NICHT? ERFAHREN SIE IN DEM CENIT WHITEPAPER UNTER WWW.CENIT.COM/PIV

wie Sie mit einer neuen Art von Videoinhalten einzigartige Videoerlebnisse bereitstellen und die Kundenbindung fördern.


Anzeige

XTRA | Digital Business Security

www.digitusmagazin.de

Entwicklung neuer Standards für PKIAlgorithmen dringend geboten“, so Dr. Kim Nguyen von D-TRUST. An der Entwicklung quantensicherer kryptografischer Algorithmen wird bereits intensiv gearbeitet, erste Ergebnisse sind bereits veröffentlicht. Zusätzlich ist es nach Ansicht von Dr. Nguyen wichtig, PKILösungen so zu gestalten, dass Krypto-Agilität erreicht wird. Krypto-Agilität bedeutet, dass veraltete Verfahren oder Parameter leicht durch neue ersetzt werden können. Dr. Nguyen: „Eine Verschlüsselung ist immer nur ein Zeitschloss, irgendwann kann sie gebrochen werden. Deshalb ist es wichtig, die genutzten Krypto-Verfahren regelmäßig zu prüfen und auch außerplanmäßig auf aktuelle Entwicklungen zu reagieren.“

Blockchain-ID löst PKI-Konzepte nicht ab Nach dem Hype um die Kryptowährungen wird die Blockchain jetzt auch als Lösung für das Identitätsmanagement stark diskutiert. Das Prinzip ist ähnlich wie bei Bitcoin & Co. Alle Einträge, die vorher geprüft und verifiziert wurden, werden an alle aktiven Teilnehmer einer Blockchain verteilt und in deren Registern gespeichert. Kryptografische Verfahren sorgen dafür, dass Änderungen an den Inhalten sofort erkannt werden. Am Ende entsteht eine Art Blockchain-ID. Arno Fiedler von der Technologieberatung Nimbus ist skeptisch, was den Einsatz der Blockchain für das Identitäts­management betrifft: „Die Blockchain-ID ist keine Alternative zu Public-KeyInfrastrukturen. PKIs setzen auf eine ganzheitliche Sicherheitsinfrastruktur, die mit Blockchain-Technologie allein nicht abgedeckt werden kann.“ So ist zum einen die Dateigröße in einer Blockchain-ID stark begrenzt. Zum anderen lässt sich mit einer Blockchain-ID keine echte Willenserklärung abgeben, da für qualifizierte Signaturen überprüfte Vertrauensdienste und

44 | 45

starke Authentisierung erforderlich sind. „Wichtige Datenschutzanforderungen – wie das Recht auf Vergessenwerden - können mit Blockchain-Technologie nicht erfüllt werden. So lassen sich Identitätseinträge, die personenbezogene Daten enthalten, in einer Blockchain nicht mehr löschen. Das ist im Zeitalter der DSGVO nicht akzeptierbar“, weist Arno Fiedler auf ein weiteres Problem hin. Weiterhin führen Blockchains in der Regel zu einem sehr starken Datenwachstum. Denn für jede zusätzliche Information muss ein neuer Block erzeugt und an die Kette angehängt werden. Dies schränkt die Durchsatzraten und die Performanz erheblich ein. Gerade für Systeme und Geräte mit begrenzter Speicher­fähigkeit ist die Blockchain-Technologie nicht gut geeignet. Die BlockchainID kommt darum für Anwendungen mit Millionen von digitalen Identitäten – wie im Internet der Dinge der Normalfall – kaum in Frage.

Fazit Klassische PKI-Verfahren sind und bleiben der zuverlässige Motor der IT-Sicherheit. Die PKI hat in den letzten drei Jahrzehnten bewiesen, dass sie ein ausgereiftes und bewährtes Sicherheitskonzept ist und sich auch neuen Herausforderungen und Entwicklungen erfolgreich anpassen kann. Mit diesen Eigenschaften wird sie auch in Zukunft eine wichtige Rolle beim Schutz digitaler Geschäftsprozesse spielen. n

Referenzen [1] Computerwoche Online vom 17.07.2018: https://www.computerwoche.de/a/sicherheit-ist-die-groesste-iotherausforderung,3332354, abgerufen am 01. September 2018


Managed Services

Managed Services – made for Digital Business.

#Digitale-Geschäftsmodelle, #Cloud, #SaaS, #Kognitive-Technologien, #Künstliche-Intelligenz

Die Digitalisierung bricht mit klassischen Geschäftsmodellen – laut Gartner haben bereits 50 Prozent der Unternehmen ihre Geschäftsmodelle mittels technologischer Lösungen bis Ende 2016 angepasst [1]. Schätzungen zufolge wird sich diese Zahl bis 2019 auf 83 Prozent erhöhen. Um die digitale Transformation erfolgreich umzusetzen, hilft ein Konzept, dessen Ursprünge in die digitale Steinzeit zurückreicht: Managed Services erleben eine neue Blüte und werden die Digitalisierung flächendeckend bestimmen. Das Geschäftsmodell hinter Managed Services wurde in den 1990er Jahren entwickelt. Später wurde es durch weitere spezialisierte Anbieter an kleine und mittlere Unternehmen angepasst. Als Managed Services bezeichnet man IT-Services, die ein externer Betreiber als Dienstleister verantwortet. Der Managed-Services-Provider übernimmt damit die Verantwortung für die Bereitstellung einer definierten Reihe von Dienstleistungen.

Technologien – topaktuell aus der Cloud Die Cloud hat sich in den letzten zehn Jahren als Ort etabliert, wo sicher und unabhängig von Standort, Hardware oder technischem Kenntnisstand Daten in Echtzeit geteilt werden können. Dennoch entschieden sich zu viele Unternehmen für alleinige Cloud, ohne Managed Services. Was vielleicht zuerst kostenbewusst erscheinen mag, kann sich sehr schnell als Eigentor erweisen.

Bartlomej Kluska ist ICT Consulting Director bei Comarch. Comarch ist ein weltweiter Anbieter von IT-Lösungen (ERP, CRM & Marketing, BI, EDI, ECM, ICT, Financials, Cloud-Lösungen u.v.a.) für den Mittelstand, größere Unternehmen, kleine Betriebe, Banken & Versicherungen, Telekommunikation sowie Healthcare. www.comarch.de

Auf den ersten flüchtigen Blick wirken alle modernen CloudSelf-Service-Portale einfach bedienbar, der „Teufel steckt aber im Detail“. Mehrwerte können Unternehmen aber nicht nur aus effizienter Infrastruktur erzeugen, sondern auch aus

DOK. 6-2018


Managed Services

5 VORTEILE DER CLOUD FÜR UNTERNEHMEN

TOP-5-TIPPS ZUR AUSWAHL DES CLOUD-INFRASTRUKTUR-ANBIETERS

Vertrauen Sie auf sichere und zuverlässige IT, während Sie sich aufs Kerngeschäft konzentrieren

Wählen Sie nicht den billigsten Anbieter

Profitieren Sie von neuester innovativer Technologie

Wählen Sie nicht den teuersten Anbieter

Steuern Sie die IT-Kosten, indem Sie die Verwaltung der Ressourcen so berechnen, dass sie von jedem Standort oder Gerät aus über ein dediziertes Cloud-Portal leicht zugänglich sind Nutzen Sie die große Auswahl an Multi-Cloud-Managed-Services Ein einziger Ansprechpartner für alle die IT-Infrastruktur betreffenden Fälle

Nutzen Sie einen europäischen statt einem US-amerikanischen Anbieter Bedenken Sie, dass Cloud mit Managed Services Vorteile bringt Open Source schützt vor Vendor-Lock-In

Cloud-Vorteile für Unternehmen (© Comarch)

optimal konfigurierten Systemen, die von ausgewiesenen Experten implementiert und verwaltet werden. Dies umfasst alle Bereiche, die mit IT-Infrastruktur und der Cloud Berührungspunkte haben: Beratung, Bedarfsanalyse, Planung, Architekturdesign, Fein­konzeption, Projektmanagement, Nachbetreuung, Training, Dokumentation. Kognitive Technologien revolutionieren darüber hinaus zahlreiche Branchen, darunter auch den Handel. Hier breiten sich innovative Einsatzszenarien für Künstliche Intelligenz (KI) über den gesamten Produktzyklus aus, von der Beschaffung über die Waren- und Post-Sales-Kundenbetreuung. Diese KI-Anwendungen können das Kundenerlebnis durch die Bereitstellung hyperpersonalisierter Produktempfehlungen und -angebote, Online-Shopping-Ratgeber, dynamische Preisgestaltung, Echtzeitinformationen und Kundenservice verbessern. Sie sind auch von unschätzbarem Wert für die Optimierung der Unternehmensabläufe, unterstützen die Vorhersage des Kundenverhaltens zur Steigerung von Umsatz und prognostizieren die Nachfrage basierend auf Kaufmustern zur Optimierung von Lagerbeständen und Beständen. AugmentedReality-Anwendungen erleichtern den Wartungstechnikern die

46 | 47

Erkennung und Behebung von Fehlern. Eine automatische Verknüpfung von Daten verringert die manuellen Arbeitsschritte in der Buchhaltung.

Webservices als Innovationsmotor Aufgrund der aktuellen digitalen Technologien erwägen immer mehr Unternehmen den Einsatz Cloud-basierter Plattformen, die neue Transaktionsarten und Kommunikationsprotokolle unterstützen und eine fehlerfreie Verarbeitung der auf Webservices basierenden Daten sicherstellen. Die Umstellung der IT-Infra­struktur auf ein effizienteres, digitales Modell senkt nicht nur deutlich die Wartungskosten, sondern bringt auch die erforderliche Skalierbarkeit für eine globale Geschäftstätigkeit mit sich. Durch die Automatisierung und IT-Implementierung lassen sich Geschäftsprozesse optimieren, wobei die Agilität erhöht und ein wesentlich besseres Nutzungserlebnis für die Kunden geschaffen wird. Mit diesen automatisierten Prozessen in


Anzeige

www.digitusmagazin.de

der Hinterhand arbeiten die Unternehmen schneller, können leichter skalieren und sind in der digitalen Welt wettbewerbsfähiger. Mitarbeiter, die bisher mit einfachen Routineaufgaben beschäftigt waren, können sich nun auf wertvollere Tätigkeiten konzentrieren. In Kombination mit der Automatisierung führt dies zu einer geringeren Rate an menschlichen Fehlern. Umsetzen lässt sich eine Automatisierung u. a. in den Abteilungen Recht, Finanzen, Personal und Kundendienst.

Professionelle Unterstützung durch Managed Services Managed Services, die von spezialisierten Anbietern bereit­ gestellt werden, helfen dabei, diese Umstellung erfolgreich und kostenbewusst umzusetzen. Dienstleister, die Managed Services anbieten, sind darauf ausgerichtet, Unternehmen bei der digitalen Transformation und der Einführung neuer Geschäftsmodelle mit vollintegrierten Support- und Beratungsleistungen zur Seite zu stehen. Sie können ihren Kunden den Weg durch den Änderungsprozess weisen und sie bei der Ausarbeitung einer konkurrenzfähigen Digitalisierungsstrategie unterstützen. Zudem

EDM

stellen sie sicher, dass fortschrittliche, moderne Managed Services für Unternehmen alle Anforderungen einer effektiven Digitalisierung erfüllen. Professionelles Personal eines Service-Providers bringt weiterhin den Vorteil gesteigerter Effizienz mit sich. Man muss das Rad nicht neu erfinden, sondern profitiert von der Erfahrung aus Projekten, die bei anderen Firmen schon erfolgreich zum Abschluss gebracht wurden. Zudem sehen externe Spezialisten mit einem frischen Blick auf bestehende sowie auf geplante Prozesse. Ideen wie der Einsatz von Künstlicher Intelligenz, die früher gar nicht im Bereich des Denkbaren lagen, weil kein Personal im Haus war, können sich auf einmal als die Lösung herausstellen, die das Unternehmen schon länger gesucht hatte.

Externe Beratung beim Wandel zum digitalen Unternehmen Doch wie können externe Anbieter den digitalen Wandel in einem Unternehmen voranbringen? Bei diesem Prozess ständiger Änderungen, Anpassungen sowie Investitionen in

E-MAIL FILESERVER

DATENBANKEN

CRM

ENTERPRISE SEARCH

NEXT GENERATION

Erleben Sie intergator auf unserer Roadshow 2019 | roadshow.intergator.de


Managed Services

Fazit Wissen und Technologie mit dem Ziel, moderne Konsumenten erfolgreich und dauerhaft für Services und Produkte zu gewinnen, geht es nicht nur um die Einführung neuer IT-Geräte und -Tools, sondern vielmehr um eine signifikante Umgestaltung des gesamten Unternehmens – von der IT-Infrastruktur bis hin zu den Services. Für diesen Prozess benötigen Unternehmen eine umfassende Strategie zur digitalen Transformation, die auch ihre Geschäftsperspektive ändert. Noch immer unterhalten viele Firmen veraltete IT-Umgebungen und sind daher nicht in der Lage, den Bedürfnissen der heutigen Geschäftswelt gerecht zu werden. Aus diesem Grund ist ein leistungsfähiger, erfahrener Anbieter mit entsprechendem Fachwissen unerlässlich, der tatkräftig beim Aufbau einer geeigneten Infrastruktur und der Berücksichtigung modernster Technologien wie Künstlicher Intelligenz oder IoT mitwirkt. Allerdings wird eine digitale Umstellung nicht über Nacht erfolgen. Der Dienstleister führt die Migration der Unternehmens-IT auf Cloud-native Anwendungen und eine Cloud-Infrastruktur schrittweise durch.

Für eine erfolgreiche digitale Transformation eines Unternehmens müssen einige Kriterien erfüllt sein. Zunächst einmal muss die Digitalisierung von der obersten Managementebene ausgehen. Des Weiteren ist kontinuierliches Engagement bei entsprechender Koordination und Überwachung von Leistungskennzahlen (KPI) gefragt. Außerdem sind gewisse Investitionen und Maßnahmen, neue Geschäftsmodelle sowie Änderungen der Betriebsfunktionen erforderlich. Darüber hinaus sollte bei der Umsetzung ganzheitlich vorgegangen und es müssen dabei Struktur, Personal- und Technologieressourcen sowie Geschäftsziele berücksichtigt werden. In Anbetracht anderer Technologien, die heute bereits veraltet sind, stellen sich manche Geschäftsführer vielleicht die Frage, ob der Handlungsbedarf aktuell tatsächlich schon gegeben ist. Doch wird der digitale Wandel eines Unternehmens jetzt nicht vorantrieben, wird dieses über kurz oder lang hinter der Konkurrenz zurückbleiben und die Gefahr besteht, dass dieser Rückstand nicht mehr rechtzeitig aufgeholt werden kann. n

Referenzen [1] 2017 CEO Survey: CIOs Must Scale Up Digital Business

48 | 49


Blockchain für E-Invoicing

Blockchain-basierte Finanzprozesse: Werden Rechnungen überflüssig? #E-Invoicing, #Blockchain-as-a-Service, #Künstliche-Intelligenz, Machine-Learning, #Smart-Contracts, #Lieferprozesse

Ob öffentliche Verwaltung, produzierende Industrie oder Finanzwelt: Kaum eine Branche, in der die Hype-Technologie Blockchain und das Thema künstliche Intelligenz nicht potenziell für eine kleine Revolution sorgen könnten. Die Möglich­ keiten, eingefahrene Prozesse zu verändern, um endlich digitaler zu werden, sind riesig. Besonders in der Finanzbranche ist der Einsatz von Blockchain längst keine Zukunftsmusik mehr – die Technologie wird Rechnungsdokumente auf lange Sicht obsolet machen. Das immense Potenzial der Blockchain-Technologie lässt sich – etwas vereinfacht – folgendermaßen zusammenfassen: Bei einer Blockchain handelt es sich um eine gemeinschaftlich genutzte Datenbanktechnologie, die die Akteure einer Transaktion in einer Art digitalem Register direkt miteinander verbindet. Die „Blockkette“ besteht aus aufeinanderfolgenden Transaktionsblöcken. Die Daten der einzelnen Glieder der Kette werden dabei jederzeit dezentral erfasst und in einem digitalen Kassenbuch aufbewahrt. Das Online-Netzwerk, das hierbei entsteht, bildet ein in sich sicheres Gebilde, da eine Transaktion nur dann stattfinden kann, wenn sämtliche Knoten die Transaktion verifizieren. Die Transaktion findet zudem verschlüsselt statt, um ein bisher unerreichtes Maß an Sicherheit gewährleisten zu können. Erst an diesem Punkt fügt sich alles zur Blockkette zusammen und wird in Code umgewandelt.

Transparenz für alle finanziellen Transaktionen

Marcus Laube, Gründer und CEO von crossinx, dem führenden deutschen Anbieter für Financial Business Collaboration und unterstützt über 30.000 Unternehmen bei der Digitalisierung ihrer Finanzund Geschäftsprozesse. Mit einem Abrechnungsvolumen von mehr als 25 Milliarden Euro und über 100 national und international agierenden Mitarbeitern ist das in Frankfurt am Main ansässige Unternehmen ein Vorreiter im B2B-Fintech-Markt. www.crossinx.com

Die Blockchain-Technologie hat einige Vorteile. Zum einen sorgt ihr Einsatz für deutlich mehr Transparenz und mehr Sicherheit. Denn die Technologie funktioniert wie ein digitales Kassen-

DOK. 6-2018


Blockchain für E-Invoicing

buch, und jedes noch so kleine Detail einer Transaktion wird daher dokumentiert und ist für alle Mitglieder des Netzwerks einsehbar. Zum anderen macht der Einsatz von Blockchain zentrale Instanzen komplett überflüssig. Bis dato war für die Verwaltung aller Einzelheiten und Details einer Transaktion ein zentraler Sammelpunkt für diese Daten notwendig, ein sogenanntes Hauptbuch. Dieses Hauptbuch wird nun durch das transparente digitale Daten-Register abgelöst. Weil jede Information, die innerhalb des Registers erfasst wird, verifizierbar ist, entfällt die Notwendigkeit einer zentralen Autorität, um für die Echtheit der Daten zu bürgen. Nicht zuletzt sorgt der Einsatz der Blockchain dafür, dass Informationen fälschungssicher gemacht werden. Wird nun an nur einer Stelle eine Veränderung der Daten vorgenommen, fällt das an anderer Stelle sofort auf: Die Informationen werden simultan von mehreren Rechnern verwaltet und lassen sich so nur sehr schwer manipulieren. Gleichzeitig profitieren alle Beteiligten von einem massiv erhöhten Tempo bei der Abwicklung einer Transaktion.

Smart Contracts revolutionieren Zahlungsprozesse Besonders im Finanzsektor spielt Blockchain eine wichtige Rolle. Ein interessantes Anwendungsbeispiel: Smart Contracts. Dabei handelt es sich um digitale, softwarebasierte Kaufverträge. Diese Verträge basieren auf dem „Wenn-Dann-Prinzip“: Nur wenn die im Vertrag vereinbarten Bedingungen erfüllt werden, werden auch die entsprechenden Aktionen des Vertrags ausgeführt. Die Vertragspartner stehen dabei in direktem Kontakt über die Blockchain, die Anwesenheit einer Vermittler-Instanz ist nicht nötig. Ein mögliches Einsatzszenario von Smart Contracts ist die Rechnungsverarbeitung. Hier kommen diese Verträge zwischen Rechnungssteller und -empfänger zustande. Smart Contracts erkennen, ob die verschickte oder empfangene Zahlungsaufforderung alle rechtlichen und formalen Anforderungen erfüllt und ob alle Daten vollständig und korrekt sind. Nur wenn dem so ist, gibt das System die Rechnung frei und veranlasst automatisch die Zahlung. Sind nicht alle Vertragsbedingungen erfüllt oder es kommt zu Unstimmigkeiten im Zahlungsdokument, wird

50 | 51

so lange keine Zahlung ausgelöst, bis die Fehler behoben, also alle Bedingungen erfüllt sind. Herkunft, Echtheit und Richtigkeit der Dokumente sind quasi garantiert, da Smart Contracts nur sehr schwer manipulierbar sind und Kontrollen entfallen. Smart Contracts können also Zahlungsvorgänge massiv vereinfachen, da die Prozesse automatisiert und rechtliche Anforderungen automatisch überprüft werden. Auf lange Sicht könnte so der Beruf des Buchhalters überflüssig werden. Auch macht die Technologie alle zur Rechnung gehörenden Dokumente für alle Beteiligten transparent. Denn wenn zwischen Sender und Empfänger eine Transaktion stattfindet, entsteht im „Kassenbuch“ ein neuer Eintrag. Das Buch liegt dabei aber nicht manipulierbar in Papierform bei einem Buchhalter, sondern wird in tausendfacher Kopie auf verschiedenen Rechnern weltweit digital abgelegt. Jeder Beteiligte kann so schnell und einfach alle nötigen Informationen einsehen. Über diese unveränderbaren Kopien erfolgt auch die Authentifizierung. Vielleicht gehen die Finanzbehörden auch irgendwann so weit, das klassische Rechnungsdokument an sich komplett abzuschaffen.

Neue Perspektiven für Digitalisierung – dank KI und Machine Learning Smart Contracts sind aber nur ein mögliches Einsatzszenario. Eine digitale Rechnungsverarbeitung, wie sie mittlerweile in einigen Kommunen zum Einsatz kommt, ist erst der Anfang. Besonders Künstliche Intelligenz und ihr Teilbereich, das maschinelle Lernen, sorgen für eine Digitalisierung von Prozessen. Denn Machine Learning und Künstliche Intelligenz lassen sich ebenfalls vielfältig einsetzen. Durch das Erkennen von Mustern in Datensätzen ist ML dazu in der Lage, eigenständig Lösungen für Probleme zu finden. So können intelligente Algorithmen adäquate Lösungskonzepte für IT-Systeme entwickeln. Auf der Basis von Erfahrungen wird beim Machine Learning künstliches Wissen generiert. In Gestalt von Chatbots können ML und KI etwa Serviceanfragen oder Anträge automatisiert bearbeiten, um den Service zu verbessern und für mehr freie Kapazitäten zu sorgen. Aber auch interne Prozesse lassen sich optimieren, so etwa die Verarbeitung von Rechnungen und anderen Dokumenten.


Laut einer Studie des IFEU-Instituts verbrauchen alleine Kommunen 80.000 Tonnen Papier im Jahr [1]. Diese Verschwendung von Geld und Personalressourcen ließe sich vermeiden, indem Dokumente elektronisch verarbeitet würden. Basiert eine technische Lösung auf ML, kann das System Rechnungen und Belege automatisch erfassen, bearbeiten und archivieren. ML-gestützte Rechnungsverarbeitung erkennt dabei zusätzlich etwaige Fehler und korrigiert sie eigenständig. Nunmehr muss nur noch dann von Außen eingegriffen werden, wenn sich Stamm­ daten ändern. Die Buchhaltung wird so weiter vereinfacht und Ressourcen werden frei.

Mehr Transparenz und Nachvollziehbarkeit von Lieferprozessen sind allerdings nur ein erster Schritt. Die Beteiligten wollen künftig das volle Potenzial der Blockchain ausschöpfen. Geplant ist, mit Blockchain-as-a-Service eine automatisierte elektronische Rechnungsstellung kombiniert mit einer Waren- oder Kredit­ finanzierung aufzusetzen. Dabei können die Unternehmen weiter ihre bestehende IT-Infrastruktur wie ERP- und Buchhaltungssysteme nutzen und zeitgleich von den Vorteilen der Blockchain profitieren. Über crossinx und Centrifuge werden die notwendigen Daten in die Blockchain übertragen und alle Parteien für die Finanzierung von Rechnungen in den Prozess eingebunden.

Dokumentenaustausch wird zukunftsfähig

Fazit

Bringt man also KI und ML und Blockchain zusammen, haben die Technologien das Potenzial, die Abwicklung von Zahlungsvorgängen vollkommen zu revolutionieren. Auftragseingang, Bestellbestätigung, Rechnung – innerhalb einer Lieferkette fallen viele Dokumente an. Dies zeigt sich auch an einem Pilotprojekt von crossinx zusammen mit dem Blockchain-Startup Centrifuge und den Chemiekonzernen Evonik und BASF zum Blockchain-basierten Dokumentenaustausch: Künftig können alle beteiligten Unternehmen alle Dokumente in einem dezentralen Netzwerk gesammelt über die Blockchain einsehen. Dabei sind nicht nur alle Dokumente und Informationen zum Transfer einer Ware jederzeit einsehbar, sondern auch der aktuelle Lieferstatus. Alle Beteiligten an der Transaktion mit der entsprechenden Zugangsberechtigung sind dadurch konsequent auf demselben Stand.

Um von KI, ML und Blockchain zu profitieren, müssen Unternehmen dringend digital ‚aufrüsten‘. Dazu braucht es ein technologisches Grundgerüst: Von einem auf den anderen Tag von Papierrechnungen auf Blockchain-Zahlungen umzustellen, ist sicher kein realistisches Szenario. Um hochkomplexe Technologien einzusetzen, muss im Unternehmen bereits ein gewisses Maß digitale Erfahrung und auch die entsprechende Infrastruktur vorhanden sein.

Das Pilotprojekt findet im Rahmen der weltweiten „Network of Network“-Initiative statt. Lieferketten sollen im Rahmen des Projekts effektiver miteinander verbunden werden. Der Ablauf ist denkbar einfach: Sobald vom Kunden eine Ware bestellt wird, kann der Versender die Bestellung in der Blockchain einsehen. Nimmt er dann die Bestellung an, bestätigt er die Bestellung und fügt sie so dem dezentralen Netzwerk hinzu. Ist die Ware produziert und ausgeliefert, wird von crossinx schließlich auch die Rechnung in die Blockchain übertragen. Das Projekt ist zunächst mit zwei Kunden gestartet, das dezentrale Netzwerk soll aber in Zukunft allen Kunden zur Verfügung stehen.

Klassisches E-Invoicing ist der erste Schritt. Sobald dieser gemacht wurde, kann die elektronische Rechnungsverarbeitung die nächste Stufe der Finanzprozessoptimierung einleiten – ML und Blockchain. Der Wille allein, moderne Technologien einzusetzen, reicht allerdings nicht aus, um die Digitalisierung voranzubringen. Dazu müssen alte Strukturen aufgebrochen werden, damit der Weg für neue Geschäftsabläufe frei wird.  n

Referenzen [1] https://www.umweltbundesamt.de/papier-druckerzeugnisse

DOK. 6-2018


Digital Asset Management

DTP per DAM – der Weg „2020“.

#Publishing-Workflows, #Redaktionssysteme, #Layout-Programme, #Medienverwaltung, #Metadaten

Lösungen, die das Desktop-Publishing von Verlagen unterstützen, sind meist sehr komplex, aufwendig und teuer. Doch kann man auch einen anderen Weg gehen: Mit einem flexiblen Medien-Management-System als Basis lassen sich PublishingWorkflows neu ordnen und ein bedarfsgerechtes Redaktionssystem schaffen – mit überschaubarem Aufwand.

Gunter Leonhardt ist Geschäfts­ führer der PEAK-14 GmbH. Mit Sitz in Darmstadt gehört PEAK-14 zur PEAK-Firmengruppe und ist Hersteller des DAM-Systems cavok, das alle Mediendateien in einem Unternehmen organisiert und nutzbar macht. Neben den Anwendungsgebieten eines klassischen DAM-Systems zeichnet sich cavok vor allem dadurch aus, dass es sich tief in andere Programme wie Webshops, Designprogramme oder CMS integrieren lässt. www.cavok.pro

52 | 53

Der ZFV Zahnärztliche Fach-Verlag ist Teil der Dr. Hinz Unternehmensgruppe. Der Verlag ist führender Medienspezialist für diese Facharztgruppe, mit einem großen Angebot an Büchern, Merkblättern sowie Termin- und Patientenberatungssystemen. Es gibt neben verschiedensten Fachbuchreihen auch Periodika: die Wochenzeitung „DZW – Die ZahnarztWoche“ sowie die Zeitschriften „Prophylaxe Impuls“ und „Chance Praxis.

DAM-System ist Teil der Digitalstrategie Die Beschäftigung mit dem Thema einer Bild- bzw. Medien­ verwaltung hatte bei dem Fachverlag schon vor Jahren begonnen. Das System, das damals im Verlag erprobt wurde, konnte die Erwartungen allerdings nicht erfüllen. Es gab also keine aktive Bild- oder Produktdatenbank, als man sich ab Mitte 2016 erneut auf die Suche nach einem DAM-System machte. Allerdings gehörte ein funktionierendes DAM-System als wichtiger Bestandteil zur sogenannten „Strategie 2020“ der Geschäfts­ leitung des ZFV, mit der die diversen Teilunternehmen mit ihren unterschiedlichen Standorten zusammengeführt werden sollten – auch durch ein einheitliches Medienmanagement bzw. Desktop-Publishing.


Anpassungs- und Integrationsfähigkeit gibt den Ausschlag Ab September 2016 begann der Auswahlprozess des DAMSystems, und die Entscheidung fiel auf cavok. Gründe waren vor allem die deutlich abgespeckte und nicht überladene Ober­ fläche, die von Anwendern leicht zu bedienen ist. Als ansprechend wurde auch die Umsetzung der Workflows beurteilt. Eine Besonderheit bei diesem Digital Asset Management besteht zudem darin, dass sich das System tief in andere Software­lösungen wie beispielsweise Designprogramme, Webshops oder Content-Management-Systeme integrieren lässt – die Architektur basiert auf einem SOAP-Server (Simple Object Access Protocol). An diesen bewusst schlanken Kern schließt sich eine Schicht mit quelloffenen Modulen an. Dadurch erhält das System eine Anpassungs- und Integrationsfähigkeit, wie sie kaum eine andere DAM-Lösung bietet.

Zu den Nutzern des DAM-Systems gehören mittlerweile alle Grafiker und Redakteure des Verlags. Sie wurden durch eine intensive Schulung auf das neue System vorbereitet und lernten dabei auch den neuen Workflow mit Adobe InCopy und cavok ausführlich kennen.

Praxistauglich: Neue Workflows mit DAM-System

Zentrales Werkzeug für Layout und Redaktion

Ende Januar 2017 begann die Installation des webbasierten Systems; der ZFV betreibt es inhouse auf eigenen Servern. Anfang Februar 2017 wurden dann die ersten Testobjekte – Fachmagazine des ZFV – eingebunden. Mittlerweile ist alles in cavok gebündelt, nur noch keine Videoformate. Das schließt alle Textformate ein, InDesign- und InCopy-Dateien für die Magazinproduktion, ECMA- und ECML-Dateien, alle Photoshop-Bild­ formate, EPS- und PDF-Dateien ebenso wie XML-Dateien.

Von Anfang war es das Ziel des Verlags, nicht nur ein DAMSystem zur Bildverwaltung zur Verfügung zu haben, sondern gleichzeitig ein Redaktionssystem. Dies wurde durch die Kombination von cavok und InCopy umgesetzt: Das Ergebnis ist so etwas wie ein Miniatur-Redaktionssystem. Zwar leisten dedizierte, teure Publishing-Systeme sicher noch mehr, aber mit der aktuellen Lösung lässt sich schon eine Menge erreichen – bei überschaubarem Aufwand. InCopy ist ein Texteditor-

DOK. 6-2018


Digital Asset Management

Fachpublikation: Desktop-Publishing per DAM-System

Programm, das Adobe eigens zu seinem Layout- und Satzprogramm InDesign anbietet. Der große Vorzug von InCopy ist, dass Redakteure darin punktgenau und zeilenverbindlich in Textfeldern schreiben können. Diesen redaktionellen Workflow bildet der ZFV nun direkt in cavok ab und damit an einer zentralen Stelle. Dadurch spart sich der Verlag viele Formatierungszeiten und Korrekturschleifen. Möglich ist nun ein geschlossenes, sukzessives Abarbeiten der Aufgaben, und die Arbeitsschritte sind jetzt in Teile zerlegbar. Auch eine zeitversetzte bzw. parallele Zusammenarbeit von Textern und Layoutern ist auf diese Weise gegeben. Grafiker können bereits mit dem allerersten Manuskript layouten und dieses bis zur Druckreife abschließen. Die cavok-InDesignIntegration gestattet es auch, ‚auf Vorrat‘ zu arbeiten. So kann beispielsweise schon im Frühjahr eine ganze Strecke für ein Magazin abgeschlossen werden, selbst wenn es erst im Herbst erscheinen soll.

Flexibles Steuerungsinstrument für alle Publikationsprozesse Ein weiterer Vorteil eines zentralen DAM-Systems, das die DTPWorkflows abbildet, ist der Überblick über den Bearbeitungsstatus einer Datei – diesen sieht man in der Nutzeroberfläche auf einen Blick. Diese Funktion ist ein gutes Steuerungsinstrument, denn das System garantiert nicht nur die Kontrolle über den aktuellen Status, sondern darüber hinaus auch über Lizenzen, Versionen und sogar über den Datenschutz, etwa bei personenbezogenen Bildern. Gleichzeitig profitiert das Unternehmen von der aktiven Beteiligung der Mitarbeiter: Nach Einführung hat jede Nutzergruppe

54 | 55

durch neue Ideen zu aussagekräftigen Metadaten beigetragen. So wurden Bildunterschriften eingebracht oder die Namen der bearbeitenden Redakteure zusätzlich in die Metadaten eingefügt. Technisch machbar ist dies, da cavok – anders als traditionelle DAM-Systeme – nicht nur die bekannten Metadatenstandards EXIF, IPTC und XMP beherrscht, sondern auch über ein eigenes, hochflexibles Metadatenmodell verfügt, mit dem Unternehmen alles einrichten können, was sie für betriebs­ interne Abläufe benötigen. Durch einfaches Konfigurieren kann man in dem System vieles selbst umsetzen und sehr schnell anpassen. Sollte dies einmal nicht möglich sein, ist der Support durch den Hersteller schnell verfügbar.

Perspektiven für die Zukunft Nächster Schritt des Verlags ist, auch die Online-Publikationen in das DAM-System anzubinden. Schon jetzt legt der ZFV durch ein medienneutrales Farbmanagement die Grundlage dafür – damit in Zukunft alle Medientypen auch ohne manuelle technische Handgriffe angepasst und auf verschiedensten Kanälen genutzt werden können. Eine weitere Ausbauphase besteht darin, das Unternehmen in der Breite in cavok einzubinden, über alle Standorte und Abteilungen hinweg – beispielsweise auch den Einkauf. Zusätzlich ist für den Handelsbereich eine Produkt- und Bilddatenbank geplant. Denn viele Bilder, die dort verwendet werden, kommen nicht von klassischen Bildagenturen, da der Medizinbereich des Verlags hierfür zu speziell ist.

Fazit Im DTP-Bereich arbeiten Verlage oft mit mächtigen Redaktionssystemen, was hohe Kosten und einen entsprechenden Aufwand nach sich zieht. Möglich ist aber auch ein anderer Weg, wie das Beispiel ZFV zeigt: die Kombination eines DAM-Systems, hier cavok, mit InCopy. Als Einschränkung muss man zwar einen bescheideneren Funktionsumfang in Kauf nehmen. Werden jedoch die bestehenden Möglichkeiten konsequent genutzt, können Redaktions- und Publikationsprozesse effektiv überwacht und gesteuert werden. n


Digital Learning

Digital Learning: Discover the German ‚Wortschatz‘ #E-Learning, #Sprachkurs-App, #Hochschulqualifikation, #Sprachzertifikate

Lehrwerke zum Sprachenlernen zu konzipieren, zu produzieren und auch zu finanzieren, stellt Verlage und Medienunternehmen vor große Herausforderungen. Denn in der Regel gibt es bei den entsprechenden Kursen nicht nur die ‚klassischen‘ gedruckten Lehr- und Arbeitsbücher, sondern auch Audios, Videos oder Apps für Tablet und Smartphone. Bei der Neukonzeption eines Lehrwerks steht aber nicht nur die Frage im Mittelpunkt, welche Inhalte dort aufgenommen werden. Fachlich begründet werden muss auch, welche Lernziele mit welchem Medium am besten erreicht werden können. Wesentlich für einen Verlag ist aber auch ein weiterer Aspekt eines solchen Projekts: Die Produktion der einzelnen Medien muss deren Qualität sicherstellen, aber dennoch möglichst kostengünstig, das heißt automatisiert erfolgen.

Einfach zum Studium Für ausländische Studenten gibt es aktuell ein großes Angebot an Lehrwerken für die deutsche Sprache. Darunter finden sich auch einige Kurse, die sich an eine spezielle Zielgruppe richten, so zum Beispiel das telc Lehrwerk Einfach zum Studium! Deutsch für den Hochschulzugang C1. Ziel dieses Kurses ist, angehende Studenten auf die Hochschulzugangsprüfung vorzubereiten. Das komplette Angebot besteht aus einem Lehrbuch mit zwei Audio-CDs, einem Lehrerhandbuch, dem Prüfungs­training telc Deutsch C1 Hochschule sowie diversen Übungstests. Ein zusätz­liches Angebot des Kurses ist die App telc Deutsch C1 Wortschatz.

Susanne Franz ist Redakteurin beim DOK.magazin und darüber hinaus Lektorin für Sprachlehrwerke. Sie ist freie Mitarbeiterin für die App telc Deutsch C1 Wortschatz. telc steht für The European Language Certificates – die Europäischen Sprachenzertifikate. Die gemeinnützige telc gGmbH gehört zu den führenden Anbietern standardisierter Sprachprüfungen und ist eine hundertprozentige Tochter des Deutschen Volkshochschul-Verbands e. V.

www.telc.net

DOK. 6-2018


Digital Learning

Lesetext und Hördatei mit markierten Wörtern und Wortverbindungen

Zielvorgabe der Hochschulzugangsprüfung ist, dass sich Studenten nicht nur im Land gut verständigen können, sondern auch in der Lage sein sollen, der wissenschaftlichen Diskussion in ihrem Fach zu folgen, sich zu äußern und schriftliche Arbeiten abzu­ fassen. Entsprechende Übungen und Texte auf dem GER-Niveau C1 sind daher Hauptbestandteil der Unterrichtsmaterialien.

Relevanter Wortschatz im Fokus Die Konzeption eines Sprach-Lehrwerks stellt immer die Frage, in welchem Verhältnis die klassischen Komponenten des Fremdsprachenunterrichts, ‚Wortschatz‘ und ‚Grammatik‘, Aufnahme finden. Der telc-Deutschkurs fokussiert sich hier auf die sprachlichen Fertigkeiten und setzt grundlegende Grammatikkenntnisse voraus. Denn zur Vorbereitung auf ein Studium in Deutschland ist eine Kenntnis von spezifischen Redemitteln und des Wortschatzes von besonderer Bedeutung. Die präsentierte Auswahl beruht dabei auf einem Forschungsprojekt zur Identifikation bildungssprachlich relevanter Wortschatzinventare, welches vom Institut für Testforschung und Testentwicklung e. V. in Leipzig [1] durchgeführt wurde. Basierend auf einem Analyse- und einem Vergleichskorpus sowie einer Bedarfsanalyse zu bildungssprachlichen Leseanforderungen internationaler Studierender konnten bildungssprachlich relevante Lexikinventare identifiziert und erfasst werden. Dieser in der Korpusanalyse ermittelte relevante Wortschatz

56 | 57

wurde von den Autorinnen um weitere Ausdrücke und Formulierungen ergänzt, um eine zusätzliche Hilfestellung zu geben. Präsentiert werden sie in einzelnen Themenbereichen, die im Lehrbuch in zwölf Module eingeteilt sind. Diese sind unabhängig voneinander einsetzbar und frei kombinierbar.

Vokabeltraining via App Um Wortschatzlücken gezielt zu schließen und dabei über ein reines ‚Vokabellernen‘ hinauszugehen, wurde die App telc Deutsch C1 Wortschatz als Zusatzangebot zum Lehrbuch entwickelt [2]. Mit ihr können die Lernenden prüfungsrelevante Einzelwörter und Wortverbindungen mit Texten zu Themen rund ums Studium trainieren. Dabei bezieht sich die App auf alle Lese- und Hörtexte aus dem Kursbuch, kann aber auch lehrwerksunabhängig eingesetzt werden, da man alle Hörtexte auf dem Smartphone anhören und der Text dabei mitgelesen werden kann. Mithilfe der App können Definitionen und Beispielsätze zu einem breiten Spektrum an Ausdrücken aufgerufen und so individuelle Wortschatzlücken anhand von sechs verschiedenen


Gezieltes Training von Wortverbindungen

Textanalyse durchgeführt, die die GER-Verteilung der Wörter in den Texten des jeweiligen Moduls lieferte. Für alle markierten Passagen existiert eine Definitionsseite

Übungstypen geschlossen werden. So können die Lernenden besonders herausfordernde feste Verbindungen von Wörtern im Deutschen (z.B. „etwas in den Fokus rücken“ oder „zur Verfügung stehen“) erkennen und diese effektiv üben. Dabei werden die Wörter nicht isoliert abgefragt, sondern immer im Kontext mithilfe von Beispielsätzen erlernt.

Automatische Indizierung des App-Wortschatzes Für die technische Umsetzung der App musste zunächst der relevante Wortschatz der einzelnen Module identifiziert werden. Dieser Arbeitsschritt erfolgte automatisiert: Die Indizierung aller Lesetexte wurde durch das sprachtechnologische Startup L-Pub durchgeführt – die auch die weitere Programmierung der App verantworteten. Die von telc gelieferten Daten – das heißt alle Lese- und Hörtexte des Lehrbuchs – wurden zunächst für die Weiterverarbeitung geprüft, formatiert und entsprechend einer internen Logik strukturiert, modulweise gebündelt und umbenannt. Im Analysetool LLE [3] wurde dann pro Modul eine

Zusätzlich mussten zu jedem Begriff, der in der App anklickbar sein sollte, in der App die entsprechenden Informationen hinterlegt werden: eine deutschsprachige Definition, die Wortart sowie etwaige Plural- oder unregelmäßige Verbformen. Diese Informationen stammten aus DaF-Termbase, einem komplex strukturierten Wörterbuch von L-Pub [4], das die Vielfalt an grammatikalischen Wortphänomenen, die es in der deutschen Sprache gibt, berücksichtigt und das fortlaufend erweitert wird. Das komplette Analyseergebnis wurde anschließend als ExcelDatei aufbereitet.

Manuelle Überarbeitung der Listen Konnte der Wortschatz zunächst automatisiert in einer ExcelListe erfasst werden, musste in einem nächsten Schritt die weitere Bearbeitung und Prüfung wieder manuell erfolgen: Redakteure und Autoren ergänzten die Liste um Mehrwort­ verbindungen, die in den Texten ermittelt und als relevant für die Zielgruppe eingestuft wurden. Im Verlauf des Projektes zeigt sich, dass gerade diese Mehrwortverbindungen sehr zahlreich und gleichzeitig zentral für die angestrebte Lernerkompetenz waren. Die automatisiert erstellten Listen mussten daher um zusätzliche inhaltliche und grammatische Informationen ergänzt werden. Dies beinhaltete auch eine Sichtung der zuvor ausgeklammerten A1-/A2-Wortlisten.

DOK. 6-2018


Digital Learning

Denn bei angehenden Studenten können zwar einzelne Wörter wie beispielsweise „Bein“ und „stehen“ als bekannt vorausgesetzt werden, die Wortverbindung „auf eigenen Beinen stehen“ im Zusammenhang mit der Finanzierung eines Studiums bedarf aber einer zusätzlichen Erläuterung.

Verknüpfung der Wörterbucheinträge in der Datenbank Sobald für alle Modultexte die entsprechenden Wörter­ bucheinträge in der Excel-Liste festgehalten waren, wurde die Annotierung der Texte vorgenommen und die relevanten Wörter in den Texten automatisch mit dem entsprechenden

Wörterbucheintrag verknüpft. Die Informationen wurden dazu in einer Datenbank hinterlegt, in der unter anderem alle Modultexte, Audiodateien zu den Hörtexten sowie alle relevanten Wörter und Mehrwortverbindungen mit dazugehörigen Wörterbuch-Informationen enthalten sind. Außerdem besteht die Datenbank aus zahlreichen internen Verknüpfungen. Diese Verknüpfungen sind nicht nur für die korrekte Text-/Seitenanzeige, sondern auch für die Übungsreihe von Bedeutung: Mittels NLP-Technologien und einem eigens entwickelten „Übungsgenerator“ wurden die möglichen Antworten bei den Multiple-Choice-Fragen zu jeder Mehrwort­ verbindung automatisiert hinterlegt.

Fazit und Perspektive http://www.europaeischer-referenzrahmen.de/ Der Gemeinsame Europäische Referenzrahmen (GER) befasst sich mit der Beurteilung von Fortschritten in den Lernerfol­ gen bezüglich einer Fremdsprache. Ziel ist, die verschiedenen europäischen Sprachzertifikate untereinander vergleichbar zu machen und einen Maßstab für den Erwerb von Sprachkennt­ nissen zu schaffen. Die Niveaustufen des GER umfassen sechs Level: A1 (Anfän­ ger) und A2 (Grundlegende Kenntnisse), B1 (Fortgeschrittene Sprachverwendung) und B2 (Selbständige Sprachverwendung) sowie C1 (Fachkundige Sprachkenntnisse) und C2 (Annähernd muttersprachliche Kenntnisse).

https://www.telc.net/hochschulzugang.html Die Hochschulzugangsprüfung telc Deutsch C1 Hochschule prüft hochschulbezogene Deutschkenntnisse auf weit fortgeschrittenem Niveau. Die Prüfung richtet sich an Erwachsene, die an einer deutschsprachigen Hochschule ein Studium aufnehmen möchten, die bereits studieren oder in einem akademischen Beruf arbeiten und ihre Deutschkenntnisse nachweisen möchten. Die Sprachprüfung telc Deutsch C1 Hochschule ist durch Beschlüsse der Hochschulrektoren- und Kultusministerkonferenz anerkannt.

58 | 59

Um zusätzliche digitale Übungsmöglichkeiten für klassische Sprachlehrwerke anbieten zu können, müssen Verlage auf eine Kombination aus Automatisierung und manueller inhaltlicher Arbeit setzen. So zeigt das Beispiel der App telc Deutsch C1 Wortschatz, dass Arbeitsschritte wie das Indizieren von Texten und das Zuspielen von grammatischen und semantischen Informationen zu Wortschatzkorpora mittels vorhandener Datenbanken heute weitgehend automatisiert erfolgen kann. Um aber die gewünschte Funktionalität und Qualität der App zu erreichen, waren zahlreiche Ergänzungen der automatisierten Wortschatzlisten erforderlich: Viele Mehrwortverbindungen und ihre Definitionen mussten von den Bearbeiterinnen manuell eingefügt und formuliert werden. Entstanden ist ein zusätzlicher Wort-Schatz, der nun nicht nur für die App, sondern auch für weitere Projekte zur Verfügung steht. n

Referenzen [1] www.itt-leipzig.de [2] https://www.telc.net/verlagsprogramm/kurstraegerlizenzpartner/apps/app-telc-deutsch-c1-wortschatz.html [3] https://l-pub.com/2017/03/28/text-analyse-annotierung/?lang=de [4] https://l-pub.com/2017/01/31/dienstleistungen-zur- termbase/?lang=de


Paper to digital: Die E-Akte

Paper to digital: Scannen statt Drucken #Digitalisierung, #E-Akte, #E-Government, #ersetzendes-Scannen, #TR-Resiscan

Spricht man von der digitalen Transformation, denken viele wahrscheinlich erst einmal an einen Roboter im Gespräch mit Kunden, eine Post-Drohne oder eine vollständig autonome Werkshalle. Deutlich weniger Menschen werden vermutlich an die Digitalisierung der Buchführung eines Betriebes denken. Doch auch wenn hier noch keine Roboter zum Einsatz kommen, ist dieser Teil der digitalen Transformation ebenfalls von mehreren Herausforderungen geprägt. Beim Übergang von Dokumenten auf Papier – wie beispielsweise von Steuerunterlagen – zur elektronischen Datei müssen wichtige Details beachtet werden, die sich teilweise entscheidend auf den Gewinn des Unternehmens auswirken können. Denn stellt das Finanzamt bei einer Buchprüfung fest, dass digitale Dokumente nicht gesetzesform vorliegen, kann die Steuererklärung für ungültig und damit der Gewinn geschätzt werden. Letzteres fällt selten zu Gunsten des Betriebes aus.

E-Akte ist – vor allem – ein standardisiertes Format Im Rahmen des seit 2013 geltenden E-Government-Gesetzes (EGovG) oder auch des Gesetzes zur Förderung der elektronischen Verwaltung zur Änderung weiterer Vorschriften müssen Bundesbehörden auf die E-Akte umstellen. Diese gesetzliche Regelung soll zur Digitalisierung von Behörden führen und die elektronische Interaktion mit öffentlichen Stellen erleichtern. So nutzten bereits vor gut einem Jahr etwa ein Drittel der öffentlichen Verwaltung diese elektronische Form. Dabei ist jede Länderverwaltung, jede Kommune, jede Stadt und jede Schule auf unterschiedlichem Niveau.

Wilhelm Gassner, Director International Sales bei PFU (EMEA) Limited – a Fujitsu company. PFU (EMEA) Limited ist ein Tochter­ unternehmen der Fujitsu-Familie, das sich auf InformationsmanagementLösungen spezialisiert hat. Das Portfolio umfasst fortschrittliche Technologien, intelligente Software und Beratungsleistungen, wodurch es zu einem wichtigen Partner für Unternehmen weltweit wurde.

www.fujitsu.com/de/about/local/ corporate/subsidiaries/fel/

DOK. 6-2018


Paper to digital: Die E-Akte

Jedoch sind eingescannte Akten nicht automatisch E-Akten. Damit aus einem Schriftstück ein dokumentensicherer Scan wird ist einiges zu beachten: Die E-Akte ist ein standardisiertes Format, das die rechtliche Konformität von Unterlagen sicherstellen soll. In ihr werden sachlich zusammengehörende Vorgänge sowie verfahrensgleiche Vorgänge gesammelt. Damit sollen alle Unterlagen, die die Bearbeitung eines Sachvorgangs ermöglichen, in einem elektronischen Format enthalten sein. Neben den eingescannten Dokumenten enthält eine E-Akte auch dazugehörige E-Mails oder andere elektronisch erzeugte Dokumente, die beispielsweise als PDF vorliegen können.

technische Richtlinie veröffentlicht. Sie sieht drei grundsätz­ liche Schritte für ordnungsgemäßes und ersetzendes Scannen vor. Letztes, bekannt auch unter der Bezeichnung TR-Resiscan, bedeutet, dass nach der Digitalisierung der Papierakten diese vernichtet oder zurückgegeben werden, falls rechtliche Gründe oder Qualitätssicherung des Übermittlungsvorgangs das Vorhalten der Originale nicht länger erfordern. Diese Praxis ist gesetzlich vorgeschrieben und findet sich in Paragraph 7 des E-Government-Gesetzes.

Definierte Workflows für ersetzendes Scannen Gescannte Unterlagen liegen authentisch und integriert vor Für die Einführung der E-Akte gibt es bislang keine einheitlichen Vorschriften. Die Umsetzung ist jeder Kommune und jeder Körperschaft selbst überlassen. Vorgeschrieben ist allerdings, dass die Akten und Daten authentisch und integriert auf das elektronische Format migriert werden müssen. Das bedeutet, dass weder Bestandteile der Akte weggelassen, noch dass Inhalte verfälscht werden dürfen. Die E-Akten sind außerdem bis zum Ablauf ihrer Aufbewahrungsfrist vorzuhalten – was in elektronischer Form ohnehin praktikabler ist. Ein wichtiger Punkt bei der E-Akte ist der Datenschutz. Die Vorteile der E-Akte gegenüber dem konventionellen Format sind jedoch vielschichtig. So können durch die ITgestützte Indizierung Informationen schneller aufgefunden werden. Außerdem ist ein räumlich unabhängiger Zugriff möglich, der bei herkömmlichen papiergebundenen Unterlagen erst einen zeitraubenden Postweg erfordert. Da Vorgänge heutzutage sowohl in elektronischer als auch in gedruckter Form vorliegen, vermeidet die E-Akte Medienbrüche. Das alles führt dazu, dass Vorgänge schneller abgearbeitet werden können. Außerdem verhilft die Verwendung elektronischer Unterlagen zu mehr Transparenz und einer verbesserten Nachweisführung. Nicht zuletzt kommt sie dem heutigen Arbeitsalltag entgegen und unterstützt die immer flexiblere Arbeitsweise in Behörden und Unternehmen.

Digitalisierung im Rahmen gesetzlicher Vorschriften Für die Umwandlung von Papier- in E-Akten hat das Bundesamt für Sicherheit in der Informationstechnologie (BSI) eine

60 | 61

Zunächst muss eine Strukturanalyse durchgeführt werden. Hierzu gehört die Identifikation der in den Scanprozess eingebundenen IT-Systeme, Anwendungen sowie die für die Übertragung und Verarbeitung genutzten Netze. Anschließend geschieht eine Schutzbedarfsanalyse, die das erforderliche Datenschutzniveau der bereits vorhandenen Papierdokumente ermittelt. Abschließend sind die erforderlichen Sicherheitsmaßnahmen innerhalb einer Sicherheitsanalyse zu erstellen. Um diese Migration organisatorisch effizient umsetzen zu können, müssen Behörden einen Workflow ausarbeiten, wie sie die einzelnen Schritte definieren, um den Wandel zur E-Akte durchzuführen. Aber auch die spätere Verarbeitung, also das Scannen von papiergestützten Akten, das Zusammenfassen der zum Vorgang gehörenden Informationen sowie die Stationen der Bearbeitung, welche Abteilungen und Personen mit der Weiterverarbeitung vertraut sind, müssen vorab festgelegt werden.

Scanner-Ausstattung gemäß den technischen Anforderungen Welche Technologien stehen Unternehmen für die rechtssichere und gleichzeitig effiziente Digitalisierung ihrer Dokumente zur Verfügung? Für diesen Zweck bieten mehr als tausend Independent Software Partner deutschlandweit Kommunen ihre Dienste an. Neben den verschiedenen Softwarelösungen sollten Behörden und Schulen auf die passende Scanner-Technologie setzen. Hier können je nach Workflow und Anwendungsum­ gebung unterschiedliche Varianten zur Wahl stehen. Dabei sind verschiedene Faktoren zu beachten. So sollte die Anzahl der täglich gescannten Blätter bekannt sein. Ein weiterer Punkt – der manchmal etwas aus dem Fokus gerät – ist, die Größe und


vor allem Dicke des zu scannenden Papiers. Da Behörden oft Urkunden, die mit einem Siegel oder umgeklappten Ecken verarbeiten, ist auch dieser Faktor einzubeziehen. Der nächste Punkt betrifft die Anbindung des Scanners. Ist er in einem Netzwerk integriert oder steht er als Arbeitsplatzscanner bereit? Auch interessant ist die Frage nach der Einbindung einer elektronischen Signatur in das digitale Dokument. Diese ersetzt oft eine eigenhändige Unterschrift. Um konform mit TR-Resi­scan zu gehen, benötigt er außerdem eine Zählfunktion, die dafür sorgt, dass die Anzahl der gescannten Seiten mit den Seiten in der digitalisierten Akte übereinstimmt. Diese Prüfung ist in der gesetzlichen Richtline für eine Sicherstellung einer Vollständigkeitsprüfung vorgeschrieben. Anzeige

Besonders effiziente Scanner erkennen mit Ultraschall­sensoren auch den Fall, falls versehentlich mehrere Seiten gleich­ zeitig für den Scanvorgang eingezogen werden. Einem guten Scanner sollte außerdem eine gute Scan-Software beiliegen. Diese sollte neben für die Einbindung in andere Systeme notwendigen Treiber auch Module zur Bildverbesserung und Erfassung enthalten, damit die erfassten grafischen Informationen auch in Daten umgewandelt werden können, die zur Weiterverarbeitung geeignet sind.

www.digitusmagazin.de

Von Vorteil: Dokumentenmanagement und Nutzerprofile Um eine gesetzeskonforme Speicherung zu ermöglichen, sollte der Scanner darüber hinaus an ein Dokumentenmanagementsystem angebunden sein. Dazu benötigt er die entsprechenden Schnittstellen, beispielsweise TWAIN oder ISIS. Bei größeren Scan-Vorgängen empfiehlt sich ferner eine Stapelverarbeitung mit einem automatischen Dokumenteneinzug. Um gezielt Daten automatisiert weiterzuverarbeiten oder Dokumente zu trennen, kann zudem die Möglichkeit interessant sein, Barcodes auszulesen. Nicht zuletzt sollte ein in Behörden und Schulen für die Anfertigung einer E-Akte eingesetzter Scanner unterschied­ liche Nutzerprofile unterstützen. Diese bearbeiten Dokumente entsprechend vorab individuell definierter Workflows. So können Informationen in einem bestimmten Feld automatisch ausgelesen und an einen Verarbeitungsprozess weitergegeben werden. Daher sollte ein Scanner über alle diese Eigenschaften verfügen.

Fazit Die E-Akte ist zwar primär für Behörden und Schulen Vorschrift – jedoch müssen auch Unternehmen und Organisationen mit der Zeit gehen. Zwar können sie in der Zusammenarbeit staatlichen oder kommunalen Stellen ihre Unterlagen noch oft in Papierform einsenden, jedoch dauert die Bearbeitung dann erfahrungsgemäß etwas länger. Im eigenen Interesse sollten sich Unternehmen daher ebenfalls um eine angemessene Lösung zur Digitalisierung ihrer Akten bemühen. Da aufgrund der gesetzlichen Bestimmungen ein einfacher Scan eines Schriftstücks in das PDF-Format nicht ausreicht, sollten sie auch auf die entsprechende Software achten und eventuell über ein Dokumentenmanagementsystem nachdenken. n

DOK. 6-2018


E-Commerce / Kundenbindung

Daten-Á-la-carte

#Multichannel-Kundenbindung, #Datenzentralisierung, #Datenqualität, #Open-Source-Plattform

Daten sind eine wichtige Ressource für Mitarbeiter – und um im Rahmen der digitalen Transformation zu bestehen, müssen darüber hinaus interne Prozesse in den Unternehmen entsprechend angepasst werden. Dies gilt insbesondere für den B2CBereich, der sich mit neuen Geschäftsmodellen vertraut machen muss, um weiterhin erfolgreich am Markt teilzunehmen – und so auch für Office Depot Europe. Der Händler bietet in 14 europäischen Ländern die gesamte Palette der Büromittel an, von Druckerpapier, Schreibgeräten und Flipcharts über Büro­möbel bis hin zu Computern. Heute hat das Unternehmen auf ein hybrides Handelsmodell umgestellt und kombiniert Online- und Offline-Shopping. Otto Neuer, Vice-President Sales, EMEA Central, Talend, (NASDAQ: TLND) einem führenden Anbieter von Cloud- und Big-Data-Integrations-Software, der Unter­nehmen dabei unterstützt, Daten zu einem strategischen Vermögenswert zu machen. Talend ermöglicht organisationsübergreifende Geschäftseinblicke in Echtzeit und bietet Unternehmen durch die offene Integrationsplattform die notwendige Datenagilität.

Im Gegensatz zu vielen traditionellen Unternehmen, die sich dafür entschieden haben, ihr Online-Geschäft als komplett eigenständige Organisation aufzubauen, wählte Office Depot den Weg einer gemischten Online- und Offline-Integration. Auf diese Weise konnte das Unternehmen Rückschlüsse ziehen, warum Kunden in einigen Segmenten verloren gingen, in anderen aber gewonnen wurden. Auch konnte man mögliche Auswirkungen testen, wenn Ausgaben für bestimmte Kanäle erhöht würden. Ziel dieses Vorgehens war, vorausschauender zu arbeiten und verschiedene Hypothesen nachzuprüfen.

www.talend.com

Um dieses Ziel umzusetzen, war jedoch eine Datenkonsoli­ dierung erforderlich, um die verschiedenen Vertriebskanäle zu optimieren. Aus technologischer Sicht bestand die Heraus­

62 | 63

Datenzentralisierung als erster Schritt


forderung darin, dass die Daten bislang in Silos gespeichert und für jeden Einsatzzweck getrennt verwaltet wurden. Eine unternehmensweite Sicht auf Kunden, Abläufe oder Finanzen war somit nicht realisierbar. Um Antworten auf übergreifende Fragen zu erhalten, die verschiedene Abteilungen wie Supply Chain, E-Commerce und Marketing betreffen, mussten Daten aus getrennten Systemen in unterschiedlichen Ländern nun zusammengeführt werden. Nur so war es möglich, eine integrierte Sicht auf Abläufe und Kunden erhalten – und daten­ basierte Entscheidungen zu treffen. In einem ersten Schritt wurde entschieden, alle Daten in die Lösung mit einzubeziehen. Denn alle Daten sind für das Unternehmen wesentlich und helfen dabei, die eigene Marktposition zu steigern. Daher sollten sie über alle Quellsysteme hinweg integriert und validiert werden, bevor sie in einem zentralen Datenspeicher zusammengefasst werden. Innerhalb der Organisation werden die betreffenden Daten dabei aus verschiedenen Kanälen gewonnen: aus Bestellungen aus dem klassischen Print- bzw. Offline-Katalog, aus dem Online-Angebot und den Kunden-Callcentern. Weitere Informationen stammen aus internen Anwendungen, wie beispielsweise Auftragseingangs-, ERP- und Fulfillment-Systeme. Das weitere Vorgehen sah eine dreistufige Datendrehscheibe vor. Dieser Data-Hub sollte einen zentralen Data Lake enthalten. Außerdem waren ein Data Warehouse notwendig, in dem Daten für einen breiteren Einsatz innerhalb der Organisation bereitgestellt werden, sowie ein Daten Mart mit Daten für spezifische Anwendungs-Workloads.

Datenqualität als wesentliche Anforderung Um den richtigen Anbieter für die Integrationsarchitektur zu finden, hat das Unternehmen ein Proof-of-Concept (PoC) ausgearbeitet und eine Bewertungsmatrix erstellt, um die Lösungen von fünf Anbietern zu vergleichen. Über ein Auswahlverfahren entschied sich Office Depot schließlich für Talend: Die Technologien der Plattform ergänzten sich mit den bereits genutzten Lösungen. Ein wichtiges Kriterium war auch die Fähigkeit, durch Funktionen für eine schnelle Codegenerierung die Bereitstellung neuer IT-Lösungen zu beschleunigen. Außerdem unterstützt der Open Source-Charakter der Lösung eine hohe Flexibilität für unterschiedliche Einsatzszenarien. Eine weitere Lösung von Talend unterstützt die Mitarbeiter bei der Qualitätssicherung der Datenbestände, bevor Daten in den zentralen Data Lake aufgenommen werden. Dabei wird ein Datenqualitäts-Framework für alle Daten verwendet, die durch den Data Hub des Unternehmens fließen. Damit wird sichergestellt, dass Mitarbeiter auf jeweils vollständige, präzise und vertrauenswürdige Daten zugreifen, um ihre spezifischen Geschäftsfragen zu beantworten. Denn oberste Maxime ist, den Anwendern komplette, integrierte Datenprodukte zur Verfügung zu stellen, die gleichzeitig absolut vertrauenswürdig sind, wenn sie für prädiktive Analysen und geschäftskritische Entscheidungen verwendet werden.

DOK. 6-2018


E-Commerce / Kundenbindung

Übersicht über Kunden und Finanzen

Fazit

Office Depot erhält durch die Integration von Online- und Offline-Daten eine einheitliche 360-Grad-Sicht auf die Kunden. Mitarbeiter können nun spezifischere Zielgruppensegmente erstellen, die darauf basieren, wie Kunden bevorzugt einkaufen. Außerdem ist es möglich, Strategien zu entwickeln, um die wertvollsten Kunden zu erreichen, egal ob sie online oder im Geschäft einkaufen. Darüber hinaus können die Mitarbeiter nun verschiedene Offline-Kundenerfahrungen vergleichen, um zu sehen, wie diese von digitalen Anzeigen beeinflusst werden.

Mit der neuen Lösung ist Office Depot der digitale Wandel gelungen: von der anwendungsorientierten Organisation hin zu einem potenzialorientierten Unternehmen. Nun kann das Team Kundenbedürfnisse und Risiken im Wettbewerb ermitteln, was zu einer erheblichen Steigerung der Agilität geführt hat. Die Mitarbeiter erhalten darüber hinaus qualifizierte und korrekte Informationen zum richtigen Zeitpunkt. Dadurch können sie – angefangen vom Senior Manager bis zum Business Analyst – qualifizierte Entscheidungen treffen.

Weiterhin haben Service-Mitarbeiter Zugriff auf alle notwendigen Informationen zu Kundenanfragen, wodurch eine individuellere Kundenbetreuung als zuvor möglich wird. Der verwendete Data Hub-Ansatz liefert zudem qualitativ hochwertige Daten für alle Backoffice-Funktionen im gesamten Unternehmen, einschließlich Supply Chain und Finanzen. So lassen sich heute Daten aus verschiedenen Supply-Chain-Systemen integrieren. Damit können die Mitarbeiter beantworten, welches Distributionszentrum aus welchen Gründen die effizienteste Kommissionieranlage betreibt oder welche Niederlassung die geringsten Bestände für die meistverkauften Produkte vorrätig hat.

Das Unternehmen will den eingeschlagenen Weg konsequent weiterverfolgen: Die Pläne umfassen die Implementierung eines Self-Service-Modells für Datenabfragen, sodass Fachanwender auch ohne IT-Experten die gewünschten Informationen ab­rufen können. Zudem soll die Stammdatenverwaltung modernisiert werden, um damit die Data Governance zu verbessern. Als längerfristige Strategie ist eine hybride Cloud-Bereitstellung im Gespräch, damit die Elastizität und Skalierbarkeit der Cloud für bestimmte Workloads genutzt werden können. n

Die verwendeten Finanzsysteme fallen je nach Region unterschiedlich aus. Mit der neuen Systemarchitektur lassen sich diese Lösungen stärker integrieren, um eine standardisierte und präzise Sicht auf die Daten zu erhalten – also eine einheitliche Sicht auf Finanzinformationen, wie sie insbesondere für das Management notwendig ist.

64 | 65


Business Analytics & Stream Processing

Interview | Stream Processing revolutioniert die Datenverarbeitung #Business-Analytics, #Datenanalysen, #Stream-Processing-Framework, #Open-Source

Die meisten Daten entstehen heute als kontinuierliche Streams: Ereignisse, die von IoT-Sensoren erfasst werden, Benutzeraktivitäten auf einer Website oder auch Finanztransaktionen. Vor der Stream-Verarbeitung wurden diese Daten oft in einer Datenbank, einem Dateisystem oder anderen Formen der Massenspeicherung abgelegt. Anwendungen wie beispielsweise für Business Intelligence würden bei Bedarf dann bestimmte Daten abrufen und retrospektiv Berechnungen durchführen. Stream Processing, also die Stream-Verarbeitung, dreht dieses Paradigma um: Die Anwendungslogik, die Analytik und die Abfragen sind kontinuierlich vorhanden – und die Daten fließen auch kontinuierlich durch sie hindurch. Die Stream-Verarbeitung ist definiert durch die Verarbeitung von Daten in Bewegung, d.h. direkt bei ihrer Generierung oder Bereitstellung. Die Analyse von Datenströmen im großen Stil war bisher jedoch schwierig. Stream Processing hat sich mittlerweile weiterentwickelt, um eine Vielzahl von analytischen und transaktionalen Anwendungen zu unterstützen. Mit zunehmender Reife der Technologie kommen immer mehr Anwendungsfälle hinzu.

Präzise Analyse-Applikationen im Vordergrund Während in der Anfangszeit Stream-Prozessoren zur Berechnung ungefährer aggregierter Werte verwendet wurden, lassen sich heute bereits präzise Analyse-Applikationen betreiben und komplexe Geschäftslogik in Hochdurchsatz-Streams bewerten. Einer der wichtigsten Aspekte der Stream-Verarbeitung ist die Zustandsbehandlung, also die „Erinnerung“ an vergangene Eingaben und deren Verwendung, um die Verarbeitung zukünftiger Eingaben zu beeinflussen.

Interview mit Stephan Ewen, CTO und Mitbegründer von data Artisans. data Artisans bietet Echtzeit-Datenstromverarbeitung für Unternehmen und überbrückt die Trennung zwischen kontinuierlich produzierten Daten und traditioneller Verarbeitung statischer Daten. Die Gründer von data Artisans sind die ursprünglichen Entwickler des Open Source Projektes Apache Flink™, das weithin für sein rasches Community Wachstum und seine Akzeptanz in der Industrie bekannt ist. www.data-artisans.com

DOK. 6-2018


E-Commerce / Kundenbindung

Beim Empfangen eines Ereignisses aus dem Stream reagiert eine Stream-Processing-Anwendung unmittelbar darauf: Sie kann eine Aktion auslösen, ein Aggregat oder eine andere Statistik aktualisieren oder sich dieses Ereignis als zukünftige Referenz „merken“. Streaming-Berechnungen können auch mehrere Datenströme gemeinsam verarbeiten, und jede Berechnung über den Ereignisdatenstrom kann andere Ereignisdatenströme erzeugen. Die Systeme, die die Datenströme empfangen und senden und die Anwendungs- oder Analyselogik ausführen, werden als Stream-Prozessoren bezeichnet. Die Hauptaufgabe eines Stream-Prozessors besteht darin, sicherzustellen, dass der Datenfluss und die Berechnungsskalen effizient und fehler­tolerant sind. Ein aktuelles Beispiel ist Apache Flink, ein Stream-Processing-Framework aus dem Open-Source-Umfeld. Entwickelt wurde Flink als Distributed-Data-Prozessor, um zustandsorientierte Berechnungen über Datenströme auszuführen. Flink ist extrem genau in der Datenaufnahme, schnell wieder einsatzfähig nach Ausfällen, während der bisherige Zustand erhalten bleibt, und ist hochgradig skalierbar.

Garantien für Transaktionen auf mehreren Schlüsseln und Tabellen Um zu verstehen, was heutige Stream-Processing-Technologie leistet, hilft ein Blick auf die Geschichte der Stream-Verarbeitung. Dabei lassen sich drei verschiedene Phasen unterscheiden: Distributed Stream Processing für die Datenanalyse: „Mindestens einmal garantiert“ Die ersten verteilten Stream-Prozessoren, die in den Mainstream eintraten, zielten auf analytische Anwendungen ab und boten

Stream-Processing-Infrastruktur

66 | 67

die Möglichkeit, Daten ungenau, aber in Echtzeit zu analysieren, während die präzise Analyse im Hintergrund stattfand. Dies wurde damals als „Lambda-Architektur“ bezeichnet, bei der ein Stream-Prozessor ungenaue Ergebnisse bei der Ankunft der Daten lieferte und ein Batch-Prozessor die richtige Antwort in stündlichen oder täglichen Chargen generierte. Diese Art von Garantie wird in der Stream-Processing-Nomenklatur „At least once processing“ genannt. Dies sind die schwächsten Korrektheitsgarantien von Stream-Processing-Systemen und waren der erste Schritt der sich weiterentwickelnden Stream-ProcessingTechnologie. Distributed Stream Processing für Single-Key-Anwendungen: „Exakt einmal garantiert“ Apache Flink war Vorreiter bei der Einführung einer echten zustandsorientierten Stream-Verarbeitung mit genau einmaligen Garantien, für Anwendungen in größerem Maßstab. Dies ermöglichte es, eine bestimmte Klasse von Anwendungen, sowohl analytischer als auch transaktiver Art, mit Hilfe dieser Stream-Processing-Technologie mit hoher Korrektheitsgarantie zu realisieren. Dadurch war der Einsatz von Lambda-Architektur und Batch-Prozessoren für eine bestimmte Anwendungsklasse nicht mehr erforderlich. Der Haken dabei war immer die „besondere Klasse von Anwendungen“. Heute bieten viele auf dem Markt erhältliche Stream-Prozessoren starke Konsistenzgarantien, jedoch nur für Anwendungen, die jeweils nur einen Schlüssel aktualisieren. Dies bedeutet beispielsweise, dass eine Anwendung, die den Saldo eines einzelnen Bankkontos aktualisiert, heute mit Stream Processing korrekt implementiert werden kann. Eine Anwendung, die Geld von einem Bankkonto auf ein anderes über­­weist, wäre jedoch schwer zu implementieren, wenn sie starke Konsistenzgarantien bieten soll.


Stream-Verarbeitung mit flexibler Architektur

Distributed Stream Processing für allgemeine Anwendungen: „ACID-Garantien“ Mit der Einführung von Streaming Ledger als Teil der data Artisans Plattform lassen sich nun Anwendungen erstellen, die mehrere Zeilen und mehrere Tabellen mit ACID-Garantien (Atomicity, Consistency, Isolation, Durability) lesen und aktualisieren. Dies sind die stärksten Garantien, die von den meisten, aber nicht allen relationalen Datenbanken geboten werden. Streaming Ledger bietet diese Garantien bei gleichzeitiger Beibehaltung der vollen Scale-Out-Funktionalität der „Exactly once“-Stream-Verarbeitung, ohne die Geschwindigkeit, Leistung, Skalierbarkeit oder Verfügbarkeit der Anwendung zu beeinträchtigen. „Exactly once“-Garantien, wie sie von Flink angeboten werden, ähneln verteilten Schlüssel-/Wert-Speichern, welche die Konsistenz für Single-Key-Operationen bieten. data Artisans Streaming Ledger bietet ACID-Garantien, welche Transaktionen ermög­lichen, die auf mehreren Schlüsseln und Tabellen gleichzeitig laufen. Dies dürfte der nächste evolutionäre Schritt in der Stream-Verarbeitung sein, der die Tür für ein viel breiteres Spektrum von Anwendungen öffnet, die mit einer skalierbaren und flexiblen Streaming-Architektur implementiert werden können.

Hinausgehen über die „Exactly-Once“-Semantik data Artisans Streaming Ledger baut auf Apache Flink auf und bietet die Möglichkeit, serialisierbare Transaktionen aus mehreren Streams über gemeinsame Tabellen und mehrere Zeilen jeder Tabelle durchzuführen. Dies kann als das Äquivalent für das Daten-Streaming von mehrzeiligen Transaktionen auf einem Schlüssel-/Wert-Speicher oder sogar auf mehreren Schlüssel-/Wert-Speichern betrachtet werden. Streaming Ledger verwendet den Status von Flink, um Tabellen zu speichern, so dass kein zusätzlicher Speicher oder keine zusätzliche Systemkonfiguration erforderlich ist. Die Bausteine der Streaming-LedgerAnwendungen bestehen aus Tabellen, Transaktionsereignisströmen, Transaktionsfunktionen und optionalen Ergebnisströmen. data Artisans Streaming Ledger eröffnet somit den Weg zur Stream-Verarbeitung für eine völlig neue Klasse von Anwendungen, die bisher auf relationalen Datenbankmanagementsystemen basierten. Für datenintensive Echtzeitanwendungen wie Betrugserkennung, maschinelles Lernen und EchtzeitHandelspreise ist nun mühelos ein Upgrade auf die StreamingÄra möglich.

DOK. 6-2018


E-Commerce / Kundenbindung

„Ein revolutionärer Ansatz der Datenverarbeitung“ Stream-Verarbeitung beruht heute auf entscheidenden technologischen Fortschritten, die die Datenverarbeitung nicht nur schneller machen, sondern auch die Optionen für ihren Einsatz signifikant erweitern. Um diese Entwicklung deutlich zu machen, sprach das DOK.magazin mit Stephan Ewen, dem CTO und Mitbegründer von data Artisans. Zudem war er von Anfang an an der Entwicklung von Apache Flink™ beteiligt.

Finanztransaktionen, Website-Verhalten oder Daten von IoTSensoren – mit sehr geringer Verzögerung verarbeitet werden. Moderne Unternehmen können davon profitieren, weil sie in der Lage sind, unmittelbar auf diese Ereignisse zu reagieren, sobald sie generiert werden, also, wenn sie am kritischsten sind. Diese Art der Datenverarbeitung wird in Zukunft immer wichtiger werden. Unternehmen verwenden heute bereits Apache Flink, um geschäftskritische Anwendungen wie Echtzeitanalysen, maschinelles Lernen, Such- und Content-Ranking sowie Betrugs­ erkennung zu betreiben. Anwendungsfälle im Finanzdienstleistungssektor sind beispielsweise Stammdatenmanagement, Kapitalrisikomanagement sowie Echtzeit-Empfehlungen im E-Commerce. In diese Richtung wird es auch weitergehen und es werden sicherlich spannende weitere Anwendungen hin­ zukommen. Welche Herausforderungen sehen Sie bei der Weiterentwicklung von Apache Flink?

Stephan Ewen

Herr Ewen, was hat Sie bei der Entwicklung von Apache Flink als Technologie für Stream Processing angetrieben? Die Stream-Verarbeitung unterscheidet sich von den bisher verwendeten Technologien, da sie Daten direkt zum Zeitpunkt der Generierung verarbeitet. Klassische Datenbanken, im Vergleich dazu, basieren auf dem Ansatz, dass Daten zunächst abgespeichert werden müssen bevor Unternehmen rück­ blickend Einblicke durch Geschäftsanalysen gewinnen und entsprechende Maßnahmen ergreifen können. Diesen revolutionären neuen Ansatz der Datenverarbeitung für den Praxiseinsatz zu optimieren war das Ziel und der Antrieb hinter der Entwicklung von Apache Flink, was sich auch ausgezahlt hat. Apache Flink weist die am schnellsten wachsende Akzeptanz unter vielen anderen Open-Source-Projekten auf. Immer mehr Anwendungen, die die Vorteile des Frameworks nutzen, tragen zu einer sich ständig erweiternden Landschaft bei. Welche wirtschaftlichen und technologischen Trends prägen die Zukunft von Stream Processing? Die Stream-Verarbeitung ist ein neues Paradigma in der Datenverarbeitung, bei dem kontinuierlich Ereignisse – wie etwa

68 | 69

Wir möchten den Umgang mit verschiedenen Datenquellen, seien es Echtzeit- oder historische Daten, so einfach wie möglich gestalten. Hierzu soll die Verarbeitung verschiedener Datenquellen und Datenformate aus demselben System möglich werden, unter Beibehaltung der bestehenden Garantien und Semantiken. Wo wird Stream Processing und wo wird Apache Flink in drei bis vier Jahren stehen? Wie auf der Flink Forward Berlin vorgestellt, wird die Apache Flink Community in den nächsten Jahren das Framework in Bezug auf Interoperabilität, Unterstützung für SQL auf Datenströmen, Skalierung und Robustheit weiterentwickeln. Im Detail plant die Community, Elemente zu implementieren, die die Skalierung unterstützen, wie automatische Skalierung und lokale Wiederherstellung. Ziel ist es, in den kommenden Jahren die Nutzergruppe von Apache Flink um Anwender mit SQL-Kenntnissen zu vergrößern und den Implementierungs­ aufwand für viele häufige Anwendungsfälle zu reduzieren. Herr Ewen, wir danken Ihnen für dieses Gespräch und wünschen viel Erfolg bei Ihrem Vorhaben.

n


Edge Computing

Edge Computing Daten – Out of the ‚Box‘! #Edge-Datacenter, #E-Commerce, #Smart-Retail, #Logistik, #Shopping-4.0

Häufig werden Szenarien aus Industrie-4.0-Umgebungen als Treiber dafür genannt, warum Unternehmen ihre IT modernisieren. Es finden sich auch Beispiele aus anderen Branchen, wie dem stationären Einzelhandel. Hier geht es darum, die Informationsverarbeitung vom zentralen Rechenzentrum an den POS (Point-of-Sale) zu verlagern und damit dem Kunden neue Dienstleistungen anzubieten. Denn: Für viele Käufer hat das Erlebnis einen höheren Stellenwert als Preis und Produkte. Funktionen wie eine Instore-Navigation über das Smartphone, mobile Payment-Verfahren und Self-Checkout-Kassen erhöhen die Markenbindung und verkürzen die Warteschlangen an den Kassen. Grundlage dafür sind leistungsfähige Rechenzentren direkt vor Ort in den Filialen.

Stationärer Handel ist angewiesen auf Daten Mit der zusätzlichen Rechenleistung gelingt es stationären Händlern, Daten rund um das Kundenverhalten und die Warenwirtschaft schneller auszuwerten. Beispielsweise könnte ein Händler den Abverkauf in seinen bundesweiten Filialen mit Meinungsanalysen aus Social-Media-Plattformen abgleichen, um so neue Trends zu identifizieren. Oder es werden Kunden – falls sie zuvor zugestimmt haben – beim Betreten eines Ladengeschäfts über ihr Smartphone identifiziert und mit persönlichen Angeboten begrüßt. Auch dafür ist eine IT notwendig, die in Echtzeit reagiert und auf große Datenbestände zugreifen kann.

Bernd Hanstein, Hauptabteilungs­ leiter Produktmanagement IT, Rittal, einem weltweit führenden System­ anbieter für Schaltschränke, Stromverteilung, Klimatisierung, IT-Infrastruktur sowie Software & Service. Systemlösungen von Rittal sind in über 90 Prozent aller Branchen weltweit zu finden. Mit 9.300 Mitarbeitern und 58 Tochter­ gesellschaften ist Rittal global präsent. www.rittal.de

Generell ermöglichen Edge Datacenter die Auswertung von allen Kundendaten und helfen so dabei, den Abverkauf zu optimieren. Geografisch verteilte Filialen werden über die Edge

DOK. 6-2018


Edge Computing

Datacenter intelligent mit regionalen Lagern und einem zentralen Datacenter vernetzt, mit dem Ziel, die Warenverfügbarkeit am Point of Sales (POS) zu optimieren. So kann der Einzelhandel vor Ort durch ein intelligent vernetztes Edge Computing die Verfügbarkeit der Produkte steigern, die Logistik optimieren und Kundenpräferenzen nutzen, um beispielsweise die Warenpräsentation am POS regelmäßig zu optimieren. Die ständige und schnelle Verfügbarkeit der erhobenen Daten durch Edge Computing ermöglicht die bessere Steuerung des Kunden­ verhaltens – falls notwendig, kann dies sogar täglich basierend auf aktuellen Daten erfolgen. Durch die zusätzliche Rechenleistung und einem Tracking von Lagerbeständen in Echtzeit können Händler auch ihr Liefer­ kettenmanagement optimieren. Langzeitanalysen helfen dabei, Muster im Abverkauf zu erkennen und so Engpässe bei bestimmten Produkten rechtzeitig vorherzusehen. Ohne solche vorausschauenden Analysen droht die Gefahr, Kunden zu verlieren, die aufgrund der fehlenden Ware bei der Konkurrenz einkaufen.

Vernetzte IT-Infrastruktur am POS Für das Tracking von Waren und Kunden installieren Händler vernetzte Sensoren oder analysieren mit Kameras die Bewegungsmuster. So entsteht ein Internet der Dinge, das mit einer großen Zahl an Sensoren und Datenquellen einen kontinuier­ lichen

Datenstrom erzeugt. Handelsketten nutzen beispielsweise Sensoren, um zu erkennen, an welchen Positionen im Regal sich welche Produkte am besten verkaufen. Damit verbunden wird auch die Lieferkette optimiert bis hin zu dem Punkt, an dem ein Shop automatisiert neue Waren nachbestellt. Mit Edge-Rechenzentren bauen künftig immer mehr Unter­ nehmen die benötigte IT-Infrastruktur am POS aus: Branchenübergreifend gehen Marktanalysten von IDC davon aus, dass im Jahr 2019 bereits 40 Prozent der Daten aus dem Internet der Dinge von Edge-IT-Systemen verarbeitet und analysiert werden könnten.

Edge-Datacenter mit unterschiedlichen Aufgaben Ein Edge-Rechenzentrum ist so konzipiert, dass Unternehmen dies über vorkonfigurierte, standardisierte Module an die benötigte Leistungsfähigkeit anpassen können. Module für Klimatisierung und Stromversorgung sowie stabile IT-Racks und Sicherheitskomponenten sind bereits aufeinander abgestimmt. Dies ist gerade an Standorten wichtig, die nicht über ein spezielles Sicherheitskonzept auf Gebäudeebene verfügen, also wie Zugangskontrollen oder Schleusen. Kommen am Standort noch Faktoren wie Staub, Feuchte oder Schmutz hinzu, weil beispielsweise eine industrielle Produktion stattfindet, sollten IT-Schränke über eine hohe Schutzklasse wie IP 55 verfügen. Je nach Anforderung und Einsatzgebiet gibt es ganz unterschiedliche Leistungsklassen von Edge-Systemen. Diese übernehmen beispielsweise als Edge Gateway Aufgaben zur Datenkonsolidierung direkt vor Ort und initiieren anschließend den Transfer in nachgelagerte Cloud-Rechenzentren. Aber auch erste Auswertungen nahe an der Datenquelle sind damit möglich. Kleinere Systeme für den Einzelhandel übernehmen zum Beispiel die erste Aggregation von Sensordaten in einem Kaufhaus, einem Supermarkt oder einem Shopping-Center. Es sind aber auch Edge Datacenter verfügbar, die als leistungsstarkes Rechenzentrum die Compute-Leistung an dem jeweiligen Standort er­heblich steigern. Dies kann notwendig werden, wenn Händler ihren Kunden aufwändige Produktpräsentationen auf Basis von Virtual und Augmented Reality anbieten möchten.

Stabilität und Sicherheit bestimmen technologische Ausführung

Schlüsselfertige Lösung: Edge Data Center für Smart Retail (© Rittal)

70 | 71

Die technologische Ausführung dieser Edge-Varianten kann dabei ganz unterschiedlich ausfallen. Beispielsweise als einfacher Technikschrank oder auf Basis eines speziell gesicherten IT-Racks, das mit einer zusätzlichen Schutzhülle umgeben ist. Wer mehr Leistung benötigt, realisiert ein leistungsstarkes


Weiterhin sollte der Betrieb von Edge-Systemen automatisiert und weitgehend wartungsfrei erfolgen, um die laufenden Kosten zu verringern. Dafür ist ein umfassendes Monitoring notwendig, das die Stromversorgung, die Kühlung sowie eine Branderkennung und -löschung umfasst. Welche Schutzklasse für den physikalischen Schutz letztlich notwendig ist, entscheiden Faktoren wie der Standort oder die benötigte Ausfallsicherheit. Darüber hinaus ist es wichtig, ein Monitoring zu verwenden, das die Überwachung von Gehäuse- bzw. Rack-Türen ebenso umfasst wie von Seitenwänden. Elektronische Türschlösser erleichtern zudem die Auswertung, wann welche Mitarbeiter Zugriff auf die IT hatten. Bei einer Fernwartung oder Notfällen kann es notwendig sein, das System komplett herunterzufahren und dafür auch die Stromversorgung zu unterbrechen. Hierfür werden schaltbare PDUs (Power Distribution Unit) benötigt.

Sicherer Standort: Schlüsselfertige Datacenter-Container

Edge Datacenter auf Basis eines modularen RechenzentrumsContainer mit wetterfester- und feuerfester Ummantelung. Eine solche Lösung wird in direkter Nähe der Datenerzeugung innerhalb oder außerhalb von Gebäuden aufgestellt und unterstützt bei entsprechender Kühltechnologie eine Leistung von bis zu 35 kW pro IT-Rack. Zu den generellen Vorteilen von IT-Containern zählen die Stabilität und Sicherheit durch die Verwendung von Stahl­ wänden sowie die hohe Mobilität der Lösung, die es erlaubt, leistungsfähige Rechenzentren sehr flexibel auf dem Firmen­ gelände oder innerhalb von Lagerhallen aufzustellen.

Bedarfsgerechte Konfiguration für alle IT-Szenarien Wer Rechenleistung über Edge-Systeme vor Ort installieren möchte, sollte zunächst festlegen, welche Geschäftsziele damit verfolgt werden. Davon abgeleitet definieren Fach- und ITExperten die benötigten Software-Anwendungen. Basierend auf diesem Anforderungskatalog ist es möglich, die Konfiguration eines Edge Datacenters zu bestimmen. Eine Reihe von Kriterien sind hierbei zu beachten: So müssen Edge-Systeme schnell und unkompliziert einsetzbar sein, damit sich die Anforderungen aus den Fachbereichen zeitnah umsetzen lassen. Ideal ist ein Komplettsystem, das der Hersteller fertig montiert übergibt, das im Plug&Play-Verfahren an Energieversorgung und Netzwerktechnik angeschlossen wird und bei dem die Kühltechnik bereits implementiert ist.

Für höchste Sicherheitsansprüche lässt sich ein Edge Datacenter in einer Raum-in-Raum-Umgebung errichten: Eine solche Sicherheitszelle bietet höchsten Schutz bei Bränden und bei starker Verschmutzung der Umgebung. Außerdem ist im OutdoorBereich darauf zu achten, dass die Schutzklasse einen sicheren IT-Betrieb in einem breiten Temperaturfenster unterstützt, beispielsweise von -20 °C bis +45 °C.

Fazit Edge Datacenter sind dezentrale IT-Systeme, die Rechenleistung direkt an den Ort der Datenerzeugung bringen. Sie stehen in unmittelbarer Nähe der Datenquellen und unterstützen damit schnellste Daten-Erstverarbeitung. Darüber hinaus sind sie mit Cloud-Rechenzentren verbunden, da dort eine nachgelagerte Verarbeitung stattfindet. Software-Anwendungen in angeschlossenen Rechenzentren nutzen schließlich diese hochaktuellen Daten, um rechenintensive Analysen durchzuführen. Für die vielfältigen Anforderungen an Edge Datacenter haben Anbieter wie Rittal ein modulares Konzept entwickelt. Ähnlich wie in einem Baukastensystem, können Unternehmen eine für sie geeignete Lösung zusammenstellen. Bei der Lösungsfindung verfolgt das Unternehmen einen ganzheitlichen Ansatz: Über Partnerschaften mit Unternehmen wie ABB, HPE, IBM sowie dem deutschen Cloud-Anbieter iNNOVO erhalten Kunden alle benötigten Leistungen aus einer Hand. Das Ergebnis ist eine vordefinierte, standardisierte Edge-Komplettlösung, die optional mit aktiven IT-Komponenten und As-a-Service-Leistungen ergänzt und schlüsselfertig geliefert wird. Damit ausgestattet, ist auch der Handel in der Lage, stets aktuelle Daten zur Optimierung der Customer Journey zu verwenden und damit die Kundenbindung dauerhaft zu sichern. n

DOK. 6-2018


Veranstaltungen

Digital:Relaunch Konferenz 2019 11. und 12. Februar 2019, Berlin

Digitalisierung umsetzen. Strategie: Work : Business : Marketing :Bei der Digital:Relaunch dreht sich alles um praxisorientierte Lösungen und Best Cases rund um die Digitale Transformation von Arbeitswelt, Business und Marketing. Tauschen Sie sich mit Experten und anderen Besuchern aus und genießen Sie die After-Show-Party.

innovative Employer Branding-Kampagnen und Recruiting digitale High Potentials im War for Talents für sich gewinnen – durch Visionary-Keynotes, Fachvorträge und Lessons Learned sowie, last but not least, eine HR-Spotlight-Session, in der die Teil­ nehmer sich zu aktuellen HR-Trends, State-of-the-Art-Projekten und Fallbeispielen beraten und diskutieren können. https://hr-konferenz-medien.de/

www.infopark.com/de/relaunch

IT & Information Management 25. und 26. März 2019, Berlin

8. German CRM Forum

26. und 27. Februar 2019, München Ob Digital, Omnichannel oder Customer Experience – der neue Kunde und die neue Kundin bestimmen die Handlungsfelder im CRM. Die Trends im Kundenmanagement und Beziehungsmarketing bieten große Chancen, beinhalten auf der anderen Seite aber auch beachtliche Herausforderungen. Mit 300 Teilnehmenden ist das German CRM forum seit Jahren die größte CRM-Konferenz im deutschsprachigen Raum und damit der relevanteste Treffpunkt für CRM-Verantwortliche. Das 8. German CRM forum findet unter dem Motto „Make your Customers smile!“ wieder in München statt. Internationale Keynote-Vorträge, 20 Best Practice Beispiele sowie exzellente Networking-Möglichkeiten werden das forum für Kundenmanagement und Beziehungsmarketing auch 2018 prägen. Ein Mix aus Vorträgen, Diskussionen, Best Practice-Beispielen und moderierten Fragerunden sorgen für ein praxisnahes Programm. Ob bei den Mittagessen, am Abend oder bei den „1:1-Gesprächen“, das CRM Forum bietet vielfältige Möglichkeiten zum gezielten Networking und für den fachlichen Austausch. www.germancrmforum.de 

HR FUTURE DAY

12. März 2019, München Auf dem HR Future Day präsentieren Personal-Experten, digitale Vorreiter und Wissenschaftler, wie sie Tech-Trends wie Künstliche Intelligenz für ihr Personalmanagement einsetzen, „New Work“Prinzipien und flexible Arbeitsorganisationen in Unternehmen, Abteilungen und Teams umsetzen und erfolgreiches Innovationsmanagement vorantreiben. Auf dem Event erhalten die Teilnehmer Impulse, wie sie durch 72 | 73

Von CIOs wird verlangt, dass sie in ihren Unternehmen – trotz oder gerade wegen der recht unübersichtlichen Breite der neuen technischen Möglichkeiten – sichere Wegweisung zu besonders lohnenden Innovationen geben. Zur Bewältigung dieser Herausforderung sind offensichtlich neben dem Verständnis des eigenen Kerngeschäftes besonders viel Phantasie und Ideenreichtum erforderlich. Mit Blick auf die große Anzahl der neuen Möglichkeiten stellt sich allerdings vorrangig die Frage, wie eine effiziente Bewertung dieser Potenziale erfolgen kann und durch welche Methoden besonders lohnende Ideen identifiziert werden können. Wie und mit wem packt man diese Herausforderungen an? Mit diesen und vielen weiteren Fragen beschäftigt sich der Strategiegipfel in Berlin. www.project-networks.com

DIGITALQUADRAT

14. März 2019, München Ein enormes Quantum an digitalem Wissen liefert DIGITALQUADRAT, der erste Digitalisierungs-Event von DOK. + DIGITUS. Dabei ist DIGITALQUADRAT weder Konferenz noch Festival – vielmehr wird ein praxisbezogener Bogen gespannt: Im Vordergrund steht die Interaktion & Networking. In Form von Diskussionsrunden werden unterschiedliche Ideen, Innovationen und Visionen thematisiert. DIGITALQUADRAT will inspirieren und provozieren. Die Themen der Diskussions­ panels sind Künstliche Intelligenz, Content Services & Information Management, Cognitive Business Automation, Business Intelligence und Digital Business Security. DIGITIALQUADRAT ist für Vorstände, CIOs, Business-Entscheider in Groß- und mittel­ ständischen Unternehmen, IT-Manager, Consultants. www.digital-quadrat.de


Veranstaltungen | Inserentenverzeichnis | Vorschau

Inserenten U2 STAR AG 13 Digital2 19 DM Dokumenten Management GmbH 25 Kodak Alaris Germany GmbH 29 Compart AG 33 Ceyoniq Technology GmbH 37 WIBU-SYSTEMS AG 39 PDF Tools AG 43 Cenit AG 47 interface projects GmbH U3 Digitus & DOK. U4 Kodak Alaris Germany GmbH

DOK.magazin 1.2019 erscheint am 14. Februar 2019 Redaktionsschluss: 25. Januar 2019; Anzeigenschluss: 30. Januar 2019 Themenbereiche Robotic Process Automation Prozesse mit KI-Technologie & Machine Learning (Cognitive) Content Services & die Plattformen Information Management – Konsequent intelligent Next Gen Digital Workplace Digital Asset Management & Multi Channel Technische Dokumentation AR-, VR- und Mixed Reality FOKUS Print & Document Management XTRA B  usiness & Enterpise Intelligence. Die Macht der Daten


Impressum

DOK.dog Verlag Marketing Projekt 2000 GmbH Hochstraße 3 86453 Dasing fon 08205 96 23 3 fax 08205 96 23 45 www.dokmagazin.de www.facebook.com/dokmagazin twitter.com/DOKmagazin

Chef-Redaktion und Herausgeberin Birgit Reber birgit.reber@dokmagazin.de

Lektorat Susanne Franz susanne.franz@dokmagazin.de

Abonnement Marketing Projekt 2000 GmbH Hochstraße 3 86453 Dasing abo@dokmagazin.de

Vertrieb & Kooperationen Marketing Projekt 2000 GmbH vertrieb@dokmagazin.de

Redaktionelle Mitarbeit Andrew Filev, Guido Grotz, Volker Scheidler, Matthias Hintenaus, Dr. Uwe Crenze, David Schneider, Bernd Much, Thomas Ehrlich, Anne-Sophie Gógl, Bartlomej Kluska, Marcus Laube, Gunter Leonhardt, Susanne Franz, Wilhelm Gassner, Otto Neuer, Stephan Ewen, Bernd Hanstein, Bildnachweise ©istock, ©Shutterstock

74 | 75

Titel, Konzept ROKAME Digitalberatung Produktion Grafikatelier Peter Göbel Kantinestraße 10 73732 Esslingen produktion@dokmagazin.de

Druck Kohlhammer Druck Augsburger Str. 722 70329 Stuttgart www.kohlhammerdruck.de

Anzeigen / Print & Online Axel Reber axel.reber@dokmagazin.de fon 08205 96 23 3 mobil 0173 924 22 78

Anzeigenpreise Es gilt Anzeigenpreisliste Nr. 12, gültig ab November 2018.

Verkaufspreise Jahresabo Inland (6 Ausgaben) 60,- EUR inkl. Versand und Mehrwertsteuer Jahresabo Schweiz und Österreich 65,- EUR inkl. Versand zzgl. Mehrwertsteuer Jahresabo restliche Welt 55,20 EUR zzgl. Versand zzgl. Mehrwertsteuer

Disclaimer Die in dieser Ausgabe veröffentlichten Beiträge sind urheberrecht­lich geschützt und liegen in der Verantwortung des betreffenden Autors. Die Haftung für die Richtigkeit der Veröffentlichung kann trotz Prüfung durch die Redaktion und vom Herausgeber nicht übernommen werden. Alle Angaben erfolgen nach bestem Wissen, jedoch ohne Gewähr. Nachdruck, auch auszugsweise, nur mit Genehmigung des Verlages gestattet.


www.digitusmagazin.de

Ihr Digitales Duo – Jetzt abonnieren! Anzeige

Ein enormes Quantum an Digitalisierung www.dokmagazin.de


h jetzt

sic Sichern Sie

Die neue Einfachheit

ack b h s a C o r 100,- Eu 018.

31.12.2 m u z is b t pro Gerä is.com r la a k a d o tions.k >> promo

Alaris S2000 Scanner-Serie Papierbasierte Prozesse und digitale Transformation passen nicht zusammen. Daher steht die einfache und schnelle Erfassung von Papierdokumenten im Fokus. Mit den Scannern der Alaris S2000 Serie wird die Digitalisierung zum Kinderspiel und es bleibt mehr Zeit für das Wesentliche. Diese Funktionen sprechen für sich: • Aktive Einzugstechnologie vermeidet Fehl- und Mehrfacheinzüge • Kontrollierte Ausgabestapelung spart Zeit bei der Belegsortierung • Integrierte Bildverarbeitungstechnologie sorgt für herausragende Bildqualität • Perfekt für Thin Client-Umgebungen • Mitgelieferte Scanlösung sorgt für nahtlose Integration in Workflows alarisworld.com/go/S2000

Profile for digitusmagazin

DOK.Magazin Jan./Feb. 2019  

DOK.Magazin Jan./Feb. 2019  

Advertisement