Futurebrightdatamanagement nl

Page 1



FUTURE BRIGHT A DATA DRIVEN REALITY

In samenwerking met


INHOUDSOPGAVE

5

Voorwoord door Karel Kinders

7

Inleiding door Jeroen Dijkxhoorn

10

HR-dienstverlener Securex gaat voor 100 procent betrouwbare CRM

14

Data-integratie evolueert door big data en open source

18

Infographic Data Management

20

Rijkswaterstaat krijgt geïntegreerd inzicht in prestaties

24

Ronald Damhof maakt datamanagement bespreekbaar met Datakwadrantenmodel Onze

32

Lieve Vrouwe Gasthuis en Sint Lucas Andreas Ziekenhuis integreren hun data DSM krijgt

36

grip op Master Data

42

Wie is uw datahoeder?

46

Jill Dyché over haar boek The New IT

48

Kredietverzekeraar integreert kwaliteitsratio’s in risicobepaling

52

Kwaliteitsslag cruciaal voor data

56

Real-time gefundeerde beslissingen laten de wereld sneller draaien

60

Gelre Ziekenhuizen legt fundament onder informatievoorziening

64

Over SAS

Colofon


VOORWOORD

Voor u ligt alweer de zevende uitgave van Future Bright, met dit keer als thema A Data Driven Reality. De datagedreven samenleving wordt sneller dan veel mensen denken realiteit. Dit dankzij ontwikkelingen als The Internet of Things, wat het mogelijk maakt om processen die nu nog handmatig plaatsvinden verregaand te automatiseren. Tegelijkertijd ziet analistenbureau Forrester de opkomst van The Age of the Customer. Klanten laten digitaal een spoor na, en ze verwachten van hun leveranciers dat ze die informatie gebruiken om hen een beter en relevanter maatwerkaanbod te doen. De impact van deze twee ontwikkelingen is groot. Veel bestuurders beginnen zich dat nu ook te realiseren. Maar ze nemen nog weinig gestructureerde actie om hun organisatie echt klaar te maken voor deze Data Driven Reality. Dat snappen wij heel goed, want hoe pak je dit aan? Waar begin je? Binnen organisaties ontstaat het besef dat eerst het fundament op orde moet worden gebracht. Tegelijkertijd zien ze veel laaghangend fruit dat met projecten op het gebied van big data analytics geplukt kan worden. Hoe verhouden deze werelden zich tot elkaar? Welke geĂŻnvesteerde euro levert het snelst rendement op? Met dit boek bieden wij u nieuwe inzichten. Aan de hand van interviews met klanten, experts en vakgenoten op het gebied van informatie management laten we u zien welke stappen u moet zetten om data management een centrale rol toe te kennen in uw organisatie, zodanig dat u zowel uw fundament op orde heeft, en ook in staat bent data te benutten voor innovatie. Wij wensen u veel inspiratie toe in deze nieuwe realiteit. Karel Kinders Managing Director SAS Nederland


6


INLEIDING

Jeroen Dijkxhoorn

DIRECTOR ANALYTICAL PLATFORM CENTER OF EXCELLENCE BIJ SAS

7


INLEIDING

Al vanaf het moment dat er databases zijn, praten we over datakwaliteit. Een onderwerp dat lange tijd weinig aandacht kreeg om de simpele reden dat procesefficiĂŤntie altijd belangrijker was dan de volledigheid en juistheid van data. Data was een bijproduct van het proces. Die tijd ligt achter ons. De toekomst is aan datagedreven organisaties.

Het feit dat data in het verleden een bijproduct was van het proces resulteerde in databases met behoorlijk wat fouten en omissies. Dat werd opgevangen doordat er altijd wel een validatieslag plaatsvond op het moment dat iemand iets met de data wilde doen. Want als dan bleek dat veel data onjuist was, werden ineens alle inspanningen gericht op het aanvullen van ontbrekende data, het corrigeren van foute data en/of het opschonen van vervuilde databases. Daar kwam altijd menselijke interventie aan te pas.

Data zet volautomatisch processen in gang Die manier van werken wordt problematisch nu databronnen in toenemende mate gekoppeld worden en processen op willekeurige momenten kunnen starten. Waar bijvoorbeeld vroeger de marketeer het moment bepaalde waarop een e-mailmarketingcampagne werd gedaan, zijn het nu triggers die de klant afgeeft waarop u wilt inspelen. Hoe beter u snapt welke reis de klant aflegt (de customer journey) hoe makkelijker het wordt om op die triggers in te spelen en hoe relevanter u als organisatie voor uw klanten wordt. Dit vraagt dat u in richtlijnen (policies) vastlegt hoe uw organisatie reageert als uw klant of prospect bepaalde informatie aanvraagt of zich inschrijft voor een e-mailnieuwsbrief. Het vervolgtraject vindt daarna volautomatisch plaats, zonder menselijke interventie en dus ook zonder die validatieslag die vroeger dan nog plaatsvond. Controleren op correctheid van data zal dus automatisch moeten plaatsvinden, door services die overal in het proces ingezet kunnen worden. Hierbij kunnen we onderscheid maken tussen datavalidatie (het technisch corrigeren van data in een fysieke datastroom) en datakwaliteit (het verifiĂŤren op de functionele correctheid).

Data Driven Reality Waar organisaties vroeger gedreven werden door processen, worden ze nu gedreven door data. Dit maakt dat de impact van een fout die niet wordt herkend meteen groot kan zijn. Deze kan niet meer handmatig worden gecorrigeerd, waardoor de fout op meerdere plekken doorwerkt. Toezicht op de datakwaliteit wordt daardoor veel belangrijker. Dit is ook de reden waarom wet- en regelgeving nieuwe eisen stelt aan datakwaliteit. Toezichthouders willen vandaag de dag data, geen rapporten. Dit vraag om een Data Driven Organization. We komen terecht in een Data Driven Reality.

8


INLEIDING

Technologie is in deze ontwikkeling het probleem niet. Het feit dat het centrale toezicht op de consistentie van datadefinities – Data Governance – ontbreekt is dat wel. Dit is typisch een taak van een Chief Data Officer, die veel organisaties nog ontberen.

Age of the Customer en Internet of Things zijn drijfveren Hoog tijd om actie te ondernemen, want in The Age of the Customer moet u flexibel kunnen inspelen op triggers die klanten geven. Dit vraagt om een 360 graden-beeld van de klant. We praten daar al jaren over, maar het is er nog altijd niet omdat klantdata verspreid staan over verschillende systemen. Door het ontbreken van toezicht op datadefinities kan die data niet bij elkaar worden gebracht. Ook de ontwikkelingen die The Internet of Things met zich meebrengen is een drijfveer. Dit gaat zorgen voor een nieuwe stroom aan data die u graag wilt gebruiken om uw processen te optimaliseren en verregaand te automatiseren. Ook dit vraagt om een goede visie op datamanagement.

Combinatie van verschillende soorten data Welke van de twee genoemde realiteiten voor u ook de primaire drijfveer is, in beide situaties wordt het steeds belangrijker om 100 procent betrouwbare data te combineren met data die een mate van onzekerheid in zich hebben. Denk bijvoorbeeld aan weersvoorspellingen of sentimentanalyse van social media. Hoe is het mogelijk om deze ongestructureerde data, veelal opgeslagen in Hadoopclusters, op een relevante manier te combineren met gestructureerde data die100 procent juist zijn, zoals de routeplanning van vrachtwagenchauffeurs of data over aankoopgedrag?

“Waar organisaties vroeger gedreven werden door processen, worden ze nu gedreven door data” Jeroen Dijkxhoorn

Kostentechnisch is het onhaalbaar om al die data in een en dezelfde database op te slaan. Maar ook organisatorisch is dat erg onwenselijk, zoals Ronald Damhof, zelfstandig consultant informatie management, verderop in dit boek uitlegt. Er zit immers een groot verschil in data waarmee u zich moet verantwoorden bij toezichthouders en data die u gebruikt om te experimenteren, op zoek naar ideeën voor innovatie. Toch moeten die verschillende manieren van datagebruik bij elkaar worden gebracht, zonder de data zelf meteen fysiek op één hoop te gooien. Deze complexiteit vraagt om een eenduidig logisch datamodel en eenduidige datadefinities. Zonder deze datadefinities en zonder goed stewardship op data is het onmogelijk om in te spelen op de kansen die zich nu in de markt voordoen en waar concurrenten massaal op inspelen. Het is daarom geen vraag meer of u hiermee gaat beginnen, maar wanneer. Ons advies is: vandaag nog. Data is uw belangrijkste asset. Handel daarnaar en doe er wat mee, voordat een concurrent of een nieuwe speler op uw markt u voor is. ■

9


CASE

HR-DIENSTVERLENER SECUREX GAAT VOOR 100 PROCENT BETROUWBARE CRM

OPSCHONEN VAN DE RELATIEDATABASE EN DAARNA SCHOON HOUDEN 10


CASE

Zoals zoveel bedrijven ervoer ook HR-dienstverlener Securex problemen met zijn CRM-database. Daardoor had het bedrijf te weinig marketingdata, die bovendien ook nog eens steeds onbetrouwbaarder werd. Securex heeft daarom zijn database opgeschoond en up-to-date gemaakt met het SAS Data Management-platform. Dat wordt nu ook ingezet als waakhond om de accuratesse en consistentie van wijzigingen en nieuw ingevoerde data te controleren. Het resultaat is een veel completere database met verbeterde contactdata.

11


CASE

Securex is een HR-bedrijf dat actief is in België, Frankrijk en Luxemburg. Klanten variëren van grote bedrijven tot kleine en middelgrote ondernemingen en zelfstandigen. De dienstverlening strekt zich uit van payrolling, werknemersverzekeringen, personeelsmanagement, HR-consulting tot en met gezondheids- en veiligheidsadvies. Securex heeft ongeveer 1600 medewerkers die in bijna 30 kan­ toren werken en samen meer dan een kwart miljoen klanten bedienen.

Data-inconsistentie leidt tot frustraties Iedere vorm van data-inconsistentie leidt tot frustratie bij iedereen die erbij betrokken is. Aan de ene kant zijn medewerkers continu bezig om klantdata te controleren, te updaten en aan te vullen, terwijl aan de andere kant de marketingafdeling een database aanschaft en integreert in het CRM-systeem ten behoeve van een marketingcampagne. “Iedere aanpassing van data kan leiden tot fouten of inconsistenties”, ziet Jacky Decoster, business architect bij Securex. “Omdat er zoveel verschillende medewerkers en afdelingen betrokken zijn bij klantdata, ontstaan er makkelijk problemen, zoals een klant die twee keer wordt ingevoerd of onvolledige contactinformatie (een ontbrekende voornaam, geslacht, e-mailadres of telefoonnummer). Dit is frustrerend, vooral voor de marketingafdeling die een campagne wil draaien. Veel e-mails komen onbezorgd terug omdat het e-mailadres niet meer klopt, mails worden twee keer naar dezelfde persoon gestuurd, of er staat een verkeerde aanhef in de mail. Dit schaadt natuurlijk onze reputatie.” Hoewel Securex al sinds 2004 met een centrale SAP CRM-database werkt, zijn de problemen de laatste jaren alleen maar groter geworden. Decoster: “Klachten komen zowel van onze eigen medewerkers als van klanten. Het was duidelijk dat we iets hieraan moesten doen. En dat we daarbij moesten kiezen voor een effectieve en overtuigende werkwijze.”

SAS Data Management succesvol geïmplementeerd Het probleem van de slechte datakwaliteit stond hoog op de agenda toen Securex het Client+ programma startte. Dit veranderproject bestond uit de migratie van het van veel maatwerk voorziene SAP CRM-systeem naar de cloud-gebaseerde en derhalve volledig gestandaardiseerde Salesforce.com omgeving. Securex besloot om bij de migratie het SAS Data Management-platform in te zetten. Een goede keus, zo bleek achteraf. “SAS Data Management heeft ons in staat gesteld om zeer nauwgezet de data op te schonen voordat ze in de nieuwe database werden geüpload. De data zijn volautomatisch gestandaardiseerd, dubbele waarden zijn samengevoegd en ontbrekende informatie is aangevuld. SAS Data Management heeft ingebouwde tools zoals de automatische definitie van metadata, fuzzy matching, het ontleden van namen in voor- en achternaam en eventueel tussenvoegsel, betrouwbare vaststelling van geslacht, standaardisering van telefoonnummers en analyse van e-mailadressen. Daarmee zijn al onze uitdagingen volledig afgedekt. We hebben op dit moment vrijwel al onze data overgezet en tot nu toe hebben we nog geen enkele klacht ontvangen van de marketingafdeling. Het is een grote verbetering en het zou ondenkbaar zijn om dit zonder SAS Data Management te realiseren.”

Permanente waakhond voor datakwaliteit Decoster benadrukt echter dat het verbeteren van de datakwaliteit geen eenmalige actie mag zijn. Het moet een continu proces zijn. Dat is ook de reden waarom Securex voor een veelomvattende 12


CASE

“Het verbeteren van de datakwaliteit mag geen eenmalige actie zijn, maar is een continu proces” Jacky Decoster

benadering heeft gekozen, waarbij ook de marketing- en salesprocessen zijn bekeken. Onderdeel hiervan is het bewustmaken van medewerkers van hun invloed op de kwaliteit van de database op het moment dat zij data toevoegen of wijzigen. Zij moeten dat zo zorgvuldig mogelijk doen. SAS Data Management wordt gebruikt als waakhond voor datakwaliteit. Decoster zegt: “Je kunt nooit 100 procent zeker zijn dat alle data die wordt ingevoerd helemaal correct is, ook al zijn mensen getraind en bewust van hun invloed. Daarom doen wij regelmatige consistentiechecks met SAS Data Management, iedere week zelfs. Onze volgende stap is om een near real-time check in te voeren. Op het moment dat iemand data toevoegt of wijzigt, wordt het aangepaste record meteen naar SAS Data Management gestuurd ter controle, een proces dat slechts een paar seconden duurt.”

Robuuste architectuur en grote flexibiliteit Decoster heeft niets dan lof voor de robuuste architectuur en grote flexibiliteit van het SAS Data Management-platform. Het systeem kan worden geïntegreerd in iedere softwareomgeving. Er bestaat zelfs een aantal gecertificeerde standaardkoppelingen naar de meest gebruikte CRM-pakketten, waaronder Salesforce.com. Daardoor hoeft er geen maatwerk interface ontwikkeld te worden. Verder wordt alle functionaliteit geleverd volgens ‘stored procedures’. En is zeker dat iedere transactie veilig en betrouwbaar is. SAS Data Management heeft een zeer krachtige data profiler. “Deze stelt ons in staat om aangekochte databases te controleren en het risico in te schatten dat er datavervuiling ontstaat als we deze integreren in ons CRM-systeem”, zegt Decoster. De software beschikt bovendien over een krachtige tool om batch jobs te definiëren om de aangekochte data op te schonen en de te standaardiseren. Decoster besluit met het noemen van een laatste voordeel: de software is eenvoudig in gebruik. “De leercurve voor SAS Data Management is heel kort. Met twee dagen training konden wij gebruikmaken van alle functionaliteit die voor ons nodig is.” ■

13


INTERVIEW

“Big data bestaat voor mij niet.” Een opmerkelijke uitspraak voor een expert in data-integratie. “Het is relatief. Het zegt iets over waar je vandaan komt.” Deze ontwikkeling biedt kansen. Maar het zorgt ook voor veel nieuwe uitdagingen, onder meer op het gebied van data-integratie.

14


INTERVIEW

Hadoop ‘onder de motorkap’

DATA-INTEGRATIE EVOLUEERT DOOR BIG DATA EN OPEN SOURCE De man die openlijk twijfelt aan het bestaan van ‘big’ data is pre-sales consultant André Molenaar van SAS Nederland. Molenaar legt uit dat ‘big’ voor een kleine kruidenier iets heel anders is dan voor een grote onderneming. “Er geldt dus geen ondergrens voor ‘big’ data”, argumenteert hij. Molenaars collega Rein Mertens, teamleider pre-sales, beaamt dit. “Big data is alles wat valt buiten de comfortzone van een organisatie om te verwerken.” Daarbij draait het er ook om hoe omvattend de databronnen zijn en vooral hoe snel de informatie is te integreren om er dan nieuwe actiegerichte inzichten uit te kunnen halen. De vraag rijst hierdoor of big data dan niet gebonden is aan de ‘mate van volwassenheid’ van een organisatie. Als het nét buiten de comfortzone ligt, is het dan niet een kwestie van uitbreiden, van opgroeien? “Ja, het is een kwestie van volwassenwording”, zegt Mertens.

Nieuwe visie op data Molenaar valt bij: “Bedrijven kijken vandaag de dag anders tegen data aan dan een paar jaar geleden. Kijk bijvoorbeeld naar de logdata van webservers. Die machines slaan in hun logbestanden het opvragen van en doorklikken op webpagina’s op. Vanaf welke IP-adressen gebeurt dit? Met welke cookiedata? Enzovoorts.” Allemaal gegevens die best waarde in zich kunnen hebben. Al relativeert Molenaar dit: “Het gros van de logdata kun je eigenlijk weggooien. Alleen weet je niet welk deel je precies kunt weggooien.” Bovendien is er ook een verschuiving in de waarde van dergelijke gegevens over surfgedrag. Wat vroeger zeker gewist kon worden, blijkt nu juist vaak waardevol te zijn.

15


INTERVIEW

Waar het een paar jaar geleden nog niet interessant was welke andere pagina’s een website­bezoeker zoal bezocht, kan dat nu juist cruciaal zijn. “Neem bijvoorbeeld real-time recommendations waar veel online retailers mee werken. Of profielverrijking, zodat je als leverancier beter snapt waar de behoeften van klanten liggen.” Deze marketingtoepassingen van big data hebben voor een bredere visie op het nut van dataintegratie gezorgd. Organisaties zien dat er meerwaarde zit in het koppelen van de websitedata aan de traditionele informatiebronnen zoals een CRM-systeem. Ze zien dat het niet alleen gaat om een eenzijdige import van websitelogs in een CRM-applicatie, maar dat er voor betere benutting tweerichtingsverkeer én een bredere scope nodig is.

Groeiende databergen versus opslagkosten Op het eerste gezicht lijkt de groei van de data die bedrijven vergaren, opslaan en correleren wellicht geen groot probleem. De opslagcapaciteit van opslagmedia blijft maar toenemen en de prijs per gigabyte is aan neerwaartse druk onderhevig. Alsof harde schijven gehoorzamen aan een eigen versie van de bekende Wet van Moore. Maar die vlieger gaat niet helemaal op. Want niet alleen is de groeicurve van capaciteitstoename voor opslag minder steil dan die voor processors, ook is die opslaggroei niet in staat de data-explosie echt voor te blijven. Bijkomend probleem voor het omgaan met de informatie-explosie is software. Specifiek: database­ software. Veel van de opdoemende databergen zijn niet zomaar op te slaan in een relatief dure gestructureerde database of in een kostbaar datawarehouse. Want in die enorme databergen kan weliswaar goud zitten, maar het is nog onbekend hoeveel en wáár. Bovendien zijn veel van die data ook nog eens ongestructureerd.

Hadoop volgt pad van Linux Hier komt de open source-software Hadoop om de hoek kijken. Dat is een goedkope oplossing, draaiend op goedkope standaardhardware waarin vele petabytes aan data zijn op te slaan en te verwerken. Hoe krachtig het is? Hadoop is gebaseerd op technieken die zoekreus Google zelf heeft ontwikkeld om het internet te indexeren. “Hadoop volgt nu het pad van Linux”, vertelt Molenaar. “De markt adopteert het gaandeweg voor serieuzere toepassingen.” Beide technologieën komen uit een hele andere wereld dan de reguliere bedrijfswereld en vereisen in de kern nogal wat technische kennis, ook van gebruikers. “Er was eerst ook angst voor Linux”, aldus Mertens. Maar voor dit veelgebruikte open source-besturingssysteem zijn er jaren terug al partijen opgekomen als Red Hat, die de kernsoftware combineren met zakelijke toepassingen en dat prepareren in één zakelijk zó in te zetten geheel. Voor Hadoop begint dat proces van zakelijke ‘packaging’ nu ook. SAS-manager Mertens wijst op Cloudera en Hortonworks, die hij vergelijkt met Red Hat voor de bedrijfsadoptie van Linux. “Hadoop lijkt nu nog complex voor veel bedrijven”, zegt Molenaar. “In de regel hebben zij namelijk aparte technische mensen nodig. Niet alleen voor installatie en configuratie, maar ook voor onderhoud en zelfs het dagelijks gebruik. Ervaren programmeurs die naast code-skills ook beheerderstalenten hebben plus de kennis en kunde van data-analisten. Een zeldzame en dus kostbare optelsom van kwaliteiten.”

16


INTERVIEW

Rein Mertens

HEAD OF ANALYTICAL PLATFORM

In die enorme databergen kan weliswaar goud zitten maar het is nog onbekend hoeveel en wáár Hadoop naar de massa brengen Ondanks die complexiteit is Hadoop in trek, want “het biedt zoveel voordelen”, stelt Molenaar. SAS springt hier dan ook op in. Mertens vertelt dat het bedrijf technologie zoals Hadoop benut “maar dan onder de motorkap”. De complexiteit van die software wordt dan afgedekt met voor bedrijven bekende processen en programmatuur. Klanten kunnen zich dan richten op het daadwerkelijke gebruik van de tools voor data-integratie, in plaats van dat ze eerst nog experts nodig hebben op het gebied van de onderliggende software. SAS heeft daarom zijn aanbod op het gebied van Data Management uitgebreid met een oplossing om het gebruiksgemak te verhogen van het onder-de-motorkap-draaiende Hadoop: SAS Data Loader for Hadoop. Hiermee kun je diepgaand graven in de beschikbare databerg. De opgeslagen data in Hadoop is dan veel eenvoudiger te prepareren en ontginnen. Door data-analisten en zelfs door gewone gebruikers. Iederéén kan goud winnen. ■

17


DATA MANAGEMENT

18


19


CASE

Jacorien Wouters

PROGRAMMAMANAGER NETWERKMANAGEMENT INFORMATIESYSTEEM BIJ RIJKSWATERSTAAT

20


CASE Wegen- en vaarwegennet en de prestaties ervan integraal inzichtelijk

RIJKSWATERSTAAT KRIJGT GEÏNTEGREERD INZICHT IN PRESTATIES

Rijkswaterstaat is verantwoordelijk voor het hoofdwegennet, het hoofdvaarwegennet en het hoofdwatersysteem van ons land. Om verantwoording af te kunnen leggen aan het Ministerie van Infrastructuur en Milieu, de Tweede Kamer en om de interne organisatie aan te sturen bij operationele processen, is het belangrijk om op tijd over de juiste informatie te beschikken en deze zowel intern als extern te kunnen ontsluiten. Hiervoor ontwikkelde Rijkswaterstaat het Netwerkmanagement Informatiesysteem (NIS).

Rijkswaterstaat startte een aantal jaren geleden met het ontwikkelen van het NIS. Het systeem moest geïntegreerd inzicht bieden in de prestaties die Rijkswaterstaat levert, met als doel scherper te kunnen sturen en beter inzicht te krijgen in de prestaties. In het aanbestedings­ traject werd gekozen voor de oplossingen van SAS, omdat deze in staat zijn het hele proces van bron tot browser te ondersteunen. Zo maakt Rijkswaterstaat voor het NIS gebruik van SAS Business Intelligence en SAS Data Management. “Het NIS is inmiddels één van de belangrijkste informatiebronnen voor de aansturing van Rijkswaterstaat”, vertelt Jacorien Wouters, programmamanager van het NIS. “De grootste twee informatiestromen over de netwerken van onze organisatie komen hierin samen: prestaties van de netwerken en gegevens over onze assets zoals wegen, bruggen, maar bijvoorbeeld ook de Waddenzee. Hier is een intensief proces van data-integratie aan vooraf gegaan.”

21


CASE

Betere beslissingen Bij de start van het NIS waren de gegevens uit verschillende applicaties verspreid over de informatie­ systemen van de tien verschillende Regionale Diensten van Rijkswaterstaat. Het NIS haalt inmiddels periodiek gegevens op uit meer dan veertig bronsystemen. De kracht van het systeem is onder meer de mogelijkheid om gegevens te combineren en in grafieken en kaartbeelden te presenteren. Dit geeft snel en duidelijk inzicht in de prestaties van de individuele diensten en van Rijkswaterstaat in zijn geheel. De cijfers in het NIS hebben een officiële status. Dit is intern van groot belang, maar ook extern aangezien Rijkswaterstaat drie keer per jaar rapporteert aan het Ministerie over de status van specifieke Prestatie Indicatoren oftewel PIN’s. Hierover zijn voor een begrotingsperiode van vier jaar afspraken gemaakt in een Service Level Agreement.

Complexere analyses Niet alleen de sturing is verbeterd, ook de toegang tot de informatie is sterk vereenvoudigd, getuige de toename van het aantal gebruikers van het NIS binnen Rijkswaterstaat. Wouters: “Informatie die voorheen slechts door een paar medewerkers uit een specifiek bronbestand kon worden gehaald is via de NIS-portal nu beschikbaar voor alle medewerkers binnen Rijkswaterstaat.”

22


CASE

“Het inzicht in de onderliggende gegevens helpt ons efficiënter te werken en daarmee op termijn kosten te besparen. Daarnaast levert de eenduidige wijze van rapporteren tijdwinst op. Er zijn geen discussies meer over de definities of de cijfers: er is één versie van de waarheid.” Jacorien Wouters

Zij vervolgt: “Het inzicht in de onderliggende gegevens helpt ons efficiënter te werken en daarmee op termijn kosten te besparen. Daarnaast levert de eenduidige wijze van rapporteren tijdwinst op. Er zijn geen discussies meer over de definities of de cijfers: er is één versie van de waarheid. Doordat informatie met het NIS makkelijker beschikbaar is kunnen we ook sneller en beter bijsturen. Vroeger rapporteerden we drie keer per jaar over de prestaties en kwamen er soms zaken aan het licht waar je liever direct actie op had ondernomen. Nu kunnen we meteen ingrijpen.”

Ontwikkelingen Afgelopen jaar heeft Rijkswaterstaat SAS geïmplementeerd en daarmee een stap gemaakt in het ver­ beteren van de datakwaliteit. Verder wordt gestart met het gebruik van SAS Visual Analytics. Wouters: “Omdat er nu simpelweg meer inzicht is in de informatie kan ons bestuur geavanceerdere beslissin­ gen nemen. We gaan steeds verder in het combineren van informatie waardoor ook verbanden die we eerst niet hadden gelegd zichtbaar worden.” ■

23


INTERVIEW

Ronald Damhof

ONAFHANKELIJK CONSULTANT INFORMATIE MANAGEMENT

24


INTERVIEW Onafhankelijk consultant Informatie Management Ronald Damhof ontwikkelde het Datakwadrantenmodel

“Maak datamanagement bespreekbaar in de hele organisatie�

Het vakgebied datamanagement staat bol van het jargon. De meeste business managers hebben geen idee wat al die termen betekenen, laat staan dat ze hen helpen te snappen welke data nu precies welke waarde hebben en hoe ze hiermee moeten omgaan. Om een bedrijfsbrede discussie over data mogelijk te maken, ontwikkelde Ronald Damhof het Datakwadrantenmodel.

25


INTERVIEW

Damhof werkt als onafhankelijk consultant Informatie Management voor grote organisaties zoals Ahold, De Nederlandsche Bank, de Belastingdienst, Alliander en vele organisaties in de financiële sector en de gezondheidszorg. Het zijn data-intensieve organisaties die steeds beter beseffen dat de kwaliteit van hun werk in toenemende mate wordt bepaald door de kwaliteit van hun data. Maar hoe kom je vanuit dat besef tot een goede datastrategie? Een strategie die iedereen in de organisatie snapt, van de bestuurder in de boardroom tot aan de engineer bij ICT? Om het onderwerp datamanagement bespreekbaar te maken, ontwikkelde Damhof een kwadrantenmodel.

To push or to pull? Damhof begint met het uitleggen van een begrip dat iedereen in het voortgezet onderwijs wel voorbij heeft zien komen: het klantorderontkoppelpunt. Dit heeft betrekking op de mate waarin de vraag impact heeft op het productieproces. Als voorbeeld noemt hij het maken van een luxueus jacht. Het productieproces begint pas als de order van de klant bekend is. Het klantorderontkoppelpunt ligt bij de start van het productieproces. Daartegenover staan bijvoorbeeld lucifers. Als een klant lucifers wil hebben, gaat hij naar de supermarkt en koopt hij ze. Als hij zwarte lucifers wil, heeft hij pech gehad. Het klantorderontkoppelpunt ligt helemaal aan het eind van het productieproces. De productie van een auto echter heeft een standaardgedeelte en een maatwerkgedeelte. De klant kan nog aangeven dat hij een specifieke kleur wil, leren bekleding, andere velgen et cetera. Het klantorderontkoppelpunt ligt ergens in midden van het productieproces. Damhof: “Ook met het maken van een rapport, dashboard of analytische omgeving is er sprake van een klantorderontkoppelpunt dat ergens in dat midden ligt.”

The Data Push Pull Point Push/Supply/Source driven

• Mass deployment • Control > Agility • Repeatable & predictable processes • Standardized processes • High level of automation • Relatively high IT/Data expertise

All facts, fully temporal

Pull/Demand/Product driven

• Piece deployment • Agility > Control • User-friendliness • Relatively low IT expertise • Domain expertise essential

Truth, Interpretation, Context

Business Rules Downstream

26


INTERVIEW

Hoe kom je tot een datastrategie? Het klantorderontkoppelpunt splitst het productieproces in twee stukken: een push- en een pull-kant, ook wel een aanbodgedreven deel en een vraaggedreven deel. Push-systemen zijn erop gericht schaalvoordelen te halen bij toename van volume en vraag, waarbij de (data)kwaliteit van het product gewaarborgd blijft. Aan de andere kant zijn er pull-systemen die vraaggedreven zijn. Verschillende type gebruikers willen vanuit hun eigen expertise en context de data kneden tot ‘hun’ product, hun waarheid.

Opportunistisch of systematisch ontwikkelen? Op de Y-as projecteert Damhof de dimensie ontwikkelstijl. “Daarmee bedoel ik: hoe ontwikkel je een informatieproduct? Dat kun je systematisch doen; dan zijn de gebruiker en de ontwikkelaar twee verschillende personen en pas je een defensieve governance toe, gericht op controle en compliance. Alles wat engineers hebben geleerd om software op gedegen wijze voort te brengen wordt hier in praktijk gebracht. Je ziet dit vaak bij gecentraliseerde, bedrijfsbreed toegepaste data, bijvoorbeeld financiële data en data die aan toezichthouders wordt gerapporteerd.” Je kunt ook een opportunistische ontwikkelstijl gebruiken. “In dat geval zijn de ontwikkelaar en de gebruiker vaak één en dezelfde persoon. Denk aan de data scientist die wil innoveren met data, die analytische modellen wil maken en wil beproeven. Denk ook aan situaties waar snelheid van levering essentieel is. De governance is hierbij offensief, dat wil zeggen dat de focus ligt op flexibiliteit en aanpasbaarheid.”

The Development Style Systematic

• User and developer are separated • Defensive Governance; focus on control and compliance • Strong focus on non-functionals; auditability, robustness, traceability, …. • Centralised and organisation-wide information domain • Configured and controlled deployment environment (dev/tst/acc/prod)

• User and developer are the same person or closely related • Offensive governance; focus on adaptability & agility • Decentralised, personal/workgroup/department/theme information domain • All deployment is done in production

Opportunistic

27


INTERVIEW

Datakwadrantenmodel Gecombineerd leveren deze twee dimensies het volgende plaatje op.

A Data Deployment Quadrant Push/Supply/Source driven

Data Push/ Pull Point

Pull/Demand/Product driven

Systematic I

Facts

II

Context

Development Style

“Shadow IT, Incubation, Ad-hoc, Once off”

III

Research, Innovation & Prototyping Design

IV

Opportunistic

Damhof: “In kwadrant I vindt je de keiharde feiten. Deze data kan in haar volle ruwe omvang op begrijpelijke wijze ter beschikking worden gesteld aan de kwadranten II en IV. Data in kwadrant I worden geproduceerd door sterk gestandaardiseerde systemen en processen, zodat ze volstrekt voorspelbaar en repeteerbaar zijn.” Daar diagonaal tegenover, in kwadrant IV, staan data die worden gekenmerkt door innovatie en prototyping. “In dit kwadrant werken de data scientists, die eigenlijk maar drie dingen vragen: data, computerkracht en coole software.” Steeds vaker worden er aparte afdelingen als Innovation Labs opgezet om data scientists volop te laten experimenteren en analyseren met de data. Met als doel innovatie. “Je hebt dit type datamanagement nodig om goede ideeën op te doen en te testen. Als iets werkt, dan is het vervolgens zaak om dit concept vanuit het vierde kwadrant omhoog te krijgen naar het tweede kwadrant, want pas als je de data systematisch kunt genereren en analyseren dan kun je er ook schaalvoordelen mee behalen in je business. Dan kun je ze bedrijfsbreed gaan toepassen.” Damhof gaat verder: “Te vaak spreek ik data scientists die hele gave inzichten verkrijgen in een soort sandbox-omgeving. Maar ze vergeten of zijn niet in staat die inzichten ten gelde te maken in een productiesituatie. Ze krijgen hun inzichten maar niet van kwadrant IV naar kwadrant II. Hier komt governance om de hoek kijken.” En daar ligt voor veel organisaties de grote uitdaging, weet Damhof. “Als je managers dit model uitlegt en vraagt waar hun prioriteit ligt, dan zeggen ze allemaal dat ze eerst het fundament op orde moeten maken, het eerste kwadrant. Maar vraag je waar ze hun geld nu in 28


INTERVIEW “Nu organisaties steeds meer data genereren, kunnen ze hier niet langer slordig mee omgaan. Dit is dé tijd om datamanagement en de daarbij behorende governance goed op poten te zetten. Het Datakwadrantenmodel helpt daarbij” Ronald Damhof

investeren, waar ze nu innoveren, dan is het vaak in het vierde kwadrant. Dat ze zich bezighouden met deze meer experimentele en exploratieve vorm van datamanagement is mooi, maar dat kan pas als je fundament klopt. Anders heb je een hypermodern toilet dat niet is aangesloten op het riool, dat wordt dus een hele vieze bende.” Vraag de gemiddelde data scientist wat hem het meeste tijd kost en zijn antwoord zal zijn om de data op het juiste kwalitatieve niveau te krijgen. Laat dit nu net het doel van kwadrant I zijn. “Een data scientist met krachtige analytische software, veel computerkracht én hoogwaardige data gaat pas echt een verschil maken.”

Betrouwbaarheid versus flexibiliteit “Managers willen nog weleens roepen dat systemen betrouwbaar en flexibel moeten zijn, maar dit zijn communicerende vaten. En heel betrouwbaar en robuust systeem is minder flexibel. En bij een extreem flexibel systeem moeten de eisen ten aanzien van de betrouwbaarheid worden verlaagd”, vertelt Damhof. “Het Datakwadrantenmodel maakt dit voor managers inzichtelijk. In kwadrant I gaat betrouwbaarheid boven flexibiliteit en in kwadrant II en IV gaat flexibiliteit boven betrouwbaarheid.” Er zijn dan ook nogal wat verschillende soorten expertise en competenties nodig om data optimaal te kunnen uitnutten.

Expertise en competenties Je ziet vaak dat organisaties van één persoon expertise en competenties vragen die het gehele kwadrant afdekken. Die mensen zijn er niet. Medewerkers in kwadrant I hebben een engineering profiel. Het zijn informatie- en data engineers, opgeleid in data-architectuur en data modellering. “Let op, dit is dus niet het klassieke IT-profiel. Dit zijn engineers die model-gedreven kunnen ontwikkelen en de noodzaak van conceptueel en logisch modelleren goed begrijpen.” Deze expertise is zeer schaars. Daar staan de kwadranten II en IV tegenover. “Daar zijn mensen nodig met een expertise in het betreffende business domein aangevuld met Business Intelligence-competenties en/of analytische competenties.”

Feiten en waarheid Damhof noemt kwadrant I van het model ook wel ‘the single version of the facts’. Die feiten worden vervolgens ter beschikking gesteld van medewerkers in kwadrant II en IV. Zij kunnen daarmee hun 29


“Binnen organisaties gaat het vaak over ‘the single version of the truth’, maar die bestaat helemaal niet. Er is een ‘single version of the facts’ en er zijn meerdere ‘truths’” Ronald Damhof

eigen waarheden maken. Omdat in deze rechterhelft van het model dezelfde feiten worden gebruikt om meerdere waarheden te creëren – afhankelijk van de context en de achtergrond van de gebruiker van de data – noemt Damhof deze helft wel ‘the multiple version of the truth’. Bedenk daarbij ook dat de ‘truth’ over tijd nogal eens verandert. Damhof: “Je hoort bedrijven vaak praten over ‘the single version of the truth’, maar die bestaat helemaal niet. Het hangt van de context, jouw zienswijze, achtergrondkennis en ervaringen af hoe je bepaalde feiten interpreteert.”

Kwadrant III Het kwadrant dat weinig genoemd is, maar wel ongelooflijk belangrijk is, is kwadrant III. Het is het kwadrant van databronnen die niet onder governance staan. Een ad-hoc download die je doet van een Open Data Provider, een lijstje in Excel dat je wilt gebruiken, een set van contra-informatie die je op een cd hebt ontvangen. Damhof: “Sterker nog, misschien wil je in dit kwadrant wel governed data uit kwadrant I combineren met een eigen dataset in kwadrant IV, prima!”

De reis door de kwadranten Om waarde uit data te halen kun je verschillende bewegingen maken in het model. Je kunt van een op feiten gebaseerd datamanagement toegroeien naar een model waarin ook de context belangrijk is (van kwadrant I naar II). “Eigenlijk is dit de klassieke reis van ‘ontsluit data en maak een informatieproduct”, zegt Damhof. Dit werkt echter vaak slecht omdat dit traject uitgaat van bekende eisen en wensen van de gebruiker. “En dat weet die gebruiker echt niet van tevoren.” Veel organisaties kiezen voor een meer agile gedreven vorm. Van kwadrant I naar kwadrant IV naar kwadrant II. Laat de medewerkers in kwadrant IV op iteratieve wijze met de data in kwadrant I/III komen tot een informatieproduct. En alleen als het van belang is om dit onder beheer te brengen, dan promoveer je het product naar kwadrant II.

30


INTERVIEW

Het is ook mogelijk om vanuit kwadrant III te bewegen naar IV. “Je hebt je eigen datasetjes en je wilt wat proberen? Prima…”, zo zegt Damhof. De enige beweging die een organisatie nooit en te nimmer mag maken is die van kwadrant III naar kwadrant II. “Want in dat geval gebruik je data waarvan je niet helemaal zeker bent omdat er geen goede governance op wordt toegepast op een manier die wel om die governance vraagt. Een voorbeeld is een compliance rapport voor de toezichthouder dat je wilt maken met data waar geen governance op staat. Dat moet je niet willen.”

How we produce, process variants Push/Supply/Source driven

DataPush/ Pull Point

Pull/Demand/Product driven

Systematic I

Facts

II

Context

Development Style

“Shadow IT, Incubation, Ad-hoc, Once off”

III

Research, Innovation & Design

IV

Opportunistic

Maak datamanagement bespreekbaar Damhof merkt in zijn dagelijkse praktijk dat zijn datakwadrantenmodel organisaties helpt om te praten over datamanagement. “Bij mijn huidige klant, De Nederlandsche Bank, hoor ik tegenwoordig regelmatig de kreten: ‘ik wil dit dataproduct graag van kwadrant IV naar kwadrant II brengen’, ‘we moeten eerst de data in kwadrant I zetten’, ‘degene die de data aanlevert is toch echt verantwoordelijk voor de data in kwadrant I’, ‘ik wil wat ruimte om data in kwadrant III tijdelijk op te slaan’. Iedereen weet dan wat dat betekent. Dat is nieuw, op die manier heeft de organisatie nog nooit over data nagedacht. En dat geldt eigenlijk voor vrijwel ieder data-intensief bedrijf. Organisaties praten al heel lang over ‘data als een asset’, maar in de praktijk gaan ze op een heel ongestructureerde manier met data om, waardoor ze die asset nooit ten gelde maken. Nu organisaties steeds meer data genereren, kunnen ze niet langer zo slordig ermee omgaan. Dit is dé tijd om datamanagement goed op poten te zetten. Het datakwadrantenmodel helpt daarbij.” ■

31


CASE

De fusieplannen van Onze Lieve Vrouwe Gasthuis (OLVG) en Sint Lucas Andreas Ziekenhuis worden realiteit. Rob van Bruggen, hoofd bedrijfsinformatie bij OLVG, zet zijn tanden in het samenbrengen van de data van deze twee ziekenhuizen. Welke lessen heeft hij tot nu toe geleerd en wat is zijn advies aan anderen?

32


CASE

Het advies van Rob van Bruggen, hoofd bedrijfsinformatie bij OLVG:

“GEEF IEDER DATABLOKJE EEN EENDUIDIGE NAAM WAAR IEDEREEN ZICH AAN HOUDT” 33


CASE

Rob van Bruggen

HOOFD BEDRIJF­SINFORMATIE

De integratie van de data van twee ziekenhuizen is een grote uitdaging. Hoewel de ziekenhuisprocessen op hoofdlijnen vergelijkbaar zijn, zitten er behoorlijk wat verschillen in de details en de manier waarop activiteiten worden geregistreerd. Dat was voor het OLVG en het Sint Lucas Andreas Ziekenhuis niet anders.

De lessen van data-integratie Data loopt door alle gelederen van de organisatie van een ziekenhuis. Deze data omzetten naar overzichtelijke inzichten voor het management en de Raad van Bestuur van het ziekenhuis, zorgverzekeraars en inspecteurs van onder andere het NIAZ vraagt om een consistente basis. Van Bruggen is projectleider van een groot project om de belangrijkste data van de beide ziekenhuizen bij elkaar te brengen: financiële data, organisatorische data en medische data. Op basis van zijn praktijkervaringen is zijn belangrijkste advies aan anderen die voor een data-integratieproject staan: “Denk goed na over hoe je de analyselaag opbouwt – dat wil zeggen de feiten en de dimensies – en zorg ervoor dat je ieder datablokje een eenduidige naam geeft waar iedereen zich aan houdt.” Van Bruggen geeft een voorbeeld: “In één van de databronnen stond het veld ‘specialist’. Het andere ziekenhuis gebruikte de term ‘zorgspecialist’. Je weet bij specialist niet wat daarmee wordt bedoeld: is het een medisch specialist, of kan dit ook betrekking hebben op een senior verpleegkundige? Wat is de rol van die specialist: is hij behandelaar en eindverantwoordelijk, is hij operateur maar is een

34


CASE

“Denk goed na over hoe je de analyselaag opbouwt – dat wil zeggen de feiten en de dimensies” Rob van Bruggen

andere arts eindverantwoordelijk, of is hij doorverwijzer? In ons datamodel hebben wij nu gekozen voor ‘zorgverlener’ als naam voor de kolom. In het onderliggende data-element wordt gespecificeerd wat de rol van die zorgverlener bij deze patiënt is. Dergelijke informatie duidelijk en consistent vastleggen, is voor het ziekenhuis van belang maar ook de zorgverzekeraar.”

Automatische controles op kwaliteit van data Omdat met de hoeveelheid tabellen en kolommen waar de beide ziekenhuizen mee werken data­ kwaliteit niet handmatig valt te controleren, vinden er drie geautomatiseerde controles plaats. Iedere dag wordt automatisch de metadata uitgelezen en gecontroleerd. Een andere automatische controle is die op de aantallen rijen in de bronsystemen en het datawarehouse. Zo wordt duidelijk of alle data wel volledig in het datawarehouse zijn overgenomen. Tot slot vindt er een controle plaats op de hoeveelheid wijzigingen in de historische data. Van Bruggen: “Wij houden ook de historie bij, zodat we kunnen terugzoeken wie wat heeft vastgelegd. Stel nu dat er ineens een heleboel wijzigingen in de datastructuur van die historie zijn, dan is de kans groot dat er een wijziging is aangebracht in de datastructuur van het bronsysteem. Wij krijgen daar automatisch een seintje van, zodat we daar zicht op houden.”

Voor self service moet de basis op orde zijn De fusie en het daarop volgende data-integratieproject betekent dat de medewerkers van het Sint Lucas Andreas Ziekenhuis dezelfde mogelijkheden krijgen op het gebied van data-analyse als de medewerkers van het OLVG. Dit laatste ziekenhuis heeft al enkele jaren een self service portal, die intensief wordt gebruikt door medisch specialisten, verpleegkundigen, afdelingshoofden en leden van de Raad van Bestuur. Het BI-team gaat ook de medewerkers van het Lucas Andreas begeleiden in deze nieuwe manier van werken. Om ervoor te zorgen dat het team alle vragen aan kan, is het volgens Van Bruggen belangrijk dat de basis op orde is. “We zien in het OLVG dat wij niet meer worden gevraagd om eenvoudige lijstjes te maken, zoals het aantal patiënten met een bepaald BMI die een bepaalde poli hebben bezocht. Iedere gebruiker weet hoe hij zelf zo’n lijstje kan genereren. We worden alleen nog ingeschakeld voor complexe vragen als trendanalyses of het maken van bepaalde voorspellingen. Het is nu de kunst om de medewerkers van het Lucas Andreas ook zover te krijgen dat ze zelf aan de slag gaan met self service BI. Dit vraagt om een basis die goed op orde is: de datastructuur, de naamgeving, betrouwbaarheid, controleerbaarheid, et cetera. Hoe beter die basis staat, hoe makkelijker het voor gebruikers is om zelf rapporten te genereren. Als medewerkers dat zelf doen, dan houden wij als BI-team de handen vrij voor de complexe analyses.” ■

35


CASE

36


CASE

DSM KRIJGT GRIP OP MASTER DATA

DSM voert MDM in, voortbouwend op successen met datakwaliteit

DSM is doordrongen van de waarde van een goede datakwaliteit. De mondiale onderneming die vanuit wetenschappelijke basis actief is op het gebied van gezondheid, voeding en materialen heeft al succesvol datakwaliteit doorgevoerd en bouwt daarop voort met SAS Master Data Management (MDM).

37


CASE

MDM is een methode om bedrijfskritische data centraal te beheren voor decentraal gebruik. Daarbij worden fouten en discrepanties aangepakt in de zogeheten Master Data: entiteiten als klantnamen, materiaalsoorten, toeleveranciers en andere datazaken die dwars door divisies en IT-systemen heen worden gebruikt. Consistentie in die kritieke bedrijfsdata is nodig om efficiënt te kunnen opereren. DSM krijgt met MDM grip op de ERP-systemen die het met grote overnames de afgelopen jaren in huis heeft gehaald.

Van staatsmijnen naar chemie en het milieu “We hebben 25.000 werknemers, maar vijf jaar terug waren dat er een stuk minder”, zegt Bart Geurts, manager Master Data Shared Services bij DSM. Geurts noemt de overname van Roche Vitamins in 2003 één van de grote aankopen die zorgden voor die groei. Tegenwoordig is DSM de grootste vitaminemaker ter wereld en dat brengt andere datavereisten met zich mee. “Het belang van goede datakwaliteit is heel groot, voor voedselveiligheid, gezondheid en voor smaak. Voor bulkchemie producten is dit minder kritisch.” Geurts verwijst daarmee naar de oorsprong van DSM, dat is voortgekomen uit de Nederlandse Staatsmijnen. “Oude bedrijven weten dat ze, om te overleven, zichzelf moeten heruitvinden.” DSM heeft zichzelf meerdere keren opnieuw uitgevonden: van mijnen naar petrochemie. En vervolgens de afgelopen jaren van fijne chemie naar life sciences en material sciences. DSM in de huidige vorm richt zich op opkomende markten en op klimaat & energie. Geurts noemt als voorbeeld lichtere materialen in auto’s als vervanging van staal, zodat ze zuiniger rijden. Daarnaast ontwikkelt het concern ook producten die worden gefabriceerd op basis van enzymen in plaats van olie. Kortom, andere activiteiten en andere markten, waardoor het bedrijf andere vereisten heeft ten aanzien van bedrijfsdata.

“Het belang van goede datakwaliteit is heel groot, voor gezondheid en voor veiligheid” Bart Geurts

Completer overzicht van de eigen organisatie De vele overnames die voor deze transformatie zijn gepleegd, brachten naast nieuwe activiteiten en mensen ook veel nieuwe IT-systemen met zich mee. Waaronder een groot aantal ERP-systemen, vertelt de manager. Bij het samenvoegen van die data kwam naar boven dat er ‘errors’ zitten in de vele verschillende IT-systemen. Geen zware fouten, maar discrepanties die pas naar boven kwamen door het gecombineerd gebruik van data en systemen. Geurts noemt als voorbeeld de personeelsviering van het nieuwe bedrijfslogo. “Bij het versturen van de uitnodiging voor dat bedrijfsbrede evenement waren we 800 man ‘vergeten’. De oorzaak was een incompleet overzicht in de HR-omgeving. En zo waren er meer inconsistenties”, zegt Geurts. Bijvoor38


CASE

Bart Geurts

MANAGER MASTER DATA SHARED SERVICES DSM

39


CASE

beeld vervuiling in de gegevens van toeleveranciers. Dezelfde leverancier kan in verschillende landen andere namen hanteren. In de diverse systemen van een multinational kan zo’n bedrijf dan te boek staan als schijnbaar verschillende bedrijven.

MDM koppelen aan bedrijfsprocessen Eerder heeft DSM al successen geboekt met het optimaliseren van datakwaliteit . Op basis van die positieve ervaring en resultaten werd de opstap gemaakt naar een centrale MDM-aanpak. Geurts geeft aan dat de bedrijfsdata wel goed genoeg is voor transacties die binnen een bepaalde silo plaatsvinden, zoals een land of bedrijfsdivisie. “Maar zodra er cross-divisie wordt gewerkt, duiken er soms problemen op.” ERP-leveranciers doen ook wel aan MDM, maar Geurts vertelt dat de focus daarbij teveel op de individuele silo’s ligt. Daarom koos DSM voor de MDM-oplossing van SAS. Geurts benadrukt het belang van de koppeling tussen MDM en de business processen. Daarmee wordt namelijk het nut voor de organisatie als geheel en voor de individuele divisies die elk in hun silo opereren duidelijker. Belangrijke vraagstukken die spelen zijn: wie binnen de organisatie moet de eigenaar zijn van het MDM-proces? Wie speelt welke rol? En welke KPI’s (key performance indicators) worden gehanteerd? Een mogelijke bedrijfsbrede KPI voor MDM is het meten hoe lang het duurt voordat één bestelling van een klant is verwerkt, uitgeleverd en gefactureerd.

‘Think big, act small’ Het opzetten van het MDM-proces en het adresseren van de vraagstukken daarbij was volgens Geurts het gemakkelijkste gedeelte. Hij omschrijft dat als: “bedacht op de sofa”. Toen kwam de fase van uitvoering, waarbij er bewust is gekozen voor een relatief klein begin. “We hebben een pilot gedaan bij de sourcing-afdeling: think big, act small.” Overigens is dat ‘klein’ geheel relatief. Het grote DSM telt verspreid over de wereld zes sourcing front offices en twee back offices. Bij deze kleine pilot werd als eerste de inconsistenties qua toeleveranciers aangepakt. De data over vendors, waar ook doublures tussen zaten, is opgeschoond door onder meer het toepassen van verschillende taalalgoritmen in het SAS MDM-product. “De complexiteit zit in de details”, weet de manager uit ervaring.

Welke data is kritiek voor je business? Naast het aanpakken van de vervuiling in de toeleveranciersdata werden ook stappen gezet op andere Master Data onderdelen. Aan de betrokken kantoren is de vraag gesteld: welke data zijn kritiek voor jouw business? “Want we konden niet alle data analyseren.” Dat zou namelijk een te grote operatie worden en een te zware belasting op die systemen vormen. Bovendien sloeg de vraag welke data kritiek zijn een brug tussen het MDM-initiatief en de betrokken bedrijfsonderdelen. Zíj bepaalden immers zelf de selectie van data die cruciaal zijn voor hun eigen processen. Zo’n selectie is vanwege de reikwijdte van Master Data nodig. Master Data is bij DSM gedefinieerd als alles wat ten grondslag ligt aan processen en transacties. Op het eerste oog kan elke fout dan inefficiëntie veroorzaken, maar in hoeverre dit ook gebeurt ligt aan het soort data. “Als het telefoonnummer van een salespersoon bij een toeleverancier incorrect is, dan kun je wellicht nog gewoon mailen”, legt Geurts uit. Zo’n uitwijk is er niet wanneer bijvoorbeeld een bankrekeningnummer of een leveranciersadres niet klopt.

40


CASE

Fouten voorkomen Op basis van deze zelfbepaalde kritieke data door de betrokken units zijn vervolgens data rules opgesteld. “Dat kostte ongeveer een half jaar, waarna de implementatie in zo’n drie weken werd voltooid.” Een duidelijk zichtbaar voordeel dat DSM dankzij MDM heeft behaald, is het voorkomen van fouten. Geurts noemt als voorbeeld een bestelling die wordt geboekt op naam van de verkeerde afdeling. Verder voert DSM een verbetering in voor de invoer van gegevens van toeleveranciers. Mensen maken namelijk wel eens fouten in het opzoeken van een bestaande toeleverancier of het invoeren van een nieuwe. Wanneer het opzoeken bijvoorbeeld niet succesvol is, wordt er een nieuwe entry aangemaakt die in wezen een doublure is. Aan die invoer wordt nu een algoritme gekoppeld dat controleert en dan de indiener vraagt: “Is dit wellicht de leverancier die je bedoelt?”. Naast deze interne voordelen behaalt DSM ook externe voordelen. “Wat als er een fout zit in een product of materiaal? Dan willen wij meteen weten in welke producten dat zit.” Snelheid is hierbij essentieel.

Keep on checking Belangrijk is ook om data na de initiële implementatie van MDM te blijven controleren. “Keep on checking! Anders heb je na twee of drie maanden weer problemen”, waarschuwt Geurts. MDM is immers een continu proces, dat actief moet blijven om te voorkomen dat er opnieuw fouten ontstaan die naderhand gefikst moeten worden. “Dat wil je niet, want dat verstoort je bedrijfsproces.” Het is zaak om alle betrokkenen in de organisatie daarvan te doordringen. ■

41


INTERVIEW

Data governance helpt met toekomstige informatie-ontginning

WIE IS UW DATAHOEDER? 42


INTERVIEW

De wereld van data gaat veel verder dan domweg verzamelen en te gelde maken. Dat laatste vereist namelijk datakwaliteit en vaak komt dan beheer om de hoek kijken. Geen traditioneel IT-beheer, maar ‘datahoeden’. Doet uw organisatie al aan data governance, en wie is dan uw datahoeder?

Een leek kan concluderen dat datakwaliteit en data governance op hetzelfde neerkomen. Dat is echter niet het geval, hoewel er natuurlijk wel een sterke relatie is tussen de twee disciplines. “Datakwaliteit is het uitvoeren van kwaliteitsregels. Data governance is breder”, begint technologieconsultant Bas Dudink van SAS Nederland zijn uitleg. “Wie is er verantwoordelijk voor de kwaliteit van data? Welke verantwoordelijkheden zijn er op dat vlak? Welke afspraken zijn hierover gemaakt?”

Waar komt uw data vandaan? Datakwaliteit gaat over bijvoorbeeld de juistheid van postadressen en personeelsbestanden. Om te beklijven heeft een kwaliteitsslag op dat gebied afspraken nodig en toezicht op de naleving ervan. Datakwaliteit is dan ook uit te voeren als een onderdeel van data governance, maar de twee zijn niet onlosmakelijk met elkaar verbonden. Data governance kan namelijk vanuit diverse richtingen komen. Het kan komen vanuit een bredere behoefte van de organisatie of vanuit opgelegde wet- en regelgeving. Dudink noemt het Basel-akkoord en de daaruit voortgekomen regulering voor financiële instanties. Banken krijgen daarmee de verplichting om te antwoorden op de vraag: Waar komt uw data vandaan? In de praktijk gebeurt al hetzelfde voor fabrieken, die bepaalde standaarden hanteren - of moeten hanteren - voor de materialen die zij gebruiken. Data governance gaat verder dan de herkomst van gegevens. Het omvat ook metadata en standaarden voor de formaten waarin gegevens worden aangeleverd, verwerkt en eventueel weer doorgegeven. Dat doorgeven geldt voor andere organisaties, zowel externe partners als interne afdelingen, maar ook voor toekomstige afnemers. Bijvoorbeeld voor informatietoepassingen die nu wellicht nog niet bekend of in zicht zijn. Daarmee overstijgt data governance afdelingen en bedrijfsprocessen. De omgang met data is nu vaak nog ingeperkt in de silo van een bepaalde bedrijfsactiviteit of -divisie. Het gebruik is dan ingericht op de huidige gang van zaken. “De primaire, dagelijkse processen lopen meestal wel”, schetst Dudink de praktijksituatie. “Maar voor nieuwe activiteiten of voor overkoepelende zaken als risicobeperking, zijn dan aanpassingen vereist.”

Meer management consultancy dan tech Het hoeden van data komt grotendeels neer op non-ICT-zaken als bedrijfsprocessen, organisatieprocedures, werkafspraken en controle op de naleving ervan. Een securitycomponent hoort hier ook bij: wie heeft toegang tot welke gegevens, hoe zijn die beveiligd? “Het is meer management consultancy: procedures opstellen”, geeft de SAS-expert aan. De technologiecomponent bedraagt naar zijn schatting een bescheiden 10 tot 20 procent van het totaal dat een data governance-project omvat. Kernvraag is hoe een organisatie met zijn gegevens omgaat, bijvoorbeeld om risico’s af te dekken. Dat is een zaak die niet voor een enkele activiteit of divisie moet gelden. Goed uitgevoerde data 43


INTERVIEW

governance neemt ook de toekomst in ogenschouw, zodat eventuele toekomstige afnemers van gegevens gemakkelijk en consistent bediend worden. Bijvoorbeeld voor nieuwe partnerships of voor nieuwe activiteiten. Een koppeling met datakwaliteit lijkt hierbij logisch en kan voor de langere termijn voordelen opleveren. Het alleen verbeteren van datakwaliteit zonder daar governance bij te betrekken, kan namelijk verzanden in een incidentele actie. Het wordt een operatie die óf telkens herhaald moet worden, óf waarvan het effect op een gegeven moment kan wegzinken. Een datahoeder kan dit voorkomen.

Stukje afsnijden vanwege KPI’s Wanneer een werknemer, leidinggevende of afdeling wordt afgerekend op bepaalde targets dan zullen die natuurlijk de focus zijn van deze partij. Indien daar een verantwoordelijkheid bij zit voor een activiteit waar niet op wordt afgerekend, dan zal die taak bij drukte of krapte logischerwijs het onderspit delven. Logisch, zakelijk, carrièregericht, maar lang niet altijd goed voor het bedrijf. Zoals bijvoorbeeld het geval was bij een callcenter. Zij gebruikten de wachttijd van klanten als hun belangrijkste KPI (Key Performance Indicator). Om op dat punt goed te blijven scoren, is tijdens een erg drukke kerstperiode besloten om bepaalde invulvelden in het CRM-systeem ‘even’ leeg te laten. Een bochtje afsnijden voor resultaat, of de hand lichten met bedrijfsprocessen? Als er geen consequenties worden gekoppeld aan dit gedrag is de kans aanwezig dat de tijdelijke aard van het weglaten van invulvelden vroeg of laat permanent wordt. Want het scheelt tijd en verhoogt dus de performance voor de bewuste afdeling en de betrokken manager. En zelfs als dit sombere scenario geen werkelijkheid wordt, is de schade al aangericht. Want wie gaat er naderhand nog die ontbrekende gegevens controleren, en eventueel alsnog invoeren? Er is dus een gat geslagen, een leemte in de dataschatkist. Een datahoeder had de organisatie kunnen beschermen tegen dit praktijkgedrag van het eigen callcenter.

Fouten niet langer benedenstrooms aanpakken Een ander praktijkvoorbeeld is het facturerings- en betalingsproces van een instelling in de gezondheidszorg. De tijd tussen factureren en betalen was lang en werd zelfs langer. Uit onderzoek bleek de eigenlijke oorzaak: de facturen bevatten foute verrichtingen. Vervolgens stelt de zorgverzekeraar die fouten aan de kaak, waardoor de zorgorganisatie in een tijd-rovend proces terechtkomt. Het moet telkens onderzoek doen naar de facturen waardoor de daadwerkelijke betaling substantieel wordt vertraagd. In plaats van het constant benedenstrooms corrigeren van de foute facturen koos de gezondheidszorginstelling ervoor om het probleem bovenstrooms aan te pakken. Reeds bij de invoer van de verrichting bij de patiënt worden verschillende datakwaliteitsregels afgevuurd en krijgt de invoerder directe feedback op zijn keuze, met de mogelijkheid om direct te corrigeren. De consequentie is dat de betaaltermijnen van facturen meetbaar korter zijn geworden. Bijkomende voordelen waren bovendien dat managementrapportages, analyses maar ook de relatie met de zorgverzekeraar zijn verbeterd. Het is eigenlijk een kinderlijk eenvoudig, universeel principe: datgene wat je bovenstrooms verbetert verdien je benedenstrooms dubbel en dwars terug. Maar als dit dan zo logisch is, waarom zien we dit principe dan zo weinig terug in het management van de data in organisaties? Waarom beginnen we met het maken van complexe datawarehouses (zuiveringsinstallaties) in plaats van het zuiveren van het water aan de bron?

44


INTERVIEW

“Datgene wat je bovenstrooms verbetert, verdien je benedenstrooms dubbel en dwars terug. Maar als dit zo logisch is, waarom beginnen we dan zo vaak met het maken van complexe datawarehouses in plaats van het zuiveren aan de bron?” Bas Dudink

Holistische aanpak Data governance kan voorkomen dat er leegtes ontstaan in de dataschatkist en dat constant tijdrovend bijsturen vereist is. Hoe pak je dit aan? Het begin van data governance is volgens Dudink een tapdans. Stap één is veelal datakwaliteit. Aangezien dáár het daadwerkelijke probleem zit. Het begint echter met besef binnen een bedrijf voordat die eerste stap gezet kan worden. Dat besef kan er zijn, en datakwaliteit kan dan verbeterd worden, alleen is er daarmee dan geen zicht op het bredere pers­ pectief. “Datakwaliteit wordt dan stapje voor stapje gedaan”, vertelt de SAS-consultant. Het advies is om een holistische aanpak te hanteren voor data governance.

De tijdigheid van waarde Dat klinkt op zichzelf wellicht complex, maar bij data governance komt er méér om de hoek kijken. Het heeft hordes die verder gaan dan simpelweg ICT en databeheer. “Ja, data governance is niet makkelijk, zelfs complex”, noemt expert Dudink het. Het gaat om theorie versus praktijk. In theorie is data belangrijk; zowel de kwaliteit ervan als het toezicht daarop. In de praktijk is dat belang niet altijd overal even goed vastgelegd. Er is niet altijd geïdentificeerd wie de hoeder van welke data hoort te zijn. Daarbij speelt niet alleen wie er verantwoordelijk is, maar ook of er wel waarde aan wordt gehecht. Of eigenlijk: of er wel op tijd waarde aan wordt gehecht. “Stel dat je dak lekt, maar de zon schijnt”, licht Dudink het aspect van tijdigheid toe. “Wanneer het begint te regenen, is het eigenlijk al te laat.” Data governance is niet eenvoudig. Het is een bedrijfsbrede operatie die ICT overstijgt en die zaken raakt als business operations, bedrijfscultuur en HR. Maar uiteindelijk kan data governance in de datadriven wereld van nu juist weer bedrijfsbreed voordeel geven. ■

45


COLUMN

THE NEW IT

Jill Dyché

VICE PRESIDENT SAS BEST PRACTICES

Iemand verdeelde de wereld ooit in twee typen mensen: degenen die anderen graag categoriseren in twee typen en degenen die dat niet doen. Ik was lange tijd een van die mensen uit de eerste categorie. Ik verdeelde managers onder in business gefocust of op technologie gefocust.

En ik zie dat anderen ook die neiging hebben. Het maakt niet uit of ik met klanten praat over analytics, CRM, data of ‘the digital enterprise’, altijd stellen ze vroeg of laat de vraag: wie is de eigenaar, business of IT? Deze vraag over eigenaarschap van IT-gerelateerde projecten speelt in bedrijven wereldwijd. Het lijkt erop alsof iedereen gefocust is op anderen: wie moet hier eigenaarschap over nemen? Wie kijgt de credits hiervoor? Uit wiens budget komt het?

Door te kijken naar bedrijven die succesvol het gat dichten tussen business en IT, zag ik dat zij op drie fronten overeen kwamen: »

46

Deze bedrijven hadden leiders die begrepen dat het verantwoordelijk maken van bepaalde mensen of het veranderen van organisatiestructuren niet voldoende is voor een digitale transformatie. Het gaat erom dat je IT inzet om ook daadwerkelijk op een andere manier te gaan werken, volgens nieuwe processen. Alleen dan verzeker je dat verandering ook wordt geadopteerd door de medewerkers.


COLUMN

»

»

Deze bedrijven hielden bij hun digitale transformatie rekening met de cultuur. Van oudsher wordt er vaak ofwel top-down ofwel bottom-up gewerkt. Ook zorgden ze ervoor dat nieuwe processen en een nieuwe manier van werken weliswaar nieuw genoeg waren om uitdagend te zijn, maar tegelijkertijd niet te ver af stonden van wat medewerkers gewend waren. Anders zou deze verandering kunnen worden gesaboteerd of lamlendigheid kunnen veroorzaken. Leiders in deze bedrijven veranderden niet omdat zij daar persoonlijk nu zoveel voordeel bij hadden. Ze veranderden omdat ze zagen dat trends zoals digitaal zakendoen een nieuwe benadering noodzakelijk maken.

Gebruikmakende van de trend dat digitaal zakendoen en innovatie de primaire drijfveren zijn voor make-or-break veranderingen, heb ik in mijn meest recente boek geschreven over praktijksituaties waarin succesvolle leiders niet alleen IT hebben getransformeerd, maar ook technologie op volledig nieuwe manieren hebben ingezet. In ‘The New IT: How business leaders are enabling strategy in the digital age’ komen verandermanagers aan het woord die de loopgraven hebben verlaten en nu op de bühne staan om hun verhaal te vertellen.

Het gaat niet langer om business versus IT. Het gaat over business mogelijk gemaakt door IT Wat ik van hen heb geleerd, heb ik allemaal beschreven in dit boek. In een notendop: » » » » » » » »

Als uw IT maar twee snelheden kent, dan bent u in grote problemen. De vraag ‘wat voor type CIO bent u?’ mist het punt. De echte vraag is: ‘wat voor type organisatie leidt u? Hoe moet die eruit zien?’ Samenwerken door iedereen in een kamer samen te brengen is niet meer goed genoeg. Sterker, het kan gevaarlijk zijn. De bedrijfsstrategie en de IT-strategie kunnen op één pagina met elkaar in lijn worden gebracht. Hiërarchie wordt vervangen door een organisatievorm zonder management, maar wel met hele duidelijke taken. En homogeniteit door diversiteit. Innovatie moet niet worden gedaan door een eliteteam dat in een ander gebouw zit en sushi krijgt bij de lunch. Iedereen moet onderdeel uitmaken van innovatie! Er zijn meer mensen die praten over digitaal dan dat er mensen zijn die het daadwerkelijk doen. U hoeft niet in Silicon Valley gevestigd te zijn om deel uit te maken van de revolutie. Sterker, misschien kunt u daar wel beter helemaal niet zitten.

In ‘The New IT’ laten managers van onder meer Medtronic, Union Bank, Men’s Warehouse, Swedish Health, Principal Financial en Brooks Brothers zien dat het niet langer gaat om business versus IT. Nee, het gaat over business mogelijk gemaakt door IT. ■

47


CASE

Kredietverzekeraar integreert kwaliteitsratio’s in risicobepaling

CRÉDITO Y CAUCIÓN VOEGT DATAKWALITEIT TOE AAN MANAGEMENTMODEL Voor een kredietverzekeraar is het van levensbelang om een goede inschatting te maken van de kans dat facturen niet worden betaald. Maar hoe doe je dat als je weet dat de kwaliteit van je data matig is? Crédito y Caución heeft van datakwaliteit een speerpunt gemaakt. Een kijkje in hun keuken.

Crédito y Caución is al sinds de oprichting van het bedrijf in 1929 marktleider in Spanje op het gebied van kredietverzekeringen. Momenteel bedraagt het marktaandeel circa 60 procent. Het bedrijf draagt bij aan economische groei door bedrijven te beschermen tegen het risico dat klanten die op krediet aankopen doen hun facturen niet betalen. Sinds 2008 maakt ook de Atradius Group, actief in Spanje, Portugal en Brazilië, onderdeel uit van het bedrijf. Het risicoanalysesysteem van het bedrijf heeft al meer dan 100 miljoen records verwerkt. De systemen monitoren meer dan 10.000 transacties per dag. Op basis hiervan wordt continu de solvabiliteit van het door de klant verzekerde portfolio berekend. Deze solvabiliteit bepaalt de limiet die Crédito y Caución afgeeft aan de klant. Het is dus van cruciaal belang om een goede inschatting te maken van het risico dat klanten van klanten hun facturen niet betalen, en op basis hiervan weer een juiste berekening te maken van de limiet die Crédito y Caución klanten oplegt. Om dit goed te kunnen doen heeft de krediet­verzekeraar uitgebreide informatie nodig over de klanten van klanten. Het spreekt voor zich dat de kwaliteit van deze data bepalend is voor het juist inschatten van het risico op niet betalen.

48


CASE

49


CASE

Aanpassen aan nieuwe regels Zoals alle Europese verzekeringsmaatschappijen moet ook Crédito y Caución voldoen aan het op risico’s gebaseerde toezichthoudende raamwerk voor de verzekeringsindustrie. Dit raamwerk bestaat uit de Solvency II richtlijn en de daarbij horende Implementing Technical Standards and Guidelines. Naast financiële eisen stelt Solvency II ook eisen aan de kwaliteit van data die door verzekeringsmaatschappijen wordt gebruikt. Dit onderwerp is niet langer optioneel; datakwaliteit is essentieel om te voldoen aan de eisen van de EU. Crédito y Caución heeft Solvency II compliance aangepakt door een visie te ontwikkelen die veel verder gaat dan wat de EU eist. “Informatie is onze belangrijkste asset”, zegt Miguel Angel Serantes, IT development manager bij Crédito y Caución. “Wij zijn experts in het lokaliseren, opslaan en analyseren van data, alsook in het verkrijgen van business intelligence uit deze informatie. De uitdaging waar Solvency II ons voor stelde, hebben wij aangegrepen als moment om een kans te creëren voor het incorporeren van kwaliteitsratio’s in ons informatiemanagement en in onze processen en procedures. Wij komen niet simpelweg tegemoet aan de eisen die de wet stelt, maar we zijn gedreven om overal in onze data management-processen alles te doen wat nodig is om een hoge datakwaliteit te garanderen.”

De eerste stap: datakwaliteit vaststellen De eerste stap bestond uit het uitvoeren van een assessment om de datakwaliteit vast te stellen. “We gebruikten daarvoor de assessment-optie in de oplossing van SAS”, vertelt Serantes. “De resultaten vertelden ons dat we nog een weg te gaan hadden. Dat is ook niet zo vreemd omdat veel data die wij gebruiken – denk aan bedrijfsnamen, telefoonnummers en belastingcodes – worden aangeleverd door derden. Er zit nogal wat variëteit in de kwaliteit van de door hen aangeleverde data. We besloten daarom om een data management kwaliteitsmodel te implementeren en kozen als IT-oplossing voor SAS. Die software integreerden we in ons eigen managementsysteem.” Serantes en zijn team ontwikkelden de fundering voor een datamanagement beleid door vast te stellen aan welke criteria data moet voldoen voordat deze mag worden opgenomen in de systemen. Die criteria waren dat data accuraat en compleet moet zijn en passend bij het doel dat Crédito y Caución ermee heeft. Het team stelde verschillende niveaus vast van eigenaarschap van data, zodat duidelijk werd wie verantwoordelijk was voor de inhoud, de definitie, het gebruik en de administratie van data. Voor iedere categorie van data werden compliancyratio’s vastgesteld zodat het mogelijk werd om via een systeem van indicatoren voor ieder stukje data het kwaliteitsniveau te bepalen.

Een evoluerend proces Crédito y Caución koos om verschillende redenen voor SAS, vertelt Serantes. “SAS levert al jaren lang informatie management software aan ons bedrijf. De relatie is altijd zeer soepel geweest. Er werkt zelfs een SAS-team bij ons in huis. Die mensen werken nauw samen met onze IT-afdeling. Dit heeft enorm bijgedragen aan de efficiënte integratie van SAS Data Management in onze informatie management systemen. Het is een oplossing die past bij onze behoeften. De software maakt het mogelijk om criteria op te stellen en attributen te definiëren om de kwaliteit van data te bepalen. De oplossing heeft bovendien opties om eenvoudig een assessment te doen, problemen te ontdekken die zich voordoen met datakwaliteit en onvolkomenheden te corrigeren. De software maakt het mogelijk om een langetermijnstrategie te implementeren en onze datakwaliteit permanent te monitoren.”

50


CASE

Miguel Angel Serantes

“Informatie is onze belangrijkste asset” Miguel Angel Serantes

IT DEVELOPMENT MANAGER BIJ CRÉDITO Y CAUCIÓN

Het uitrollen van het datakwaliteitscontrolesysteem duurde ongeveer een jaar, hoewel het volgens Serantes een proces is dat nooit eindigt. Bij Crédito y Caución ontwikkelt het zich ook nog steeds. De voordelen van het datakwaliteitscontrolesysteem en de technische oplossing die is geïmplementeerd zijn duidelijk. “Om te beginnen hebben we een data policy die heel duidelijk is en die iedereen in het bedrijf kent”, zegt Serantes. “We weten wat we met welke data doen en wie verantwoordelijk is voor ieder gebied van data. We kennen de zwakheden in de data en we weten hoe we data moeten corrigeren. SAS geeft ons bovendien inzichten in de oorzaak van inaccurate data. We verwachten dat we in de toekomst nog meer voordelen gaan behalen, zoals bijvoorbeeld de definitie van kwaliteitsdoelen voor iedere stukje data. Dit stelt ons in staat om te focussen op die controles die relevant zijn voor onze business.” Het doel van Crédito y Caución is om 100 procent kwaliteit te behalen in het managen van data die door het bedrijf zelf worden gegenereerd, want bij die data kan het bedrijf ook rigoureuze controle­ maatregelen nemen. Over data die wordt aangekocht bij externe bronnen heeft Crédito y Caución geen directe controle. Het doel is daar om standaardisatiecriteria op te stellen om zo te zorgen voor de maximaal haalbare kwaliteit. ■

51


INTERVIEW

KWALITEITSLAG CRUCIAAL OM GOUD TE DELVEN UIT DATA Tijd is geld, en tegenwoordig is data ook geld. Gegevens zijn hun ‘gewicht’ in goud waard. Het lijkt aannemelijk dat de kwaliteit van data geen issue (meer) moet zijn. Dat spreekt toch voor zich? “Ja, dat zou je wel denken”, zegt technologieconsultant Bas Dudink van SAS Nederland. “Maar de datakwaliteit is per definitie slecht.”

Data-expert Dudink weet de vinger op de zere plek te leggen van de vaak lage kwaliteit van data die bedrijven vergaren en benutten. “Datakwaliteit is slecht omdat iedereen dezelfde data gebruikt”, zegt hij. Dat klinkt wellicht tegenstrijdig maar is het niet. Enerzijds komt het erop neer dat data van lage kwaliteit gebruikt en hergebruikt wordt. Dus compleet met fouten, onvolledigheden, en gebrek aan context. Over dat laatste zegt Dudink beslist: “Data zonder betekenis heeft geen nut.” Anderzijds houdt het gebruik van dezelfde data door iedereen in dat voor verschillende gebruiksvormen en bedrijfsdoeleinden wordt geput uit dezelfde databron. Dat klinkt weliswaar als een zinnige aanpak, ook vanuit beheeroogpunt en gegevensinvoer. Maar verschillende toepassingen vereisen verschillende kwaliteitsniveaus van verschillende datavelden. Voor bijvoorbeeld toezending van producten aan een afnemer doen diens adresgegevens er zeker toe, maar het bankrekeningnummer niet. Voor facturering is dat juist andersom. En dit is nog een simplistisch voorbeeld, met datavelden die vrij opvallend zijn en in de praktijk wel aandacht krijgen. Of zouden moeten krijgen.

52


INTERVIEW

53


INTERVIEW

Lastiger wordt het bij kleinere dingen die toch grote gevolgen kunnen hebben. Denk aan leveringen tussen bedrijven met verschillende divisies, waarbij het ene bedrijfsonderdeel zaken doet met het andere. Subtiele verkoop- en/of inkoopverschillen kunnen grote variaties ten gevolge hebben. Geeft de ene divisie of de ene landsvestiging een bepaalde korting, of hanteert het andere leverings- of betalingstermijnen? De data van prijzen, voorwaarden en termijnen kan uiteenlopen en daarmee een lage kwaliteit vertegenwoordigen.

Het gevaar van onwetendheid Dudink voorziet zijn boute bewering dat datakwaliteit per definitie slecht is dan ook van een nuancering: “Het zit in de ‘eye of the beholder’. Wat voor de één goed genoeg is, hoeft dat helemaal niet te zijn voor de ander. Het gaat om besef.” Het ergste is namelijk niet eens zozeer dat gegevens niet allemaal in orde zijn. Nee, het ergste is de onwetendheid daarover. “Ignorance is bliss”, haalt Dudink een bekende wijsheid aan. Denken dat data correct en volledig zijn, om dan op basis daarvan te handelen en beslissingen te nemen, dát is het grote gevaar. Bijkomend probleem is de misplaatste notie die veel ondernemingen hebben dat ze geen databedrijf zijn. Terwijl eigenlijk elk bedrijf dat wel is, zeker nu! Dit geldt ook voor bijvoorbeeld een productiebedrijf. Het hele fabricageproces en het ontwerp van een productielijn is namelijk gebaseerd op data. Na ontwerp volgt in de praktijk vaak aanpassing: optimalisaties door ervaring opgedaan. Repeatability en verbetering, vat Dudink samen, dat zijn de kernhandelingen die drijven op goede data. Goede data leidt tot goede bedrijfsprocessen. Pas als de data op orde zijn, valt er op businessniveau te automatiseren. Een organisatie moet daarvoor dus wel besef hebben van de eigen datakwaliteit. “Ze moeten weten dat ze iets niet weten.” IT-leveranciers die data-oplossingen bieden, zitten dan ook meer in de consultingsferen dan in puur en alleen de softwarewereld. “Wij leveren niet alleen software, maar bieden ook advies.”

Verder gaan dan fouten wegpoetsen Dataverbetering staat dus los van tools en systemen. Het is vooral een kwestie van analyse: hoe komt welke data binnen bij een bedrijf, op welke manier en door wie aangeleverd? Dat zijn nogal fundamentele vragen, die kunnen tornen aan gevestigde processen en procedures. Of zelfs aan partners, want wie durft er ronduit te zeggen dat een toeleverancier of afnemer slechte data heeft doorgegeven? Toch is dat nogal eens het geval. “Als data niet klopt, moet je dat niet slechts aanpassen. Je moet het proces uitpluizen: waar komt de foute data vandáán?” Maar al te vaak wordt datakwaliteit gezien als een manier om fouten weg te poetsen. Daar speelt soms ook ego mee: de behoefte om een organisatie neer te zetten als geoliede machine. “De schijn ophouden”, noemt Dudink dat. Een goede aanpak van datakwaliteit gaat veel verder, veel dieper. In de praktijk geniet datakwaliteit geen grote populariteit. Als het gaat om lichtende voorbeelden, organisaties die vooroplopen met het verbeteren van hun datakwaliteit, dan wijst Dudink naar diegenen die daartoe zijn gedwongen door regelgeving. “Als aandacht voor datakwaliteit niet hoeft, dan

54


INTERVIEW

“Wat voor de één goed genoeg is, hoeft dat helemaal niet te zijn voor de ander. Datakwaliteit is slecht omdat iedereen dezelfde data gebruikt” Bas Dudink

doen de meesten het liever niet.” Regels en wetten die betere data afdwingen, doen dat om een concrete reden: risicobeheersing. Het wekt dan ook geen verbazing dat financiële instellingen zoals banken en verzekeraars tot de voorhoede horen. Zonder de stok van regelgeving heeft een organisatie een ‘champion’ voor datakwaliteit nodig. “Iemand die verspilling ziet, die de meerwaarde beseft van het aanpakken daarvan.” Het lastige is dat zo iemand een breed overzicht nodig heeft over de organisatie, plus inzicht en macht om verandering door te voeren. “Liefst een CIO”, vat Dudink bondig samen.

Basistip: begin klein Ondanks die noodzaak voor een hooggeplaatste aanvoerder voor - of trekker van - datakwaliteit is het aan te raden om met een klein project te beginnen. Waarbij klein afhankelijk is van de omvang de organisatie, en dus een relatief begrip is. Dudink adviseert om een begin te maken met bewust zo’n klein project als kiem. Een kweekvijver annex leerschool. Waarbij dan de projectinitiërende hogere manager top-down visie heeft om dat te combineren met een bottom-up aanpak. Juist die combinatie is nodig om de gewenste kwaliteitsverhoging voor bedrijfsdata te krijgen. ■

55


INTERVIEW

Snel, sneller, snelst. Dat is het credo van de moderne tijd. Dankzij IT kan en gaat alles veel sneller. Maar nu dreigt de data-explosie bijna teveel te worden. Goede analyse vergt immers tijd. Dat kan echter sneller. Event Stream Processing (ESP) en Decision Management geven een extra versnelling.

Datastromen analyseren en daar operationele besluiten op baseren

REAL-TIME GEFUNDEERDE BESLISSINGEN MAKEN HET VERSCHIL 56


INTERVIEW

We genereren steeds meer data, slaan steeds meer data op, koppelen steeds meer gegevens en willen steeds complexere analyses uitvoeren. “In bepaalde omgevingen krijg je zóveel gegevens dat het niet meer uitvoerbaar lijkt”, zegt Andrew Pease, principal business solutions manager, Analytical Platform bij SAS. “Alles opslaan kan dan toch te duur zijn, ondanks de alsmaar dalende kosten van opslag.” Bovendien gaat het om meer dan alleen de opslagkosten. De analysekosten spelen ook mee, vooral als die analyse achteraf plaatsvindt. Soms is er dan sprake van mosterd na de maaltijd; van een analyse die te laat komt om er nog baat bij te hebben. De oplossing is om real-time de data te filteren met Event Stream Processing (ESP) en er vervolgens een geautomatiseerd beslissingsproces op toe te passen met Decision Management-functionaliteit. Het automatiseren gebeurt op basis van de bedrijfsprocessen, waarbij er een ingebouwde koppeling is met de tactische en strategische beslissingsniveaus. Een beslissing op de werkvloer of dicht bij de klant is dan automatisch te nemen en strookt met de ‘hogere’ doelen van de organisatie.

Trends en afwijkingen op boorplatformen Pease noemt als voorbeeld van ESP de data-input van sensoren op boorplatformen. Trillingen kunnen daar worden opgevangen om in die data afwijkingen te detecteren. Afwijkingen kunnen aangeven dat er iets misgaat, dus is het zaak de analyse binnen een relatief kort tijdsbestek te doen. Belangrijk daarbij is focus en scope. “Je moet vooraf wel bepalen wat je wilt weten.” De SAS-expert legt uit dat het heus niet nodig is om trillingen elke seconde of elke minuut te analyseren. Een vast tijdsbestek per uur kan afdoende zijn. Het gaat erom de trends en afwijkingen eruit te vissen. Op basis daarvan kun je ook prognoses stellen. ESP kan dus voorspellende informatie geven.

Belbundels en extra zendmasten Een ander voorbeeld is de dagelijkse datapraktijk van telecom operators. “Telecombedrijven zijn enorme stockpiles van data”, aldus Pease. Elke keer dat er een telefoongesprek plaatsvindt, zijn daar zo’n 20 tot 30 call-detailrecords bij betrokken. “Maar die zijn niet allemaal belangrijk.” Uit het analyseren van de juiste databrokjes valt wel veel belangrijke informatie te halen. Voor de hand liggend is om het belgedrag van de klant te analyseren om die een betere bundel te kunnen aanbieden. Het belgedrag hoeft daarvoor niet zeer nauwgezet te worden bijgehouden; de

Event Stream Processing De toegevoegde waarde van Event Stream Processing is de mogelijkheid om in realtime grote hoeveelheden bijvoorbeeld transactie- of sensordata te monitoren en te analyseren, waardoor er onmiddellijk op bepaalde situaties kan worden gereageerd of worden ingegrepen.

57 61


INTERVIEW

grote lijn is vaak voldoende. “Als de klant op langere termijn teveel betaalt, wordt het risico dat hij weggaat groter.” Ook kan naar aanleiding van verbroken verbindingen worden besloten extra zendmasten te plaatsen. Een telecomaanbieder kan dankzij analyse van verbroken verbindingen precies bepalen waar de gebreken in de dekking of capaciteit zitten. Zodat een extra zendmast geplaatst kan worden op exact díe plek waar er teveel dropped calls zijn.

Beursfraude du moment opvangen De financiële wereld zit al een versnelling hoger dan de meeste andere sectoren. Zo gaat de aandelenhandel geautomatiseerd en supersnel. ESP kan daar helpen fraude vroegtijdig te detecteren, geeft Pease aan. De huidige razendsnelle handel verloopt te snel voor volledige opslag, laat staan voor tijdige analyse van die datastromen. “Het is dus zaak alleen de uitschieters op te slaan, de verdachte transacties.” Pease verwijst naar het vorig jaar verschenen boek Flash Boys, over de zogeheten flash traders (of: high-frequency traders). Auteur Michael Lewis beschrijft daarin een wel heel erg somber beeld van de handelswereld, waarin de snelheid van data cruciaal is. Hoe sneller de data, hoe beter de prijs van een koop of verkoop. Terwijl er ook kritiek op dit non-fictie boek is, zitten er vele interessante lessen en waarheden in. Pease vertelt over de sluwe truc van een Canadese trader die zijn handel in aandelen opdeelde in diverse stukken. Hij selecteerde daarbij een tweede server die net twee kilometer dichterbij de beurs lag en zorgde voor een exact getimede vertraging zodat zijn diverse orders op hetzelfde moment aankwamen bij de diverse clearing houses. Zo wist hij bulkhandel te bedrijven zonder dat zijn verkoop voor een lagere koers en daardoor lagere opbrengst zorgde. Sluw en nauwelijks detecteerbaar.

Snelle stromen bijbenen “Tegenwoordig gaan bepaalde datastromen zó snel dat het teveel data is om volledig te analyseren”, zegt Pease. De verwerking kost immers ook tijd. Net zoals de dalende opslagprijzen niet geheel compenseren voor de data-explosie, zo houdt de vooruitgang in rekenkracht niet altijd gelijke pas met de analysemogelijkheden. De sluwe truc voor aandelenhandel via servertiming is dus nauwelijk detecteerbaar, tenzij ESP wordt ingezet. Dan zijn de snelle datastromen enigszins behapbaar. De behoefte aan snelle of tijdige analyse neemt alleen maar toe. Dankzij de komst van steeds meer nieuwe toepassingen, steeds meer sensoren die data vergaren en steeds meer businessmodellen

Decision Management Het doel van Decision Management is om organisaties te verbeteren door ze in staat te stellen om sneller slimmere (operationele) beslissingen te nemen. Dit kan door gebruik te maken van alle beschikbare informatie in combinatie met het (geautomatiseerd) toepassen van analytische modellen en afgeleide business rules. Dit moet worden afgewogen tegen de beschikbare tijd en de eventuele risico’s.

58


INTERVIEW

“Voorheen was gedegen analyse het belangrijkst. Nu heeft snelheid een minstens zo’n groot belang”

Andrew Pease

die vertrouwen op analyse. Voorheen was gedegen analyse het belangrijkste. Nu heeft snelheid een minstens zo’n groot belang. Deze ontwikkelingen spelen vooral in de financiële sector, in de telecomwereld en in de manufacturing, weet de SAS-expert.

Bierbrouwen en de juiste kaas bij de wijn Fabricagebedrijven plaatsen steeds vaker sensoren in hun productie-omgevingen. Dit vindt plaats bij bijvoorbeeld fabricage van technologisch complexe en hoogwaardige producten. Maar de toepassing is veel breder. Het wordt bijvoorbeeld ook toegepast bij bierproductie: brouwers meten of er natte hop is binnengekomen. Op basis van die waarneming wordt de verwerking van de grondstof getimed. Daarnaast valt het onderhoud van de brouwketels beter in te plannen. ESP wordt naast manufacturing ook voor andere sectoren ingezet, zoals in de retail. Hetzelfde geldt voor Decision Management. Pease noemt de interessante mogelijkheden van scannergebruik door supermarktklanten. Heeft iemand aan het begin van de winkel een wijntje in de boodschappenwagen gelegd? Dan moet die klant nu een aanbod krijgen voor een bijpassende kaas. Dat passende aanbod kan eventueel gedaan worden door een prijsaanbieding te doen. Het achterliggende IT-systeem weet dat er momenteel een overschot is aan kaas die bijna de uiterste verkoopdatum heeft bereikt. Verkoop tegen een lagere prijs kan dus gunstig zijn. De winkel moet hiervoor wel een goede inventaris hebben van de voorraad, inclusief de houdbaarheid daarvan. Het gaat hier niet zozeer om terabytes maar vooral om snelheid: voordat de klant bij de kassa is. “Het gaat om de juiste aanbieding op het juiste moment.”

Telkens toetsen aan de bedrijfsstrategie De juistheid van het aanbod moet ook overeenkomen met de centrale bedrijfsstrategie. De kern van Decision Management is het centraliseren en standaardiseren van de strategie, zodat elke beslissing in overeenstemming is met de bedrijfsstrategie. Is een aanbieding van de marketingafdeling wel in lijn met de risk-afdeling? In het geval van een klant die veel aankopen doet, mag de aanbieding wel wat scherper zijn, mede met het oog op de waarde die zo’n klant heeft voor de langere termijn. Om dit adequaat te managen moet een organisatie dus wel zijn business rules goed definiëren. “Je moet ze op één punt invoeren en wijzigen.” Vervolgens is het zaak die regels consistent toe te passen in alle systemen en activiteiten van een organisatie. Alleen zo kun je de diverse silo’s van een organisatie overstijgen om effectief aan Decision Management te kunnen doen. ■

59


CASE

Informatievoorziening en gegevensmanagement zijn in relatief korte tijd belangrijk geworden voor ziekenhuizen. FinanciĂŤle verantwoording, verantwoording over de geleverde zorg en de kwaliteit hiervan richting patiĂŤnt, verzekeraar en instanties, het delen van medische informatie met andere schakels in de zorgketen, en in de nabije toekomst patiĂŤnten die hun eigen data verzamelen met e-health apparatuur en verwachten dat ze die bij hun dokter kunnen aanleveren. Het zijn ontwikkelingen die vragen om een stevig fundament onder allerlei vormen van data management. Voor business intelligence en analytics legt Gelre Ziekenhuizen dat verband in samenwerking met SAS.

60


CASE Gegevensmanagement cruciaal in verbeteren zorgkwaliteit en verlagen kosten

GELRE ZIEKENHUIZEN LEGT STEVIG FUNDAMENT ONDER INFORMATIEVOORZIENING

Gelre ziekenhuizen is een topklinisch ziekenhuis met vestigingen in Apeldoorn en Zutphen. Het ziekenhuis is op diverse deelgebieden al jaren bezig met Business Intelligence (BI). Natuurlijk op financieel administratief gebied, maar er lopen ook innovatieve projecten op het terrein van onder andere patiëntenlogistiek en het optimaliseren van de OK-planning. Aan BI-manager Martin Genuit de taak om al die initiatieven bij elkaar te brengen. En daarvoor zet hij eerst een stap terug. “We zien dat gegevensmanagement een heel belangrijk instrument wordt om een grote bijdrage te leveren aan het verbeteren van de zorgprocessen, de kwaliteit hiervan en om de kosten van zorg te verlagen. Dat bereik je alleen als je data met elkaar in verband kunt brengen. Als je bijvoorbeeld kunt traceren wat een betere OK-planning doet met je financiële resultaat, doorlooptijden en kwaliteit van zorg. Daarom is een eerste belangrijke stap om invulling te geven aan gegevensmanagement. Dat wil zeggen: aan het geheel van activiteiten dat nodig is om onze organisatie op het juiste moment over de juiste gegevens te laten beschikken.”

Direct terugkoppeling Om business intelligence en analytics een centralere rol in de organisatie te geven, valt de afdeling BI niet langer onder de financiële afdeling, maar rechtstreeks onder de Raad van Bestuur. Er zijn nauwe samenwerkingsrelaties met ICT en AO/IC (administratieve organisatie/interne controle). Medewerkers registreren natuurlijk al jaren, maar vaak zonder dat ze zicht hadden op de kwaliteit van de door hen ingevoerde data. Ze hadden evenmin zicht op wat er daarna met die informatie gebeurde. Daarom implementeert Gelre ziekenhuizen momenteel SAS Heartbeat. “Wat we daarmee willen bereiken is dat we een vinger aan de pols houden bij de registratie en het gebruik van data. We willen medewerkers via op hen toegespitste rapportages laten zien wat ze registreren, zodat ze ook zien wat de gevolgen zijn van een verkeerde registratie of een registratie die te laat gebeurt. Vroeger kregen ze vaak pas weken later een seintje dat een registratie waarschijnlijk foutief was. Dan konden ze niet meer terughalen wat er wel had moeten staan. Het doel van de implementatie van SAS Heart61 65


CASE

“Met SAS Heartbeat krijgen we meer controle op de registraties. We kunnen signaleren als iets afwijkt van wat we verwachten, zodat we foute registraties sneller kunnen opsporen en verbeteren” Martin Genuit

beat is dat er direct controle plaatsvindt op een registratie, zodat medewerkers direct terugkoppeling krijgen op basis van triggers.” Een trigger kan een vermoedelijk onjuiste registratie zijn, maar ook een vergeten stap in een zorgpad of een plotselinge verslechtering van een KPI. De meerwaarde hiervan is het grootst als registreren onderdeel is van het bedrijfsproces. “Dat kunnen we nog veel verder verbeteren door bijvoorbeeld te gaan werken met mobiele apps voor verpleegkundigen, zodat zij aan het bed bij de patiënt informatie kunnen invoeren”, weet Genuit. “Voor dit soort toepassingen moet je je gegevensmanagement op orde hebben. Dat is het fundament en dat is wat we nu aan het leggen zijn.”

Vertaling van logische naar fysieke data Genuit wijst erop dat gegevensmanagement een breed begrip is waar veel onder valt: welke gegevensverzamelingen hebben we? Wie is de eigenaar van die gegevens? Wie houdt de gegevens bij? Waar staat de data en in welke vorm? Waar worden de data voor gebruikt? Wat zijn de voorwaarden voor gebruik? Wat is de kwaliteit van de data? En hoe wordt die bewaakt? Hoe is de structuur van data? En welke relaties liggen er tussen gegevens? Het levert voor een ziekenhuis een complex landschap op, waarbij duidelijk wordt dat degene die de data registreert vaak niet degene is die de data daarna ook het meest intensief gebruikt. Bovendien zit er een verschil tussen de logische data (de betekenis ervan) en de fysieke (de vorm waarin het

62


CASE

moet worden vastgelegd). De BI-afdeling loopt door haar taken dagelijks tegen deze complexiteit aan. Hij ziet het als een verantwoordelijkheid van alle informatie georiënteerde afdelingen binnen het ziekenhuis om daar gezamenlijk wat aan te doen. Hij geeft weer een voorbeeld: “Artsen moeten DBC-codes registreren. De gebruikte coderingstelsels zijn niet aan bij hun taal. Daardoor ervaren zij registreren als een last. Er zijn diverse ook landelijke initiatieven om te zorgen voor een vertaalslag, zodat de arts kan registreren in zijn jargon, terwijl die registratie toch in DBC-taal in het systeem terecht komt.” Zo ver is het nog niet. “Dit vergt dat we niet alleen inzicht hebben in ons gegevenslandschap, maar dat we ook onze gegevenscatalogus op orde hebben. We hebben een gegevenswoordenboek nodig dat we kunnen gebruiken bij de vertaling. Dat woordenboek moet uiteraard ook aansluiten op landelijke gegevenscatalogi.”

Controle op registraties Dit zal nog behoorlijk wat inspanning vergen. Daarom begint Gelre ziekenhuizen bij het begin: het verhogen van de datakwaliteit. Dat wil zeggen het verzamelen, controleren en verrijken van data uit bronregistraties en externe bronnen. Hierin speelt SAS Heartbeat een cruciale rol. Genuit: “Met Heartbeat krijgen we meer controle op de registraties zelf. We kunnen signaleren als iets afwijkt van wat we verwachten, zodat we foute registraties sneller kunnen opsporen en verbeteren.” De tweede stap is om door middel van datavisualisatie het gebruik van data te laten toenemen. “Nu maken we nog rapporten oude stijl. Dat wil zeggen: weinig aantrekkelijk, vaak laat opgeleverd en vooral gericht op managementinformatie. Met SAS Visual Analytics maken we aantrekkelijke dashboards die in één oogopslag inzicht geven. We beginnen met dashboards voor de managementlagen, maar uiteindelijk willen we via self service BI iedere medewerker de mogelijkheid geven om zijn eigen visuele rapportages te maken, ook medisch specialisten en verpleegkundigen”, vertelt Genuit. De derde stap moet nog worden gezet, dat is die naar data science. Maar om die stap in de toekomst te kunnen zetten, is het fundament nodig dat nu wordt gelegd. Genuit ziet diverse mogelijkheden. “Denk bijvoorbeeld aan process mining: het analyseren en visualiseren van bedrijfsprocessen aan de hand van de data in je systeem. We willen dit jaar voorzichtig enkele pilots starten om te zien welke verbetermogelijkheden dit zou kunnen opleveren. Een ander voorbeeld is het gebruik van big data in klinische beslissingen, bijvoorbeeld welke behandelmethode heeft bij deze patiënt met deze specifieke kenmerken de beste kans van slagen?”

Belang van datakwaliteit Bij de uitrol kiest Genuit voor een combinatie van top-down en bottom-up. “We moeten top-down een structuur neerleggen en afspraken maken over wie wat op welke wijze registreert. Maar de ideeën hoe informatie kan worden toegepast moeten vanaf de werkvloer komen. Het mooie is dat we met de implementatie van SAS Heartbeat en Visual Analytics dat bewustzijn vanzelf creëren, want medisch specialisten en verpleegkundigen worden nu geconfronteerd met de gevolgen van een onjuiste of ontijdige registratie. Ze zien ook dat data kan helpen de kwaliteit van hun werk te verhogen. De stip op de horizon is helder. De route er naartoe ligt nog niet helemaal vast. “Het wordt een spannend leertraject. Eén ding is zeker: we kunnen heel veel winst behalen als we de data die we toch al moeten vastleggen beter gaan gebruiken. We werken nu hard aan de fundering. Dat geeft een stevige basis voor alle plannen die we op termijn hebben.” ■

63


OVER SAS SAS begrijpt dat data vrijwel alles aanstuurt. Wij willen u graag helpen dit op de juiste manier te doen. Is uw data eenvoudig toegankelijk, schoon, geĂŻntegreerd en op de juiste manier opgeslagen? Weet u welke typen data in uw organisatie worden gebruikt en door wie? En heeft u een geautomatiseerde methode die inkomende data valideert voordat deze in uw databases wordt opgeslagen? Beter beslissingen nemen Dagelijks worden er in uw organisatie duizenden, misschien wel tienduizenden of honderdduizenden besluiten genomen. Alledaagse beslissingen die onderdeel zijn van een proces: kunnen we deze klant deze lening verstrekken? Welk aanbod doe ik een klant die ons contactcenter belt? Tactische beslissingen, zoals: waar ligt het optimum tussen preventief en reactief onderhoud van machines? Als we van de vijftien smaken er vijf willen schrappen, welke vijf moeten dat dan zijn? Maar ook strategische beslissingen over de koers van uw organisatie. Bijvoorbeeld: in welke product-marktcombinaties willen we aanwezig zijn? Bij al die beslissingen speelt informatie een rol. Hoe beter de kwaliteit van de onderliggende data, hoe beter de beslissingen zijn die u neemt. Uw data onder controle Ervoor zorgen dat data compleet, juist en tijdig zijn, is een complex karwei. Een karwei dat gelukkig voor een groot deel kan worden geautomatiseerd. Besteed minder tijd aan het vergaren en onderhouden van informatie en meer tijd aan het runnen van uw bedrijf met SAS Data Management. Deze oplossing is gebouwd op een uniform platform en ontworpen met zowel de business als IT in het achterhoofd. Het is de snelste, makkelijkste en meest veelomvattende manier om uw data onder controle te krijgen. SAS Data Management beschikt over in-memory en in-database performanceverbeteringen, die het voor u mogelijk maken real-time te beschikken over betrouwbare informatie. Processen inrichten Met een robuust data management-platform alleen bent u er niet. Als het gaat om master data management, data-integratie, datakwaliteit, data governance en data federation, spelen ook processen en gedrag een belangrijke rol. Wij kunnen u helpen om dit goed in te richten. Want het op orde maken van uw data is geen eenmalige activiteit, maar een continu proces. Bent u geĂŻnspireerd geraakt en wilt u weten hoe u meer uit uw data kunt halen? Neem dan contact met ons door een e-mail te sturen naar: sasinfo@sas.com. Of bezoek onze website: www.sas.com/nl.

64



COLOFON

Realisatie:

SAS Nederland Redactie:

Ilanite Keijsers Fotografie:

Eric Fecken Auteurs:

Jasper Bakker Jill Dyché Mirjam Hulsebos Chantal Schepers Cover:

Philip van Tol Vormgeving:

Alain Cohen Drukwerk:

Sijthoff Media Groep Projectbegeleiding:

SAS Nederland Het boek Future Bright – A Data Driven Reality – is gemaakt in opdracht van SAS Nederland. Alle informatie uit deze uitgave mag uitsluitend worden overgenomen, gekopieerd of gereproduceerd met expliciete toestemming van de directie van SAS Nederland en met bronvermelding. SAS Nederland is niet verantwoordelijk voor uitspraken gedaan door geïnterviewde personen uit dit boek.

66


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.