De meeste organisaties snappen het belang van en zien de waarde in het gebruik van hun data om hun organisatie te optimaliseren. Gericht op optimalisatie van activiteiten, nieuwe strategieën en scherpere besluitvorming worden budgetten toegewezen voor het initiëren van data-analyseprojecten.

Op dag 1 worden dan doorgaans de volgende vragen gesteld: welke gegevens hebben we? Welke inzichten hebben we nodig? En gaan we die inzichten visualiseren ? De meeste organisaties hebben daar op dat moment geen flauw benul van . En da’s is volkomen logisch. Er zit waarde in de data, maar hoe kan een reiziger een plek beschrijven die hij nog niet heeft verkend?

Fase 1: verkenning

We beginnen met het verkennen van het gehele zakelijke datalandschap. Hierbij kan gedacht worden aan data uit operationele systemen, logbestanden, sensoren, marketingdata, bedrijfsprocessen, spreadsheets, documenten, websites etc. Bij voorkeur beperkt deze fase zich niet alleen tot de eigen data van de organisatie, maar kijken we ook naar wat nuttige aanvullende externe data zijn.

Zodra de databronnen zijn geïdentificeerd vindt doorgaans een zogenaamde “profilering” plaatsom de inhoud, relaties, kwaliteit en bruikbaarheid van de data te begrijpen. De informatie die bij het profileren wordt verzameld, wordt gedocumenteerd in een “data dictionary”, en wordt gemodelleerd in conceptuele (zogenaamde logische) datamodellen om een goed functioneel inzicht te krijgen.

Deze verkenning is niet alleen de eerste fase in de ‘datareis’ van een organisatie, maar moet ook een continu proces zijn om altijd volledig op de hoogte te zijn van de beschikbare gegevens en de potentiële waarde ervan.

Fase 2: cureren

Nu de ruwe gegevensbronnen zijn geïdentificeerd gaan de data met een mooi woord cureren. Dit omvat het opschonen (hoe gaan we om ontbrekende waarden, uitschieters en inconsistenties), het organiseren en transformeren (aggregeren, combineren, omzetten) van ruwe data in een gestructureerd formaat dat geschikt is voor analyse.

Gecureerde data worden uiteraard gedocumenteerd en gemodelleerd in het data dictionary.

Fase 3: analyseren

Zodra de ruwe data is gecureerd wijn we klaar nauwkeurige, betrouwbare en representatieve analyses te maken. Dit proces omvat het toepassen van statistische technieken, kunstmatige intelligentie (AI) technieken, waaronder machine learning-modellen, en andere analytische methoden om de historische context van gegevens en prestaties uit het verleden te begrijpen (beschrijvende analyses), toekomstige trends te voorspellen, complexe patronen te identificeren en de besluitvorming te optimaliseren. (prescriptieve analyses).

Fase 4: storytelling

Storytelling op basis van data analyse gaat over het vertalen van inzichten naar verhalen die gebruikers kunnen begrijpen. Storytelling voegt diverse datasets samen die voorheen in silo’s bestonden. Klantgegevens vermengen zich met transactiegegevens, markttrends worden gecombineerd met operationele statistieken.

Belangrijk hierin is visualisatie. Filterbare grafieken en tabellen wordt gecombineerd in dashboards en onthullen in één oogopslag trends, correlaties en uitschieters. Een verkoopmanager kan de winstgevendheid meten, een marketingstrateeg krijgt inzicht in de impact van campagnes en een operationeel directeur kan de procesefficiëntie meten, allemaal door middel van de juiste visuele representatie(s).

Fase 5: actie

Met de verhaallijn in de hand en op het scherm is het tijd om uw inzichten en bevindingen om te zetten in nieuwe bedrijfsstrategieën, verfijnde marketingcampagnes en verfijnde budgetten. En welke keuze de organisatie ook maakt, deze wordt ondersteund door een data-gedreven analyse, en mogelijk een scenarioplanning.

Dus wat je nodig hebt...

Rekening houdend met al het bovenstaande heeft een organisatie die bereid is een dergelijke datareis te ondernemen een goede architectuur voor haar dataplatform nodig, afhankelijk van de use case(s), datavolumes, benodigde rekenkracht en de timing van de beschikbaarheid van data. , enz. In de volgende blog geven we een kort overzicht van de typische componenten waaruit een dergelijke architectuur voor een data-analyseplatform bestaat.