Datamigratie kan niet zonder beheersing van de datakwaliteit, ook al zouden sommige projectleiders het datakwaliteitsaspect het liefst buiten hun project willen duwen, onder het motto: 'garbage in - garbage out' of 'datamigratie as-is'. Maar daar kom je m.i. niet mee weg. Voor de business is het essentieel dat de brondata gemigreerd kunnen worden en dat deze voldoen aan de gestelde kwaliteitseisen, zodat de bedrijfsprocessen correct kunnen worden uitgevoerd. Dat betreft niet alleen de bedrijfsprocessen die met het doelsysteem worden ondersteund. Het doelsysteem zal de gegevens mogelijk ook doorgeven aan andere systemen en ook daar gelden eisen voor de datakwaliteit. Ten eerste moet duidelijk zijn welke kwaliteitseisen er gelden en hoe hard deze zijn. Ook moet je een mechanisme hebben om data die hier niet aan voldoen te traceren en om hierover te rapporteren. Op basis daarvan kan besluitvorming plaats vinden over wat er met de slechte data moet gebeuren. De organisatie van die besluitvorming vraagt om een vorm van governance - een procedure of werkwijze met duidelijke verantwoordelijkheden en mandaten. Er zijn 4 mogelijke uitkomsten van deze besluitvorming. Dat maakt het lekker overzichtelijk. Iedereen weet daarna waar die aan toe is. In de tussentijd kunnen we de data waarbij geen fouten zijn waargenomen doorsturen naar het doelsysteem voor een proefmigratie. Ook al is de datakwaliteit nog niet op het gewenste niveau, hij is wel under control.
0 Comments
U weet dat informatie bepalend is voor het functioneren van uw bedrijfsprocessen. Zowel de kwaliteit als de kwantiteit hebben te leiden onder gebrekkige (kwaliteit van) informatie. U weet dus dat u zorg moet besteden aan uw data. Maar waar en hoe begin u? Zorg voor data - oftewel: datamanagement - vraagt om inspanningen. Zo moeten benodigde processen en hulpmiddelen worden gecreëerd en geïmplementeerd. De organisatie zal deze vervolgens gaan gebruiken om daarmee uiteindelijk de gewenste situatie te bereiken.
Medewerkers willen snel relevante informatie kunnen vinden zodat ze hun werk goed en efficiënt kunnen doen. Beheerders van informatie hebben beperkt tijd om informatie te classificeren en te onderhouden voor de medewerkers. Dit wordt steeds moeilijker omdat het volume van informatie toeneemt (elke 18-24 maanden verdubbelt de hoeveelheid) en vanwege de grote verscheidenheid aan typen van informatie (documenten, email, audio, video, chat, discussies, wiki's, databases, webpagina's, etc). Neem bijvoorbeeld de traditionele afdelingsschijf. Het is gebruikelijk om op een fileserver voor de afzonderlijke afdelingen van de organisatie afdelingsschijven in te richten. De J-schijf, G-schijf, of hoe de schijf dan ook genoemd wordt. De medewerkers van de afdeling slaan daar de documenten op die ze met hun collega's willen delen. Op de afdelingsschijf maken ze daarvoor allerlei submappen aan om structuur te brengen in de opgeslagen informatie. Het is frappant hoe snel dit aanjongt. Binnen de kortste keren is er een mappenstructuur ontstaan van duizenden submappen. In de Windows Verkenner (Explorer) zie je nooit het totaaloverzicht, omdat je steeds per submap één niveau kunt uitklappen. Daardoor valt het niet op hoeveel submappen er zijn ontstaan. En ook niet dat in de loop der tijd de mappenstructuur niet meer consistent is. De logische indeling van het begin is al snel verworden tot een allegaartje van verschillende inzichten. Alle wegwijzers op de digitale snelweg wijzen richting Big Data. Je kan tegenwoordig geen krant, tijdschrift of website meer openslaan of het gaat over Big Data en de impact op onze maatschappij. Daarbij wordt dan het beeld geschetst dat Big Data nieuwe inzichten oplevert, waarvan de maatschappij zal profiteren. De omvang van de digitale informatie in de wereld is niet meer te bevatten. De data-hoeveelheid explodeert nog meer sinds we ons omringen met apparaten die voorzien zijn van sensoren en een continue stroom van gegevens naar servers sturen. De Big Data-technologie kan extreem grote hoeveelheden en heterogene soorten data verwerken. Dat verwerken richt zich op analyse, het ontdekken van patronen en correlaties, en visualisatie, het presenteren van gegevens in 'infographics'. Veel grote organisaties zien mogelijkheden en willen innoveren met Big Data. Ze investeren in technologie en kennis in de hoop op nieuwe inzichten en instant succes, bijvoorbeeld door marktvergroting of procesoptimalisatie. Het ziet ernaar uit dat organisaties dankzij Big Data het belang en de mogelijkheden inzien van data. Het is dan ook te verwachten dat deze organisaties meer oog zullen krijgen voor het goed organiseren en beheren van data. Immers wat je belangrijk vindt, daar wil je goed voor zorgen. Dit geldt voor alles wat belangrijk is voor jouw organisatie: Voor de bussen van een busbedrijf; voor medicijnen van een apotheek; voor de leermiddelen van een school; voor de kostuums van een operagezelschap; voor de velden van een voetbalclub. Dus ook voor de data van jouw organisatie. Je wilt dat het op een juiste manier wordt verkregen, dat het goed wordt opgeslagen en op correcte wijze gebruikt wordt. Je wilt ook dat het van goede kwaliteit blijft. Ook zorg je ervoor dat onbevoegden er niet bij kunnen en zelfs dat het op verantwoorde wijze weggedaan wordt als dat nodig is. 'Big Data' wordt alleen 'Great Data' met goede zorg voor data . Met de Big Bang van Big Data dient zich dus de noodzaak aan om gegevens goed te organiseren en te beheren. Met het toenemend belang van data als productiemiddel neemt ook het belang van goede zorg voor data toe. Dat geldt voor het verkrijgen van de gegevens, de opslag, het gebruik, het beschermen tegen misbruik of verlies, en, last but not least, voor het verwijderen van gegevens. We zien nieuwe initiatieven ontstaan op het gebied van datamanagement: datakwaliteit, (master)datamanagement, document- en contentmanagement, data-architectuur, datagoverance en natuurlijk ook databeveiliging en -protectie. Voordat je gaat verhuizen ruim je ook eerst je spullen op en gooi je weg wat weg kan. Als je gaat
samenwonen bepaal je ook eerst wie zijn of haar bankstel meeneemt en welke bank op Marktplaats gaat. De te verhuizen spullen gaan in dozen die voorzien worden van stikkers: ‘Slaapkamer’, ‘Zolder’, ‘Keuken’, etc. Nadat de vrachtwagen is uitgeladen begint het uitpakken en inrichten. Het duurt soms nog weken voordat je goed bent ingericht. En die ene doos op zolder wordt misschien zelfs helemaal niet meer uitgepakt. Zo is het ook met datamigraties. In ieder systeem ontstaan in de loop der jaren datafouten. Deze wil je niet zomaar meenemen naar je nieuwe systeem. De werking van dit nieuwe en meestal ook dure systeem komt in gevaar door er onjuiste of onvolledige gegevens in te laden. Het gevolg daarvan is dat de bedrijfsprocessen, die door dit nieuwe systeem ondersteund moeten worden, niet goed uitgevoerd kunnen worden. Het risico bestaat dat het nieuwe systeem veel strenger is op datakwaliteit en niet overweg kan met foutieve data, terwijl het oude systeem daar misschien minder probleem mee had. Dergelijke problemen kunnen soms nog geruime tijd na de datamigratie aan het licht komen. Dus vóór de datamigratie willen we zoveel mogelijk de zaak op orde hebben. Daarbij gaat de aandacht natuurlijk naar de gegevens die meegaan naar het nieuwe systeem en waarvan we weten – of het vermoeden bestaat – dat slechte datakwaliteit verstorend is voor de datamigratie zelf of voor de werking van het systeem en de processen. Dit veronderstelt dat er al enige kennis is, hoe summier dan ook, over (de bedoelingen van het ) nieuwe systeem en de datamigratie. Vaak gebeurt dat op basis van impliciete aannames. Het is daarentegen beter om die aannames van meet af aan expliciet te maken door bijvoorbeeld een eerste houtskoolschets van de datamigratie te tekenen en daarbij lijsten te maken van welke gegevens zeker meegaan, misschien meegaan en zeker niet mee gaan. In feite begint het datamigratietraject daarmee al in een heel vroeg stadium. Naarmate het traject vordert wordt deze schets steeds definitiever en gedetailleerder. Zo groeit ook gaandeweg het inzicht in de uit te voeren schoningsacties. Vooraf kunnen we nog niet uitputtend zijn in het definiëren van deze schoningsacties. Naarmate de kennis over doelsystemen, bronsystemen en datamigratie groeit ontstaat ook meer duidelijkheid welke acties moeten worden uitgevoerd om de brongegevens op het minimaal vereiste kwaliteitsniveau te brengen. |
Categorieën:
Alles
Archief
Februari 2022
|