Bliv en dygtig guldgraver i din virksomheds data
Mange ved, at der kan være store forretningsmæssige gevinster gemt i virksomhedens store mængder data. Men dataanalyse er kompliceret, og der er store faldgruber forbundet med at gå fra data til beslutningsgrundlag. Læs her, hvordan du kommer i gang.
Skrevet 13. september 2016 13:16 af Ninna Gandrup
- Udfordringen er, at mange virksomheder er gået fra at outsource dataanalyse til at hive dataanalyser hjem igen. De har fået øjnene op for, at data er blevet kernen i deres forretning, men har svært ved at gennemskue, hvilke data der er behov for, og hvilke kompetencer man skal bruge for at få de fornødne data omsat til beslutningsgrundlag, og derfor ender det ofte i ufokuserede investeringer, fortæller Rune Møller Jensen, som er underviser på kurset Data Analytics Insights og forsker på IT-Universitetet i København.
Den største fejl er, at man overvurderer, hvad teknologien kan og tror, at teknologien alene løser vidensspørgsmålet. Dermed undervurderer man analysearbejdet og betydningen af at forstå, hvilke data man arbejder med.
Rune Møller Jensen
Opfordringen fra Rune Møller Jensen til toplederne lyder, at de skal tage skeen i egen hånd og få indsigt i mulighederne for deres egen industri. Det er ikke nok bare at indsamle data og anvende avanceret teknologi. Data skal også behandles og analyseres korrekt for at skabe værdi, og her skal toplederen kunne gennemskue, hvilke teknologier og medarbejdere, der er behov for.
- Den største fejl er, at man overvurderer, hvad teknologien kan og tror, at teknologien alene løser vidensspørgsmålet. Dermed undervurderer man analysearbejdet og betydningen af at forstå, hvilke data man arbejder med. Det handler derfor om at få toplederne til at forstå, hvordan man arbejder med data, fortæller han.
Philippe Bonnet, som også underviser på kurset Data Analytics og forsker i Big Data på IT-Universitetet, understreger, at man tidligere havde al data samlet ét sted og kunne lave én samlet analyse for at få et fornuftigt beslutningsgrundlag. I dag derimod er dataanalyser ikke noget, man gør én gang for alle.
- For at få værdi ud af data, skal man jo gå fra rå ubehandlede kilder med fejl, anormaliteter og forskellige abstraktionsniveauer til data, der er klar til at blive analyseret. De færreste er klar over, hvor mange steder den proces kan gå galt. Særligt når data spredt udover forskellige dele af forretningen og forskellige personer, som tænker forskelligt. Dertil kommer, at databehandling er en kontinuerlig proces, som konstant er under udvikling. Man ved ikke på forhånd, hvilke spørgsmål man skal have svar på, forklarer Philippe Bonnet.
To perspektiver på dataanalyse
De to eksperter repræsenterer hver deres tilgang til dataanalyse. Det ene perspektiv kaldes top-down, hvor topledelsen stiller spørgsmål til data og får svar fra dataanalyser. Det andet perspektiv kaldes bottom-up, hvor man har masser af data, som kan give ny indsigt, men hvor man skal vurdere, hvordan det kan understøtte beslutninger og handlinger. Ingen af de to perspektiver kan stå alene.
Hvis man kun laver top-down analyse, så ender man med customized løsninger hver gang, som er alt for dyrt i længden. Bruger man kun bottom-up, får man ikke den rigtige indsigt, fordi den ikke er styret af organisatoriske behov.
Philippe Bonnet
- Hvis man kun laver top-down analyse, så ender man med customized løsninger hver gang, som er alt for dyrt i længden. Bruger man kun bottom-up, får man ikke den rigtige indsigt, fordi den ikke er styret af organisatoriske behov. Det handler derfor om at kombinere top-down med bottom-up, så man arbejder i en iterativ proces, siger Philippe Bonnet.
Siloer bremser ofte dataanalyser
Philippe Bonnet peger også på, at virksomheder med siloopdelte informationer har de største udfordringer. Her er nogle siloer bygget til at besvare visse spørgsmål, og medarbejderne er hverken trænet i at tænke på tværs af siloer eller vælge de rigtige værktøjer og analyser.
- Hvis man gerne vil lave analyser på tværs af siloer, så skal man gøre data tilgængelig på tværs. Det handler om format, model og integration mellem siloer. En ting er de tekniske formaliteter, noget andet er, at medarbejderne ofte kun har forståelse for den enkelte silo og ikke på tværs. Det handler om ledelse, og om at finde en infrastruktur, som gør det muligt at tænke data på tværs, forklarer Philippe Bonnet.
Philippe Bonnet taler derfor for, at man ikke bygger systemer, som man tror, kan besvare alle spørgsmål relateret til data. Det er stort set umuligt. I stedet skal man hele tiden kunne udvide systemet og tilpasse til nye datakilder, datatyper og formater.
- Det kræver tekniske systemer, som kan integrere nye former for data. Hvad gør man fx, hvis man pludselig får data fra GPS eller video? Det kan have stor betydning for hele processen omkring databehandling, fordi det giver mulighed for nogle helt nye data og informationer, som skal indarbejdes i processerne, siger han.
3 trin til dataanalyse
Som leder skal man derfor kunne afklare, hvad der er vigtigt, og hvad der er svært i forhold til dataanalyse. Ellers ved man ikke, hvor man skal indsætte ressourcer, og hvilke folk man skal bruge. Rune Møller Jensen og Philippe Bonnet giver her en metode til en proces for dataanalyse, som giver den nødvendige indsigt.
1. Undersøgelse Som leder vil man gerne undersøge en organisatorisk udfordring, fx hvorfor man mister kunder. Det svar kan man ikke umiddelbart få ud af sine data. I stedet skal man lave et mindmap og en brainstorm, hvor formålet er at finde de indikatorer, der viser, at en kunde er ved at afvikle sit engagement.
- Indikatorerne kan for en dagligvarebutik fx være frekvensen af brugen af kundekort, som fortæller, hvor meget de handler og hvor tit. Det kan også have betydning, hvilke varer kunderne køber. Det kræver indsigt i fx hvilke varegrupper, der dominerer et indkøb. Det er alt sammen predictors, som forudsiger en potentiel adfærd hos kunderne, fortæller Rune Møller Jensen.
2. Afklaring
Derefter spørger man sig selv, hvilke data man skal bruge for at få den viden. Man skal finde ud af, om man har den data og i hvilke databaser. Det er også her, man typisk opdager, at man ikke har en bestemt type data. Fx inddeler man ikke i varegrupper og har ikke data på det. Det kan også være data, som man slet ikke kan få adgang til.
- Et eksempel er, at mange containerrederier ikke gemmer, hvad der historisk set er booket til et skib. Man overskriver bare de eksisterende data. Når man mangler de data, kan man ikke lave et stærkt forecasting system, som optimerer processen for at laste skibene. Hvis man på den anden side skal logge den information, så skal man måske gemme tyve gange så meget data. Så man skal vurdere, om investeringen er det værd, fortæller Rune Møller Jensen.
3. Behandling
Når man har indsamlet data, skal det igennem en række processer, hvor data aggregeres og abstraheres. Det er her, man bliver teknisk og indsamler og renser data. Man undersøger, om man har data i den form, man ønsker fx varegrupper. Der kan være flere fejlkilder forbundet med fx kategorisering, som kan give fejl i de informationer, som senere skal udgøre beslutningsgrundlaget. Det kan også være, at data stammer fra én kontekst og skal bruges i en anden sammenhæng end den blevet lavet i, og derfor kan være mangelfuld.
- Når man har data på en passende form, kan man anvende algoritmer indenfor fx klassifikation og forecast. Her er man nødt til at lave analyser på, hvilke teknikker der passer bedst. Hvad karakteriserer de forskellige algoritmer? Tager det for lang tid at udvikle i forhold til, at man performancemæssigt ønsker et hurtigt svar, forklarer Philippe Bonnet.
Men processen stopper ikke ved valg af algoritme. Når man har integreret og implementeret en algoritme fra fx en producent, så skal outputtet også integreres i en arbejdsproces og forstås af organisationen.
- Det output, man får, skal også integreres i organisationen. Fx går det galt, hvis beregningerne ikke er transparente, men bare giver et forsimplet ”ja” eller ”nej”. Hvis man skal bruge resultaterne, er man også nødt til at forstå, hvad der ligger bag outputtet. Dernæst skal outputtet også integreres i arbejdsprocesserne, hvilket handler om forandringsledelse. Det kan være, at man går fra en type proces til en anden, når man integrerer en ny type data, hvilket betyder, at tingene skal gøres anderledes. Hvis du gør, som du hele tiden har gjort og ikke stiller nye spørgsmål, så får du heller ikke integreret ny viden, forklarer Rune Møller Jensen.