Informasjonsstyrte beslutninger gir økt produktivitet
av Prof. Ole-Christoffer Granmo
Dette er del 1 av en miniserie. Se del 2 her.
Bruker du historiske data når du tar beslutninger? Hvis ikke bør du kanskje begynne med det. Det viser seg nemlig at økt bruk av historiske data som grunnlag for beslutninger fører til økt produktivitet. Gjennom å lete i og undersøke bedriftens historiske data kan du få ny innsikt og bedre forståelse av hvordan bedriften din fungerer. Hvilke egenskaper kjennetegner for eksempel de gode markedsføringstiltakene, de verdifulle kundene som går tapt, salgsmulighetene eller flaskehalsene i forretningsprosessene dine? Gjennom å oppdage og kjenne igjen dette kan du forbedre markedsføringen, forsterke kundeforbindelsene, øke salget og redusere flaskehalsene som begrenser bedriften.
Du vil ganske sikkert kunne finne viktig innsikt i dataene som du allerede samler inn eller har mulighet til å samle inn. Dessverre har det tradisjonelt sett ofte vært nødvendig med manuell og tidkrevende databehandling før man klarer å trekke innsikten ut av dataene. Først må de riktige spørsmålene stilles, noe som er vanskelig i seg selv. Deretter må de relevante dataene samles inn, integreres, bearbeides og gjøres tilgjengelig. Til slutt kan analytikerne undersøke dataene for å finne svaret på spørsmålene du stilte.
Dette er tidkrevende og
kostbart. Overraskende nok kan svarene du får likevel være feil. Dette gjelder
også svarene andre aktører har funnet ved hjelp av tilsvarende analyser, og som
du baserer beslutningene dine på. Forklaringen er enkel. Tidkrevende og kostbar
databearbeiding begrenser størrelsen på datagrunnlaget – man må basere
beslutningene på et lite utvalg data fra en kompleks og omfattende virkelighet.
Hvis datagrunnlaget for eksempel viser at en bestemt form for
markedsføringstiltak ikke har effekt, kan situasjonen i virkeligheten være
motsatt: formen for markedsføringstiltak har faktisk effekt, og det vil du kun
se hvis du skulle finne på å samle inn nye data for å danne deg et mer komplett
bilde.
Informasjonsstyrte bedrifter tar
i bruk data på en helt ny måte. De samler inn og integrerer rett og slett alle de
dataene som potensielt kan være av interesse. Det
kan være snakk om data fra kundeundersøkelser, aktivitet på web-portalen,
sensorer koblet til maskiner og utstyr, salgsaktivitet, feedback fra
personale, pågående markedsføringstiltak, smarttelefon-apper, sosiale
medier, offentlige åpne kilder, osv..Dette gir selvsagt enorme mengder data, men håndteres ved
hjelp av såkalt Big Data teknologi, hvor Open Source-løsningene er ledende. Innsamlingen
utføres fortløpende, i sanntid. Du kan for eksempel sammenligne en pågående
markedskampanje med tidligere kampanjer, og optimalisere effekten av kampanjen
fortløpende, etter hvert som du lærer hva som fungerer og ikke fungerer fra
datagrunnlaget som samles inn.
Jo større mengder med data, dess
sikrere blir innsiktene du henter ut. I
motsetning gir tradisjonell analyse kun en begrenset sikkerhet. Innenfor
tradisjonell analyse opererer man typisk med 95% konfidensintervall for å
skille reell innsikt fra tilfeldigheter. Dette betyr at man risikerer at analyseresultatet
blir feil i 5 % av analysene som utføres. Hvis du for eksempel har funnet ut at
en bestemt type markedskampanje fungerer bedre enn en annen type kampanje,
risikerer du at situasjonen likevel er motsatt i fem av hundre tilfeller. Den
kampanjen som ved første øyekast ser ut til å fungere best, kan i
virkeligheten være den kampanjen som fungerer dårligst.
En informasjonsstyrt bedrift samler
inn data og utfører analyser fortløpende, etter behov, som en del av den
daglige driften. De historiske dataene brukes aktivt når man tar beslutninger,
og analysene er innarbeidet i beslutningsprosessen, alltid oppdatert med de
nyeste dataene. Dette sikrer at beslutningsgrunnlaget gir et mest mulig
dekkende bilde av virkeligheten. Etter hvert som dataene strømmer på nærmer du deg
faktisk 100% sikkerhet. Altså, i stedet for å være 95% sikker på at en bestemt kampanje
er bedre enn en annen, kan man i det nye paradigmet bli tilnærmet 100% sikker
på at den er det, eller 100% sikker på at den ikke er det, bare datamengden
blir omfattende nok. Dette betyr videre at også svært støyfulle datakilder kan
tas i bruk. Støyen elimineres raskt av de enorme mengdene med data som
aggregeres.
I tillegg til økt sikkerhet og
mer treffsikre beslutninger, oppnår du også en annen gevinst. Du får svar på
spørsmål du ikke var klar over var viktige før du får svaret.
Datamining-teknikker finner korrelasjoner og årsakssammenhenger i dataene på
egenhånd. På denne måten utvinnes ny innsikt av forretningsmessig nytte. Hvis det
for eksempel oppstår korrelasjon mellom en bestemt reklame-layout og økt salg, kan
man ta denne kunnskapen i bruk umiddelbart ved å introdusere layouten i enda
flere reklamer. Dermed høster man gevinsten av analysen der og da. Samtidig gir
en fortløpende analyse også beskjed i det samme korrelasjonen svekkes eller
forsvinner, og du kan styre deretter.
Hvis du skal bli en vinner i
kjølvannet av dette paradigmeskiftet kreves det en ny form for kompetanse.
En rapport fra McKinsey - http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation - anslår at det bare i USA mangler 140,000 til 190,000 med nødvendige ferdigheter, såkalte “data scientists”. En dyktig “data scientist” mestrer et rikt utvalg av nøkkelferdigheter, inkludert evnen til å finne og tolke rike datakilder, evnen til å håndtere store mengder data når man er begrenset av hardvare, programvare og båndbredde, og ikke minst evnen til å integrere datakilder og sikre konsistens på tvers av datasett. Det er også viktig å kunne konstruere visualiseringer som gjør det lettere å forstå dataene, samt å kunne bygge kraftfulle verktøy som gjør det mulig for andre å jobbe effektivt med dataene. Målet er å gi bedriften et fortrinn gjennom bruk av datamining og prediktiv analyse.
En rapport fra McKinsey - http://www.mckinsey.com/insights/business_technology/big_data_the_next_frontier_for_innovation - anslår at det bare i USA mangler 140,000 til 190,000 med nødvendige ferdigheter, såkalte “data scientists”. En dyktig “data scientist” mestrer et rikt utvalg av nøkkelferdigheter, inkludert evnen til å finne og tolke rike datakilder, evnen til å håndtere store mengder data når man er begrenset av hardvare, programvare og båndbredde, og ikke minst evnen til å integrere datakilder og sikre konsistens på tvers av datasett. Det er også viktig å kunne konstruere visualiseringer som gjør det lettere å forstå dataene, samt å kunne bygge kraftfulle verktøy som gjør det mulig for andre å jobbe effektivt med dataene. Målet er å gi bedriften et fortrinn gjennom bruk av datamining og prediktiv analyse.
Conduct jobber for å realisere
verdien som ligger i åpne og innovative IT-løsninger som åpner for informasjonsstyrte
beslutninger. Vi har omfattende kompetanse innen analyse av data, både
strukturerte data i overkommelige mengder og Big Data. Conduct har to
medarbeidere med doktorgrad i prediktiv analyse og datamining med ekspertise
innenfor analyse og prediksjon, overvåkning og styring, optimering og
ressursallokering, data- og tekstmining, visualisering, simulering og
beslutningsstøtte, samt smarte applikasjoner. La oss hjelpe deg å utnytte dine
data for å optimere driften av din virksomhet.
Ingen kommentarer:
Legg inn en kommentar