Hvorfor dårlige data, ikke dårlige modeller, ødelegger dine økonomiske prognoser
Hvorfor dårlige data, ikke dårlige modeller, ødelegger dine økonomiske prognoser
Oversikt
Hver gang en prognose bommer kraftig, skjer den samme samtalen. Noen spør om modellen må oppdateres. En leverandør blir invitert inn. En pilot blir godkjent.
Og det egentlige problemet flytter seg ikke.
I de fleste finansteamene vi jobber med over hele Europa, er ikke ustabilitet i prognoser et modelleringsproblem; det er et dataproblem. Modellen gjør akkurat det den var designet for å gjøre; den jobber bare med inndata som er ufullstendige, inkonsekvent definerte eller kommer for sent til å ha betydning. Å oppgradere algoritmen i den situasjonen fikser ikke prognosen. Det produserer en mer sofistikert versjon av det samme gale svaret.
Skjevheten ingen ser før det er for sent
Her er det som gjør dårlig datakvalitet så vanskelig å oppdage: den er usynlig helt til den ikke er det.
En systematisk oppadgående skjevhet på 3 % i inntektene dine gir ikke seg selv. Den flyter stille inn i bemanningsplanen din, driftsmodellen din og prognosen for fri kontantstrøm. Når den dukker opp i en diskusjon om varians på styrenivå, har den gått gjennom fire modellfaser og oppnådd troverdighet i hvert trinn. Etteranalysen konkluderer med at modellen fungerte som designet, noe som teknisk sett er sant. Ingen sjekket om inndataene var rene.
Dette er spesielt viktig i europeiske miljøer med flere enheter, hvor konsolidering på tvers av jurisdiksjoner, hver med sin egen kontoplan, lokale GAAP-justeringer og elimineringer mellom konsernselskaper, betyr at definisjonell inkonsekvens ikke er unntaket. Det er standard. Et omsetningstall fra et tysk datterselskap og et omsetningstall fra en nederlandsk enhet kan måle forskjellige ting, og en prognosemodell har ingen måte å vite det på med mindre noen løser definisjonen før dataene ankommer.
De fire tingene som faktisk driver prognosestabilitet
Når vi snakker om datakvalitet i en FP&A-sammenheng, er nøyaktighet (er tallene riktige) bare én del. Finansteamene med de mest stabile prognosene er disiplinert rundt fire ting:
NøyaktighetTallene stemmer overens med autoritative kildesystemer, ikke med regnearkutdraget fra forrige måned.
aktualitet: data er tilgjengelige med den kadensen modellen trenger. En T+5-lukking som gir en ukentlig rullerende prognose er et strukturelt problem, ikke et IT-problem.
fullstendighetDatasettet dekker hele enhetens omfang. I europeiske organisasjoner betyr dette vanligvis at datterselskaper som ikke er fullt integrert i ERP-systemet, estimeres i stedet for måles.
Definisjonell konsistens: hver variabel betyr det samme på tvers av hver kilde som mater modellen. Omsetning, antall ansatte, ordrebeholdning, forpliktet pipeline: hvis disse er definert forskjellig i CRM-systemet ditt kontra ERP-systemet kontra konsolideringslaget, forutsier ikke modellen din virksomheten din. Den forutsier gapet mellom taksonomiene dine.
Det siste punktet er der mest varians faktisk finnes, og det er det som får minst oppmerksomhet.
Der F&A BPO endrer ligningen
Interne finansteam har en strukturell ulempe her. Datastyringsarbeid er lite glamorøst, det går på tvers av forretningsenheter, og det konkurrerer om båndbredde med avslutningssyklusen, revisjonsforberedelser og hva enn kvartalets prioriterte prosjekt er. Det blir nedprioritert, ikke fordi noen synes det er uviktig, men fordi det alltid er noe mer presserende.
Det er nettopp her en erfaren F&A BPO-partner tilfører verdi som går utover kostnadsreduksjon. Når kjerneøkonomiprosessene dine drives av et team hvis hele driftsmodell er avhengig av rene, konsistente og rettidige data, slutter datakvalitet å være en bakgrunnshensyn og blir et leveringskrav. Avstemmingsbrudd blir fanget i pipelinen, ikke i styregruppen. Definisjonsavvik blir eskalert og løst, ikke stille anslått rundt.
Det europeiske regelverket forsterker dette. CSRD-rapporteringskrav, som gjelder for en betydelig andel av store europeiske selskaper, krever reviderbarhet og konsistens i ikke-finansielle data som er direkte avhengige av den samme datainfrastrukturen som FP&A-teamet ditt er avhengig av. For kunder innen finansielle tjenester hever Basel IV standarden for styring av modellinndata betydelig. Organisasjoner som behandler datakvalitet som et FP&A-problem snarere enn en bedriftsomfattende disiplin, opplever i økende grad at den regulatoriske kalenderen gjør denne posisjonen uholdbar.
Investeringssaken
Hvis du veier en modelleringsoppgradering opp mot et datarettingsprogram, er tallene vanligvis ikke i nærheten.
En ny ML-basert prognoseplattform koster vanligvis 1.5–2.5 millioner euro å implementere på riktig måte, og leverandørenes backtester viser en nøyaktighetsforbedring på 15–20 %. Disse backtestene kjørte på rene data. Din er sannsynligvis ikke ren. Nøyaktighetsforbedringen i den virkelige verden ligger nærmere 5–8 %, fordi den nye modellen arver den samme strukturelle støyen som den gamle jobbet rundt.
Et fokusert program for utbedring av datakvalitet og pipeline, som dekker hull i kildesystemet, definisjonsstyring og reduksjon av latens, koster vanligvis en brøkdel av det. Og det forbedrer alle modellene i pipelinen din samtidig, fordi alle får bedre input. Organisasjonene som sekvenserer dette riktig; data først, modelloppgraderinger deretter, ser konsekvent 3–4 ganger mer nøyaktighetsforbedring per euro brukt.
Et ord om AI-prognoseverktøy
De fleste europeiske finansledere evaluerer for tiden AI-drevne FP&A-plattformer. Markedsføringen antyder ofte at modellen er kapabel nok til å kompensere for rotete data, at den kan finne signal i støy. Det kan den ikke. Dette er sofistikerte mønstermatchingssystemer, og sofistikert mønstermatching på støyende data finner falske mønstre. Spørsmålet man bør stille enhver leverandør av AI-prognoser er ikke hvor nøyaktig er modellen din på dataene dineDet er: hva skjer med prognosestabiliteten når inndataene våre har dekningshull eller definisjonsmessige inkonsekvenser? Hvis de ikke kan svare spesifikt på det, er det informasjon.
Spørsmålet som er verdt å stille teamet ditt
Prognosestabilitet er en kommersiell ressurs. Organisasjoner som planlegger pålitelig, allokerer kapital mer effektivt, har mindre buffer mot usikkerhet og handler raskere når forholdene endrer seg. Veien til dette går gjennom datakvalitet, ikke modellraffinement.
Det er verdt å stille ledelsen i FP&A et diagnostisk spørsmål nå: hvor stor andel av variansen kom fra modellfeil kontra feil i inndataene i fjorårets tre største prognosefeil? Hvis de kan svare på det med sikkerhet, har du den innsikten du trenger. Hvis de ikke kan det, er det der du skal begynne.
Har du et spørsmål?
Ta kontakt!
Baltic Assist tilbyr en omfattende outsourcing-løsning som sparer kostnader, øker effektiviteten og strategiske beslutninger for virksomheten din.