Dataplanerings- och informationsutmattningssyndromet

Läs den här artikeln för att lära dig om dataplanering och informationsutmattningssyndrom:

Informationsvolymerna ökar vid geometriska framsteg och det blir allt svårare att klara av informationsexplosionen som äger rum.

Image Courtesy: engazegypt.com/uploads/services/136853078516158773-internet-a.jpg

Dataplanering bör också fokusera på detta problem. Följande punkter behandlar detta problem och svaret på databassteknologin för detta problem.

Information Trötthetssyndrom:

En nyligen genomförd internationell undersökning "Dying for Information" har gjort en uppenbar uppenbarelse att hälften av alla chefer klagar över överbelastning av information, vilket medför att de lägger till de befintliga höga stressnivåerna som leder till sjuk hälsa. Undersökningen framhäver vidare att cheferna fångas i ett verkställande dilemma i en ålder av fax, röstbrevlåda och internet.

De känner också att de inte kan fungera bra utan hög information. Men denna tunga belastning av ofta irrelevanta data påverkar deras effektivitet och klämmer på företagets maskin. "Tidsförbrukning, fördröjning av beslut och spänning kan spåras till information överbelastning".

Att ha för mycket information kan vara lika farlig som att ha för lite sammanfattar det dilemma som cheferna står inför idag. Det här fenomenet kallas "Information Fatigue Syndrome" och är "nu en del av en verkställares liv". Den berömda citaten "Vattenvatten överallt, inte en droppe att dricka" av den gamla Mariner kan bli lämplig för information också.

Senast har försök gjorts för att möta utmaningen som orsakas av informationströtthetssyndrom. En mängd olika programvarutekniker som databassteknik, fråge språk, 4GLs, OOPs, executive informationssystem, expertinformationssystem etc. är tillgängliga för att göra information av god kvalitet tillgänglig för chefer.

Dessa tekniker har dock visat sig vara otillräckliga för uppgiften på grund av den stora tillväxten i informationspoolen. Den främsta orsaken till detta har varit att uppgifterna i databaser har varit transaktionsorienterade och inte ämnesorienterade.

Uppgifterna om aktuell verksamhet tar det mesta av en databasadministratörs uppmärksamhet. En enkel fråga om vad är förhållandet mellan försäljning av cigaretter, läsk och babymat; eller vad är den förväntade försäljningsökningen om avdelningsaffären hålls öppen sen kväll, kan skicka vågor till informationsansvariga idag.

Frågorna om problem som detta kräver användning av en stor mängd aktuella och tidigare data om beteende hos kunder i olika situationer. Det kräver en datalager speciellt anpassad för att möta sådana frågor. För att minska tid och kostnad för analys och lagring bör data i ett sådant fall lagras efter viss mängd aggregering och analys.

Att bestämma graden av aggregering och eliminera redundans utgör en stor utmaning för informationscheferna. Eftersom frågornas karaktär i sådana fall inte kan förväntas blir uppgiften ännu mer utmanande. Information Warehouse approach har utvecklats för att möta denna utmaning.

Datalagringsmetod:

Datalagringsmetoden (även ibland kallad informationslagringsmetod) föreslår att information måste förvärvas, hållas och serveras enligt det grundläggande tillvägagångssättet som används vid lager för andra fysiska ingångar.

De allmänna lagringsanläggningarna utvecklas för att inse att alla lager ut stör produktionsprocessen och ska ha konsekvenser för bottenlinjen. Så, erforderliga föremål regelbundet och medvetet upphandlas, bearbetas och hålls i färdigt skick hela tiden.

Det utmärkande inslaget i informationslagringsmetoden är att det skapar ett datalager, som skiljer sig från de normala databaserna som upprätthålls av ett företag.

Antagandet är här att data som samlas in och konsolideras och upphandlas från olika källor, såsom produktion, marknadsföring och finansiering, är för viktig för att vara inblandade i komplexa analytiska frågor hos användarna. Sålunda görs frågor mot en extraherad databas som är speciellt organiserad för att möta analytiska frågor. En sådan databas kallas också Meta-data.

Detta tillvägagångssätt kombinerar de analytiska verktygen, höghastighets parallella och multiprocessing system med specialiserade algoritmer och mjukvaruverktyg. De särdragen hos tillvägagångssättet kan bättre förstås av stegen i processen som den antar för att möta de analytiska frågorna. Dessa steg är:

en. Insamling av data, även kallad skörd eller uppsamling av data från olika källor som kör olika tillämpningar;

b. Rengöring av data (data scrubbing) för att säkerställa konsekvens och fullständighet. Det innebär också att man tar bort överflödiga data.

c. Organisera data i databaser speciellt konstruerade för analys av data. Dessa databasdesigner skiljer sig från dem som används för inspelning och rapportering i ett företag. De är fria från källa, äkthet, revisionsspår etc.

d. Tillgänglighet för analytiska analystjänster (OLAP), Data Mining Tools, Datavisningsverktyg, Internet Aktiveringsverktyg, Executive Information Systems (EIS) och andra dataanalys och rapporteringsverktyg för att möta användarnas krävande analytiska frågor.

Ett kritiskt beslut som måste fattas gäller valet av data som ska lagras i informationsdatabaser. Om det är möjligt att förutsäga informationsbehovet för framtiden, ska en tvåboxmodell vara tillräcklig.

I denna modell sammanfattas operationsdata och de data som kan behövas i framtiden kan kopieras till informationsdatabasen. Om det inte går att förutsäga framtida informationsbehov kan en treboxmodell vara mer lämplig. I den här modellen lagras hela operationsdata först i vad som kallas historisk databas och en vald del av den finns också i en informationsdatabas. Figur 9.9 visar de två modellerna.

Datalagringsmetoden är på väg att markeras, vilket indikeras av dess bredare acceptans bland de bästa mjukvaruproducenterna. Nu har ledande databasprogramvaruföretag som Oracle, Sybase, Informix och IBM öppet förespråkat detta tillvägagångssätt. Informix har etablerat länkar till Prism Solutions, ett företag skapat av Bill Inmon, som anses vara fadern till datalagringsmetoden.

Fördelar med datalagringsmetoden:

Datalagring blir populär av följande skäl:

en. Det ökar dataanalysens hastighet eftersom dataaggregat lagras och de dagliga transaktionerna hindrar inte analysprocessen.

b. Det ger flexibilitet när det gäller frågans karaktär och fokuserar på ämnen och aktiviteter istället för transaktioner.

c. Det hjälper till att förstå olika affärsprocesser och beteendemönster hos kunder, leverantörer, investerare etc.

Några av de framgångsberättelser som används för datalagring inkluderar Wal-Mart-kedjan av detaljhandeln som behandlar 7, 5 terabytes datalagring av olika aspekter av detaljhandeln. Försäljningsutvecklingen analyseras och konsekvenserna av olika förändringar som rabatter och andra beslut om försäljning utvärderas regelbundet för att styra framtida handlingsåtgärder.

Ett annat exempel är Reuters, en finansiell informationstjänstleverantör som har utvecklat en ny serie informationstjänster som Money 3000, Securities 3000 och Treasury 3000. Företaget har mervärde till finansiell information genom att ge sina användare tillgång till sin historiska information om marknaderna och instrument.

Den använder datalagringsmetoden för att lagra och tillåta tillgång till data lagrad i olika datorer över hela världen. Uppgifterna samlas från 4600 olika källor, däribland 236 marknader, 241 analytiker och 50 tredjeparts nya flöden och det äger ett team av 1860 journalister. För sådana enorma data ansågs datalagringsmetoden lämpligast.

Kritiska framgångsfaktorer i datalagring:

För att uppnå de fulla fördelarna med ett datalagringssystem är det viktigt att ta hänsyn till faktorer som är kritiska för effektiviteten hos sådana system.

Några av dessa faktorer är:

a) Datalagringsmetoden kräver stora investeringar i hårdvara och mjukvara. Detta tillvägagångssätt skulle således endast vara av betydelse i stora företag, där systemets potential kan utnyttjas fullt ut.

b) Datalagring kräver stora arkitektoniska förändringar i de redan väl etablerade databaserna. Sådana förändringar kan orsaka hinder i de befintliga systemens funktion eller de befintliga systemen skulle behöva paralleller med de nya systemen under en tid.

På samma sätt finns det andra tekniska och kommersiella hinder som kan hämma framgångsrik implementering av dessa system. Hanteringen av hinder under genomförandeperioden, som sträcker sig mellan 18-24 månader, kommer att vara en viktig faktor för lagringssystemets framgång.

c) Den fulla potentialen för detta tillvägagångssätt kan endast realiseras när en uppsättning dataanalysverktyg används för att generera information. Urvalet och användningen av dataanalysverktyg beror på tillgången på sådana verktyg samt företagskulturen. Datalagringsmetoden skulle vara framgångsrik om en lämplig arbetskultur råder i ett företag.

d) Detta tillvägagångssätt förutsätter en mycket mogen IT-miljö där graden av IT-penetration i den dagliga verksamheten är mycket hög. Användarföretaget bör ha en stor mängd historiska data som redan lagrats på magnetiska medier. Således är det en evolutionär process och inte en revolutionär.

Avkastningen på investeringen i detta tillvägagångssätt är ett grått område och därför måste en kostnads-nyttoanalys genomföras innan man hoppar in i datalagringsbandwagon.