Branża IT nieustannie redefiniuje pojęcie „wydajne” poprzez tworzenie nowych rozwiązań programowych i sprzętowych, których celem jest: przyspieszenie działanie aplikacji. Zadanie dodatkowo utrudnia równoległy trend, jakim jest przyrost liczby danych. Jest to szczególnie ważne w odniesieniu do systemów analitycznych, gdzie zwykle przetwarzanie dotyczy zbiorów danych rzędu milionów rekordów. Dlatego hurtownie danych były jednymi z pierwszych, w których pojawiły się rozwiązania „in-memory computing”, czyli takie, w których odczyty danych z „wolnych” dysków twardych są eliminowane poprzez szersze wykorzystanie pamięci operacyjnej.
Podstawowe oczekiwania związane z technologiami „in memory” są dwojakie. Po pierwsze szybki dostęp do aktualnych informacji i analiz koniecznych do adekwatnego reagowania na zmieniające się warunki rynkowe. Po drugie obniżenie kosztów zakupu i obsługi infrastruktury informatycznejpotrzebnej do przechowywania ogromnych zbiorów danych.
Jednak z punktu widzenia użytkownika końcowego liczy się przede wszystkim efekt, czyli szybkość działania. Te oczekiwania oczywiście cały czas rosną. Kiedyś wystarczało analitykom, aby generowanie raportu w hurtowni danych trwało kilkanaście sekund, dziś chcą, aby ten czas skrócił się do mniej niż kilku ...