Abgeleitet von der Bezeichnung großer Daten im Englischen, steht „Big Data“ heute als Synonym für den Umgang mit gigantischen, komplexen, sich schnell verändernden Datenmengen. Für Unternehmen verspricht alles, was unter dem Stichwort Big Data zusammengefasst wird, schnellen Erkenntnisgewinn und damit greifbare Wettbewerbsvorteile. Immer leistungsfähigere Rechner und entsprechende Algorithmen ermöglichen es inzwischen, riesige Datenmengen zu erfassen, zu speichern, zu systematisieren und statistisch auszuwerten. Ein Beispiel für die Auswertung einer Vielzahl verfügbarer Daten, sind die Ratings von Analysten.
Basierend auf einer umfassenden, systematischen Analyse großer Datenmengen, erfolgt eine Bewertung börsennotierter Unternehmen, aus der sich zugleich Kauf- oder Verkaufsempfehlungen für die entsprechenden Aktien und Wertpapiere ableiten. Herangezogen werden hierfür sowohl unternehmensinterne Daten, wie die Struktur des Unternehmens, Vermögenswerte, Kapitalerträge, Liquidität usw., als auch externe Erhebungen, wie z.B. das Verhalten anderer Marktteilnehmer oder die Veränderung gesetzlicher Rahmenbedingungen.
Wie bereits angemerkt, sind allerdings verfügbare große Datenmengen allein kein Garant dafür, verlässliche Informationen zu generieren. Vielmehr wird die Qualität der getroffenen Aussagen und Prognosen immer davon abhängen, ob die Daten statistisch sauber erhoben und damit systematische Fehler vermieden wurden, ob die genutzten Daten entsprechend der Fragestellung klug ausgewählt sowie bereinigt bzw. reduziert worden sind und ob die Ergebnisse richtig bewertet und interpretiert werden.
Indem CASHFiNDER mithilfe statistischer Methoden vorhandene Datenbestände systematisch analysiert, gelingt es uns, verborgene Zusammenhänge und Muster aufzudecken und damit sehr schnell zu Kostenoptimierungspotenzialen zu gelangen. Diese Vermutungen werden in der Phase 2 durch vor Ort Präsenz des Projektleiters überprüft und zu einer Aussage geformt.