Business Analytics: Vor diesen drei Herausforderungen stehen Unternehmen

20.08.2021 – Lesezeit: 4 Minuten

Impulse / Produktion und Logistik / Technologie

Business Analytics: Vor diesen drei Herausforderungen stehen Unternehmen

Richtig genutzt, liefert Business Analytics viele wertvolle Erkenntnisse. Doch es gibt einige Herausforderungen, die darüber hinausreichen, Daten in ausreichender Quantität und Qualität verfügbar zu haben.


Business Analytics (BA) und Big Data Analytics reichen mit der Predictive und Prescriptive Analytics weit über die Möglichkeiten der Business Intelligence (BI) mit einem klassischen Data Warehouse hinaus. Diese erlaubt nämlich nur einen Blick in die Vergangenheit und die Gegenwart. Unternehmen können mit BA zu besseren Entscheidungen kommen und bessere Vorhersagen treffen, um sich Wettbewerbsvorteile zu verschaffen. Je besser die Datenlage und die Datenqualität, desto wahrscheinlicher ist es, dass das System zu verlässlichen Prognosen kommt. Aber so wie Wetterdaten, Bilder und Videos lassen sich viele Daten gar nicht in ein normales BI-Korsett zwängen und auswerten, weil sie nicht in strukturierter oder nur in semistrukturierter Form vorliegen. Um sie nutzbar zu machen, müssen sie etwa mit Metadaten, wie man sie von Digitalfotos kennt, angereichert werden.

Boris Trofimov, Software-Architekt bei Sigma Software, weist in einem Artikel in Bigdata Insider darauf hin, dass viele Unternehmen es nicht schaffen, Business Intelligence Analytics strategisch zu nutzen. Er zitiert dabei Gartner, wonach 87 Prozent der Unternehmen nur über eine geringe Reife hinsichtlich Business Analytics verfügten, weil es an der nötigen Beratung und Unterstützung mangele.

Die ausreichende Quantität und Qualität der Daten sind natürlich wichtige Voraussetzungen für eine wirksame, aussagekräftige Datenanalyse. Aber Trofimov nennt in seinem Beitrag für Bigdata Insider noch drei weitere Herausforderungen, die hier näher beleuchtet werden sollen: eine zu hohe Komplexität, eine zu kostspielige Instandhaltung der bestehenden Systeme und zu lange Antwortzeiten, um die Daten zu analysieren.   

Zu komplizierte Datenanalyse

Viele Systeme für die Data Analytics sind entweder von der User Experience her zu kompliziert oder sie sind „over-enigeered“, sprich überdesignt, um wertvolle Erkenntnisse aus den Daten ziehen zu können.

Was die User Experience (UX) angeht, ist es wegen der Komplexität der Berichte oder einer „chaotischen Datendarstellung“, wie Trofimov es nennt, oft schwierig, die benötigten Informationen zu finden. Unternehmen oder Abteilungen, die vor dem Problem stehen, sollten daher jemanden mit UX- und UI-Expertise engagieren, der ein leichter zu navigierendes User Interface (UI) schafft.

Ist das System „over-engineered“, verarbeitet und bietet es oft mehr als nötig, was die Gefahr birgt, dass dabei der Fokus verschwimmt. Es wird nur ein Teil der möglichen Funktionsvielfalt genutzt, während der Rest als unnötiger Ballast mitläuft, der die Lösung zudem auch noch unnötig verkompliziert. Außerdem ist dafür oft auch mehr Hardware erforderlich, was wiederum die Kosten in die Höhe treibt. Es kann sich daher lohnen, überschüssige Funktionen und Inhalte zu identifizieren, um sie auszuschließen oder zu eliminieren. Verbleiben sollten möglichst nur die wichtigsten Metriken. Auch hier hält es Trofimov mitunter für ratsam, externe Sachverständige hinzuzuziehen.

Zu teure Instandhaltung der Systeme

Viele der in den Unternehmen eingesetzten Systeme basieren entweder auf veralteten Systemen und einer suboptimalen Infrastruktur oder sie sind ihrerseits ebenfalls „over-engineered“.

Unternehmen haben natürlich ein Interesse daran, dass sich ihre Investitionen möglichst lange rentieren. Aber wenn der Support der Betriebs- oder Datenbanksysteme längst ausgelaufen ist und es kaum noch jemanden gibt, der sie warten, instandhalten und bedienen kann, wird es mitunter viel teurer als die Investition in ein neues, leistungsfähigeres System. Früher oder später werden alle eingesetzten Analytics-Technologien überholt sein. Neue Systeme sind oft wesentlich günstiger im Unterhalt und bieten viel mehr in puncto Zuverlässigkeit, Verfügbarkeit und Skalierbarkeit. Wenn möglich, sollten Systemadministratoren daran denken, alte Elemente durch neue zu ersetzen.

Was den Betrieb der Systeme angeht, kann es sich lohnen, die bestehende On-Premises-Infrastruktur durch eine flexiblere Cloud-Lösung zu ersetzen, um nach dem „Pay-as-you-use“-Prinzip die Betriebskosten deutlich zu senken. Bei großen Sicherheitsbedenken kann es laut Trofimov ratsam sein, auf eine Private Cloud zu setzen. Und sollte bereits eine Cloud im Einsatz sein, sollten Unternehmen prüfen, ob diese auch effizient genutzt wird. Außerdem sei es ratsam, die Geschäftsmetriken zu überprüfen, um mit Blick auf Over-Engineering zu sehen, ob sich einzelne Komponenten nicht nur einfachere, günstigere Versionen ersetzen lassen.

Zu lange Antwortzeiten

Viele Systeme sind nur für die Batch- oder Stapel-Verarbeitung von Daten oder Dateien konzipiert. Und so sind die benötigten Daten teils noch nicht verfügbar, weil sie immer noch gesammelt werden müssen. Für die Echtzeitverarbeitung kann das Unternehmen teuer zu stehen kommen. Ziel sollte es sein, dass der ETL-Prozess (Extract, Load, Transform) in der Lage ist, Daten in kürzeren Zeitintervallen zu verarbeiten.

Aber lange Antwortzeiten liegen laut Trofimov auch oft an einer ineffizienten Datenorganisation. Es wäre dem Software-Architekten zufolge daher zu überprüfen, ob das Data Warehouse den geforderten fällen und Szenarien entspricht, wenn nicht wäre eine Neukonzeption hilfreich.

Das Problem könne aber auch im System selbst liegen, wenn es nicht genug Skalierbarkeit bietet und die Ressourcen zu schnell ausgelastet sind. Eine unterdimensionierte Infrastruktur kann die Antwortzeiten auch unnötig verzögern. In dem Fall biete sich das Upscaling mit mehr Computing-Ressourcen an. Als einen sinnvollen strategischen Ansatz sieht Trofimov auch, das System in separate Bestandteile aufzuteilen und diese unabhängig voneinander zu skalieren. Allerdings könne das zusätzliche Investitionen und Kosten nach sich ziehen.

Business Analytics im Mittelstand

Soweit die drei wichtigsten Herausforderungen für die effektive Nutzung von Business Analytics. In allen Fällen ist die auf Business Analytics spezialisierte avantum consult GmbH, ein Unternehmen der All for One Group, der richtige Ansprechpartner, um das volle Potenzial von Business und Big Data Analytics herauszuholen. Mit dem Ziel, einen ganzheitlichen Blick auf das Thema Analytics zu werfen, beginnt die Beratungsleistung von avantum jeweils mit einer Ist-Analyse der vier wichtigsten Säulen der B2B-Kunden: beim Unternehmen selbst, den Mitarbeitern, den Prozessen und eingesetzten Technologien. Daraus entwickeln die Consultants dann zusammen mit den Kunden eine individuelle Analytics-Strategie, um unabhängig von den Lösungsanbietern wie SAP, IBM und Microsoft ein tieferes Verständnis zu erlangen, auf welche Themenbereiche die Schwerpunkte der Analytics gelegt werden sollte. Bei der Entwicklung der jeweiligen Analytics-Strategie hat sich ein Vorgehensmodell mit einer dreigeteilten Workshop-Reihe bewährt: Im ersten Workshop beleuchten die Berater von avantum zusammen mit dem Kunden im Rahmen einer Review den besagten Ist-Zustand, darauf folgen dann zwei Workshops zu Design & Validierung sowie zur Dokumentation.

Mehr über Business Analytics und die Beratungsleistung von avantum in dem Bereich erfahren Sie hier.

Was unterscheidet eigentlich Business Intelligence, Business Anlytics und Big Data Analytics? Das zeigt dieser Artikel auf Mittelstand Heute.

 

Quelle: istockphoto, ipopba, Stock-Fotografie-ID: 1182777182