Mittelstand HEUTE - Analytics & Insights - Artikel

Databricks – NOT just another Brick in the Wall

Geschrieben von Robin Richter | Mar 23, 2026 1:16:49 PM

Mit der SAP Business Data Cloud und Microsoft Fabric hatten wir als All for One schon zwei „Datenplattform-Primusse“ im Portfolio. An Databricks führte trotzdem kein Weg vorbei.

Warum Databricks unser Portfolio sinnvoll ergänzt

Wer auf Datenplattformen blickt, sieht schnell: Es geht heute nicht mehr nur darum, Daten irgendwo abzulegen oder für einzelne Reports verfügbar zu machen. Es geht darum, Daten in hoher Qualität zu verarbeiten, sie effizient bereitzustellen und daraus überhaupt erst die Grundlage für Analytics, Forecasting und KI-Anwendungen zu schaffen.

Genau aus dieser Perspektive ist Databricks für uns relevant geworden. Nicht als Widerspruch zu den Welten von SAP oder Microsoft, sondern als eine zusätzliche Alternative, die in der Datenverarbeitung sehr konsequent aufgestellt ist. Der Fokus liegt hier in einer sehr reinen Form auf der Verarbeitung großer Datenmengen, auf deren Veredelung und auf der Frage, wie daraus belastbare Datenprodukte entstehen. Wenn Daten sauber bereinigt, strukturiert und qualitativ aufbereitet sind, dann lassen sich darauf Prognosen, Machine-Learning-Szenarien oder auch generative-AI-Workflows wesentlich sinnvoller aufsetzen.

Genau diese Stringenz war für uns ein wesentlicher Punkt. Databricks ist stark in dem, was für moderne Datenarbeit im Kern entscheidend ist: Massendatenverarbeitung, Offenheit und die Fähigkeit, Daten so nutzbar zu machen, dass sie in analytischen und KI-nahen Szenarien echten Mehrwert liefern.

Offene Architektur statt neue Abhängigkeiten

Ein zweiter Punkt ist die Architektur. Databricks basiert auf einem offenen System, und das ist aus meiner Sicht strategisch relevant. Daten liegen hier nicht in einem Format vor, das ausschließlich innerhalb eines Herstellerversprechens funktioniert, sondern beispielsweise in Formaten wie Parquet oder JSON, also interoperabel und übertragbar. Dadurch entsteht für Unternehmen deutlich mehr Flexibilität.

Wenn man sich technologisch weiterentwickeln oder perspektivisch auch andere Plattformen anbinden möchte, dann ist das möglich, ohne dass die Daten in einem proprietären Konstrukt feststecken. Das Thema Vendor Lock-in wird damit spürbar entschärft. Gleichzeitig bringt Databricks Datenbankfunktionalitäten mit, ohne dass dafür immer klassische, schwere Datenbank-Engines im Mittelpunkt stehen müssen. Auch das macht die Plattform wirtschaftlich interessant.

Hinzu kommt die starke Community. Dass Databricks in einem Open-Source-nahen Ökosystem verankert ist, merkt man sehr schnell: Es gibt Konnektoren, Templates, Erweiterungen und viele Beiträge, die aus realen Anwendungsfällen entstanden sind. Für mich ist das mehr als nur ein technischer Nebenaspekt. Es zeigt, dass die Plattform nicht isoliert gedacht wird, sondern in einem Umfeld lebt, das sich kontinuierlich weiterentwickelt und das neue Anforderungen aus der Praxis sehr schnell aufnimmt.

Interoperabilität als echter Hebel

Besonders stark sieht man das beim Thema Datenaustausch. Ein gutes Beispiel dafür ist Delta Sharing. Der entscheidende Punkt dabei ist, dass Daten nicht ständig kopiert werden müssen, nur um sie in einem anderen Tool oder auf einer anderen Plattform analysieren zu können. Statt Datenquellen zwischen Systemen hin- und herzuschieben, findet die Analyse dort statt, wo die Daten originär liegen. Übertragen wird am Ende nur das, was tatsächlich gebraucht wird, also Ergebnisse oder genau die Datenausschnitte, die für den nächsten Schritt notwendig sind. Gerade bei sehr großen Datenmengen ist das ein erheblicher Vorteil. Es reduziert Datentransfers, senkt Kosten und verringert die Komplexität in der Architektur.

Gleichzeitig spielt auch das Thema Governance mit hinein, weil der Zugriff kontrolliert und sauber gesteuert werden kann. Aus meiner Sicht ist genau das ein starkes Argument für eine moderne Datenplattform: nicht nur möglichst viele Funktionen zu haben, sondern Datenbewegung intelligent zu minimieren. Das ist wirtschaftlich sinnvoll, technisch sauber und am Ende auch ressourcenschonender. Und man sieht ja, dass sich der Markt insgesamt in diese Richtung bewegt. Wenn Konzepte wie Delta Sharing inzwischen auch in angrenzenden Plattformwelten aufgegriffen werden, dann zeigt das sehr deutlich, dass hier ein technologischer Weg eingeschlagen wurde, der nicht kurzfristig gedacht ist, sondern grundsätzlich Relevanz hat.

Warum das auch im SAP-Kontext hochrelevant ist

Gerade aus SAP-Perspektive wird das zusätzlich spannend. Wenn Databricks-Funktionalitäten in der Business Data Cloud eine Rolle spielen, dann ist das ein klares Signal dafür, wie wichtig diese Plattform mittlerweile geworden ist. Denn Databricks bringt nicht nur Stärke in der Datenverarbeitung mit, sondern erweitert den SAP-nahen Datenkontext vor allem um Fähigkeiten im Bereich Machine Learning, generative AI und das Management des gesamten Modelllebenszyklus.

 

Genau dort war in vielen klassischen Architekturen bislang nicht dieselbe Tiefe vorhanden. Mit Funktionen und Frameworks wie Mosaic AI geht es eben nicht nur darum, mal einen Prototypen zu bauen, sondern KI- und Machine-Learning-Szenarien strukturiert, skalierbar und qualitativ belastbar zu betreiben.

Für uns war das ein zusätzlicher Beleg dafür, dass die Beschäftigung mit Databricks nicht nur technologisch sinnvoll ist, sondern auch strategisch. Wir haben die Plattform früh aufgenommen, weil wir davon überzeugt waren, dass offene Datenarchitekturen, starke Verarbeitungslogik und KI-Fähigkeit zusammen gedacht werden müssen. Dass sich genau diese Einschätzung heute im Markt und auch im Zusammenspiel mit SAP und Microsoft immer deutlicher bestätigt, zeigt für mich: Databricks ergänzt unser Portfolio nicht deshalb, weil wir uns breiter aufstellen wollten, sondern weil es für bestimmte Anforderungen genau die richtige Antwort ist.