ams.Solution und bimanu kooperieren
Gerade im Sondermaschinen- und Anlagenbau sorgt der Einsatz von Industrie-4.0-Anwendungen nicht nur für enorme Effizienzgewinne, sondern gestaltet auch ganz neue digitale Geschäftsmodelle. Voraussetzung dafür ist die punktgenaue Auswertung von Massen- und Maschinendaten, die das zentrale Ziel der strategischen Partnerschaft zwischen dem ERP-Anbieter ams.Solution und dem Cloud-BI-Spezialisten bimanu ist.
Einzel,- Auftrags- und Variantenfertiger sind geradezu prädestiniert dafür, die Daten ihrer Produkte, speziell Sondermaschinen und Industrieanlagen, über eine Cloud-BI-Plattform auszuwerten. „Wir wollen unseren Kunden Werkzeuge bereitzustellen, mit denen sie die Daten ihrer Maschinen im Kundeneinsatz überwachen können. Wenn wir es ihnen ermöglichen, digitale Kontrollgänge zu durchlaufen, können sich anbahnende Probleme bereits vor ihrem Auftreten behoben werden“, sagt ams-Vorstand Eckard Ulmer. Auch Service-Einsätze können seiner Meinung nach viel aufwandsschonender und kostengünstiger realisiert werden. Dies beginnt damit, dass man nicht an der Maschine vor Ort sein muss, um ihren Zustand zu analysieren. Für viele Unternehmen wäre alleine schon die Information darüber, ob eine gemeldete Störung überhaupt ihnen zuzuordnen ist oder es sich nicht um einen simplen Bedienfehler handelt, ein riesiger Effizienzgewinn.
bimanu-Geschäftsführer Swen Göllner sieht in der Kompetenzbündelung beider Unternehmen den idealen Einstieg in den Bereich Industrie 4.0: „Gepaart mit dem tiefen Branchen-Know-how bei ams eröffnet bimanus Spezialisierung auf IoT-Szenarien und moderne Cloud-Komponenten Sondermaschinen- und Anlagenbauern ganz neue Perspektiven.“ Hybride Umgebungen, in denen es zu einer Verzahnung moderner Cloud-Technologien mit den bewährten On-Premise-ERP-Komponenten kommt, erachtet Swen Göllner gerade für Mittelständler aus dem produzierenden Umfeld für am besten geeignet.
bimanu sammelt die Maschinendaten via Sensorik (Temperatur, Licht, Bewegung, Luftfeuchtigkeit und Luftdruck) und speichert sie in seiner bimanu-Cloud in einem Microsoft-Rechenzentrum in Amsterdam. Danach werden die Daten, die verschlüsselt übertragen werden, analysiert und den Anwendern gemäß deren individuellen Anforderungen aufbereitet zur Verfügung gestellt.
Damit lassen sich in einem ersten Schritt die Ist-Zustände der Maschinen ermitteln, sodass beispielsweise beim Überschreiten von Grenzwerten Workflows ausgelöst werden können. Sobald eine gewisse Datenhistorie vorhanden ist, kann man zudem in die Vergangenheit zurückblicken und ergründen, warum Produktionsgänge fehlgeschlagen sind. Die dritte und zukunftsweisendste Option ist die Etablierung von Predictive-Maintenance-Modellen. „Diese vorausschauende Wartung ist einer der Hauptgründe für unsere Partnerschaft, weil man sie mit einem ERP-Anbieter aus dem Umfeld des Sondermaschinenbaus geradezu prototypisch bewerkstelligen kann“, versichert Swen Göllner.
Der Vorteil der Cloud-Nutzung liegt darin, dass die Massendaten die Performance der IT-Systeme des Anwenders nicht beeinträchtigen. Die Dashboards können über einen HTML-Link direkt in ams.erp eingebunden werden oder im ams.taskmanager direkt Ereignisse und Workflows auslösen. Für die Sicherheit der Daten sorgen diverse zertifizierte Verfahren und Datenschutzstandards einschließlich DSGVO, ISO 27001 und ISO 27018.
bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de
QVANTUM und bimanu verbinden sich zur BI Cloud
Die Controlling Cloud QVANTUM von Thinking Networks hebt als Software-as-a-Service (SaaS) die Plandatenerfassung aus dezentralen Abteilungen in eine zentrale Cloud-Lösung. Die bimanu Cloud ist eine All-In-One Plattform für Datenintegration und Visualisierung per Self-Service. Durch die Symbiose der beiden Tools entsteht ein umfassendes Corporate Performance Management.
Die bimanu Cloud übernimmt dabei die Data Warehouse (DWH) Funktionen zur
- Automatisierung und Wiederverwendbarkeit von Datenströmen
- Datenermittlung und -aufbereitung
- Automatische Generierung von Datenmodellen
- Die Erstellung eines einheitlichen Metadatenkatalogs
- Die Überwachung und Verteilung von Daten in Echtzeit- oder Batchverarbeitungen
Darüber hinaus nutzen Anwender die bimanu Cloud für Reporting, Dashboarding und Nutzerverwaltung. Das DWH erlaubt neben der Anbindung verschiedenster BI Datenquellen (Cloud, on-premises) die Integration von Massendaten und unstrukturierten Daten (z. B. Maschinendaten, Social Media oder Internet of Things). Das Lizenzmodell der bimanu Cloud ist nutzungs- und verbrauchsabhängig und skaliert passend zum tatsächlichen Einsatz der Lösung.
bimanu ist der zweite Technologie-Partner neben MicroStrategy für das Thema Corporate Performance Management
„Wir kennen Thinking Networks seit einigen Jahren und haben bereits gemeinsam BI Projekte erfolgreich umgesetzt. Das Unter-nehmen hat eine sehr starke Planungsexpertise und die persönliche Note stimmt einfach“, lobt Swen Göllner, Geschäftsführer der bimanu Cloud Solutions GmbH, die Zusammenarbeit mit QVANTUM. „Unsere Software Lösungen ergänzen sich ideal und decken einen wichtigen Bedarf der Controlling Anwender ab. Gemeinsam schließen wir die Lücke zwischen Planung und Analytics, und das sogar als bedien- und bezahlbare Lösung für kleine und mittelständische Firmen.“
Swen Göllner, Geschäftsführer der bimanu Cloud Solutions GmbH
„bimanu passt sowohl als Unternehmen sowie als Lösung zu unserem Verständnis einer agilen BI-Lösung in der Cloud “ ergänzt Ralf Schall, Sales Manager bei der Thinking Networks AG. „Die aktuellen und zukünftigen Herausforderungen der BI-Verantwortlichen lassen sich am besten durch flexibel er- weiterbare Plattformen lösen. Ein intelligentes Netzwerk aus verbundenen Best-of-Breed Lösungen wie unsere QVANTUM Cloud und die bimanu Cloud liegt daher voll auf Kurs.“
Ralf Schall, Sales Manager bei der Thinking Networks AG
Erleben Sie bimanu und Thinking Networks beim gemeinsamen Vortrag bei der Veranstaltung “Rock your Data” (12.09.2019, Düsseldorf). An diesem Tag erwarten Sie interaktive Impulsvorträge rund um Business Intelligence, Cloud & Machine Learning.
Anmeldung und Infos: https://info.bimanu.de/rock-the-data-meetup-duesseldorf
bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de
Wie Sie eine Datenanalyse – Plattform zur Unterstützung Ihrer 360 Grad Unternehmenssicht aufbauen
Unternehmen generieren heute zunehmend große Datenmengen, um ihr Geschäft, ihre Kunden und ihren Markt besser zu verstehen. Ein erhöhtes Datenvolumen allein führt jedoch nicht zu mehr Erfolg. Stattdessen müssen Unternehmen neue Wege finden, um unterschiedliche Datenquellen zu konsolidieren und zu transformieren, um aussagekräftige Erkenntnisse zu gewinnen.
Eine Cloud-basierte Datenanalyse – Plattform (DAP) kann die Vielzahl der Datenquellen innerhalb eines Unternehmens in ein unternehmensweites Analysesystem integrieren. Durch die Vereinheitlichung der notwendigen Datenanalyse-Technologien nimmt ein DAP Rohdaten auf, transformiert sie und verwendet sie für Berichte, Analysen und Visualisierungen – allesamt skalierbar – und hilft so, schnell relevante Erkenntnisse zu gewinnen, die bessere Entscheidungen ermöglichen.
Wie gut und wie schnell Ihr Unternehmen Daten für Sie umsetzen kann, hängt von den Fähigkeiten Ihres DAP ab. In diesem Blogbeitrag skizzieren wir die wichtigsten Grundsätze einer Datenanalyse – Plattform (DAP) und zeigen, wie Ihr Unternehmen Cloud-Technologien einsetzen kann, um eine Lösung zu entwickeln, die einfach zu bedienen ist, die Zeit bis zum Erkennen beschleunigt und Ihre IT-Ausgaben optimiert.
Einführung
Moderne Unternehmen neigen dazu, große Datenmengen zu generieren, um ihr Geschäft besser zu verstehen. Dieses erweiterte Datenvolumen bietet jedoch nicht unbedingt einen unmittelbaren Nutzen. Stattdessen muss ein Unternehmen Wert aus seiner Fähigkeit schöpfen, unterschiedliche Datenquellen zusammenzuführen und in aussagekräftige Erkenntnisse umzuwandeln, die zu einem besseren Verständnis von Markt, Kunden und Geschäftsbetrieb führen.
Um diesen Bedarf zu decken, setzen Unternehmen zunehmend auf Business Intelligence Lösungen wie Data Analytics as a Service (DAaaS), Insight-Plattformen und Analyse Plattformen. Um das Beste aus jeder DAP-Plattform herauszuholen, ist die Cloud der Schlüssel zum Erfolg in dieser datengesteuerten Welt. On-Premise-Datenbanken erfordern Server, die nicht flexibel skalierbar sind, um dem Tempo des wachsenden Datenbedarfs gerecht zu werden. Alternativ bieten Cloud Datenbanken wie Snowflake Computing nahezu unbegrenzte Skalierbarkeit und Speicherplatz und ermöglicht so Größenvorteile, die mit einer Konfiguration vor Ort nicht erreichbar sind.
Dieser Blog-Beitrag beschreibt die wichtigsten Grundsätze einer Datenanalyse – Plattform (DAP) und zeigt, wie Ihr Unternehmen Cloud-Technologien einsetzen kann, um eine zweckmäßige Lösung zu entwickeln, die kosteneffizient und skalierbar ist. Ein DAP kann Ihrem Unternehmen helfen, Rohdaten aufzunehmen, zu transformieren und für Berichte, Analysen und Visualisierungen zu verwenden – allesamt in großem Maßstab -, so dass Ihre Benutzer die Möglichkeit haben, die relevanten Erkenntnisse zu gewinnen, die zu besseren Entscheidungen führen.
Das Problem
In der Vergangenheit waren die Business Intelligence (BI)-Technologien alle in lokalen Rechenzentren untergebracht, in denen lokale Datenquellen in lokale Data Warehouses eingespeist und von lokalen Benutzern berichtet wurden. Das moderne Unternehmen ist über die Grenzen dieses lokalen Modells hinausgewachsen. In der heutigen Welt kann ein Unternehmen von Hunderten verschiedener Systeme abhängen, von denen einige im eigenen Haus sind, die aber immer häufiger als Dienstleistung von Drittanbietern an das Unternehmen geliefert werden. Die Integration dieser Datenvielfalt in ein traditionelles Rechenzentrum stellt eine Herausforderung dar.
Insbesondere ist die Leistung in einem lokalen Rechenzentrum physisch auf die Hardware beschränkt, die bereits vom Unternehmen selbst gekauft, konfiguriert und gewartet wurde. Die Kapazität ist begrenzt und der Kauf von weiteren Einheiten bedeutet, dass Computer- und Speicherressourcen ungenutzt bleiben, bis sie benötigt werden, so dass gekaufte und bezahlte Ressourcen ungenutzt bleiben. Sobald sich die Nachfrage der vorhandenen Kapazität nähert, müssen mehr Ressourcen gekauft werden, und der Zyklus geht weiter. Für Rechenzentren vor Ort ist dieser Zyklus sowohl zeitaufwändig als auch teuer.
Und selbst wenn Unternehmen die Notwendigkeit erkennen, Daten aus externen Quellen intern zu laden, führt die Netzwerkkapazität oft zu Engpässen und verhindert die Übertragung moderner Datenmengen in ein lokales Rechenzentrum. Schließlich erfordert die Vielzahl der heute verwendeten Datenquellen eine Migration durch teure, benutzerdefinierte, codierte Lösungen. Oftmals ist es nicht möglich, diese Datenquellen zurückzulassen, da sie einen kritischen Teil des Bildes für die Gesamtaktivitäten Ihres Unternehmens darstellen.
Anstelle von lokalen Datenbanken beseitigen Cloud-basierte Data Warehouses die physischen Einschränkungen und den Wartungsaufwand mit vollständig verwalteten Lösungen mit nahezu unbegrenzten Speicherfunktionen. Das Problem der Datenkonsolidierung und -aggregation bleibt jedoch bestehen. Unternehmen müssen die Fähigkeit entwickeln, nicht nur alle ihre Daten aus einer Vielzahl von Quellen in ein Cloud-basiertes Data Warehouse zu übertragen, sondern auch diese komplexen, voneinander abhängigen Aktivitäten zu koordinieren. Nach dem Laden müssen die Daten bereinigt, angereichert, aggregiert und anderweitig transformiert werden, um aussagekräftige Erkenntnisse zu gewinnen. Schließlich erfordern die resultierenden Datensätze eine zugängliche Darstellung, damit die von ihnen abhängigen Benutzer die Ergebnisse verstehen und in Entscheidungsprozesse einbeziehen können, was zu besseren Ergebnissen führt.
Die Lösung
Alle oben beschriebenen Herausforderungen sind lösbar. Die Erstellung einer Cloud-basierten Datenanalyse – Plattform (DAP) kann die zuvor beschriebenen Hindernisse beseitigen und nicht nur Ihre Daten-Workflows rationalisieren, sondern auch Ihr Unternehmen in die Lage versetzen, seine komplette End-to-End-Datenanalyse effektiv zu verwalten. Wenn es um Technologien geht, die diese Reise erleichtern, wird die größte Investition Ihres Unternehmens höchstwahrscheinlich das Cloud Data Warehouse sein. Die Fokussierung auf die optimale Nutzung dieses Cloud Data Warehouse sollte von größter Bedeutung sein. Glücklicherweise verfügen viele der branchenführenden Cloud-Data-Warehouses wie Snowflake Computing, Amazon Redshift, und Google BigQuery über umfangreiche Partner-Ökosysteme, die kompatible Lösungen von Drittanbietern bereitstellen, die mit Ihrer bestehenden Cloud-Infrastruktur funktionieren.
Neben der Auswahl eines Cloud Data Warehouse sollten Sie sich auch auf die Auswahl der richtigen Technologien für Ihre Geschäftsanforderungen konzentrieren. Auf diese Weise können Sie eine kostengünstige, aber flexible Plattform schaffen, die am besten für Ihre Geschäftsdaten geeignet ist. Die Verwendung des Begriffs DAP kann dazu beitragen, Ihre Lösung mit Technologien für Analytics, Business Intelligence sowie einem Cloud Data Warehouse (CDW) zusammenzuführen. Durch die Zusammenführung dieser Technologien entsteht ein DAP, das nicht nur Ihren aktuellen Anforderungen entspricht, sondern auch eine erweiterbare Lösung bietet, die an ständig wechselnde und komplexe Anwendungsfälle angepasst und erweitert werden kann. Ein solches Framework ermöglicht es Ihnen beispielsweise, Data Lakes, Data Vaults, Machine Learning und Artificial Intelligence einzubinden, um Ihre Datenanalyse – Fähigkeiten weiter zu verbessern. Agilität ist entscheidend, da solche Plattformen im Laufe der Zeit (nicht über Nacht) entsprechend den dringendsten Geschäftsanforderungen entwickelt werden.
Wie gut und wie schnell Ihr Unternehmen Daten für Sie umsetzen kann, hängt von den Fähigkeiten Ihres DAP ab. Zusätzlich zu den oben genannten Technologien ist eine weitere grundlegende Komponente Ihres DAP die Datenintegration und -transformation. Da Ihr DAP Ihre End-to-End-Datenreise unterstützen soll, muss es in der Lage sein, rohe, vielfältige Datenformulare zu verarbeiten, um sie in saubere Datensätze für Analyse, Business Intelligence und Visualisierung zu verwandeln. Dieses letzte Stück wird oft als ETL-Lösung (Extraktion, Transformation und Laden) bezeichnet, um das Verschieben und Transformieren Ihrer Daten zu unterstützen. ETL-Lösungen unterscheiden sich jedoch in ihrem Ansatz und Umfang, ein Thema, das wir später in diesem Dokument behandeln werden.
Mit der bimanu Cloud, einer All-One-Plattform für die Datenintegration und Analyse können Sie die volle Leistungsfähigkeit eines Cloud Data Warehouse nutzen und Ihre Datenqualität weiter optimieren. Erfahren Sie mehr darüber, wie bimanu Cloud – Kunden ihre Datenkonsolidierung verbessern und die IT-Ausgaben senken können. Jetzt mehr erfahren – bimanu Cloud.
Die Vorteile
Sobald Sie über Ihre Datenanalyse – Plattform Technologien verfügen (Cloud Data Warehouse, ETL-Lösung, Data Visualization Layer, etc.), sind Sie nun bereit, die Vorteile einer solchen Plattform zu nutzen. Hier sind einige dieser Vorteile:
- Erweiterbarkeit: Integration neuer Technologien und anpassungsfähiger Komponenten zur Vereinfachung der Abläufe die Datenreise Ihres Unternehmens
- Einfachheit: Vereinfachen Sie Ihre Datenreise mit flexiblen Technologien, die auf mehrere Anwendungsfälle angewendet und skaliert werden können.
- Performance: Cloud-Technologien mit intuitiver Benutzerführung verkürzen die Entwicklungszeit und beschleunigen die Veröffentlichung von verwertbaren Analysen über die manuelle Programmierung hinaus.
- Agilität: Wenn Sie aus Ihren Daten und Entwicklungen lernen, können Sie Muster adaptiv Komponenten zur Plattform hinzufügen und schrittweise neue Datenquellen, Transformationen und Analysen integrieren.
- Skalierbarkeit: Unabhängig davon, ob es sich um eine Handvoll oder Hunderte von Datenquellen handelt, kann ein DAP Ihre aktuellen und zukünftigen Anforderungen erfüllen, indem es eine Skalierbare-Lösung für Datenanalysen bietet.
Wann Sie eine Datenanalyse – Plattform verwenden sollten
Der Unterschied zwischen einem gemeinsamen Business Intelligence (BI)-Technologie-Stack und einer Datenanalyse-Plattform besteht in erster Linie in der Größenordnung. Wo Erstere ein oder mehrere Quellsysteme in ein Data Warehouse einspeisen und dann darüber berichten können, wird ein DAP verwendet, um eine Verbindung zu Dutzenden oder Hunderten von Datenquellen herzustellen, diese Rohquellen in einen Staging-Bereich für die Datenerfassung zu laden und diese Rohdaten dann in eine beliebige Anzahl von Data Warehouses und Marts zu transformieren. Diese aufbereiteten Daten fließen schließlich in Berichte, Visualisierungen und Analysen für eine Vielzahl von Benutzern ein, von Power-Usern, die ihre eigenen erweiterten, statistischen Rohdatenanalysen durchführen, bis hin zu Endanwendern, die hochverarbeitete Daten für ihre jeweilige Geschäftseinheit mit Excel analysieren. Die daraus resultierenden Analysen fließen schließlich in einen datengesteuerten Entscheidungsprozess ein.
Während das allgemeine Muster hier das gleiche wie bei einem traditionellen BI-System sein kann, ist die Skalierung radikal unterschiedlich. Das DAP stellt einen Komplettanbieter für die Datenbereitstellung eines gesamten Unternehmens dar und bietet eine 360-Grad-Sicht auf die Aktivitäten Ihres Unternehmens. Sie sollten die Erstellung eines DAP in Betracht ziehen, wenn Sie eine hochrangige Sicht auf alle Ihre Unternehmensaktivitäten benötigen und dazu Daten aus zahlreichen Systemen synthetisieren müssen: Marketing, Vertrieb, Finanzen, Logistik, IoT etc. Diese unterschiedlichen Quellen können in völlig unterschiedlichen Formaten verfügbar sein, die aus relationalen Datenbanken, RESTful-APIs oder dateibasierten Artefakten auf verteilten Dateisystemen zugänglich sind. Ein DAP ermöglicht es Ihnen, solche Quellen in einem zentralen und Cloud-basierten Data Warehouse einzubinden, die Daten zu manipulieren, um die Berichtsanforderungen zu erfüllen, und schließlich Unternehmensaktivitäten zu visualisieren und zu analysieren, um die Entscheidungsfindung zu unterstützen.
Unsere bimanu Cloud transformiert automatisch Ihre Daten, um Ihnen ein echtes Self-Services BI zu ermöglichen. Die eingesetzten Konnektoren des bimanu Data Hub helfen Ihnen nicht nur bei der Konsolidierung aller Ihrer Datenquellen (Anwendungen, Data-Lakes, Datenbanken usw.), sondern führen neben Datentransformationen auch eine komplette Datenmodellierung Ihrer Daten vor, um Ihnen bei der Datenvisualisierungs- und Analyse eine bessere Entscheidungsfindung zu ermöglichen.
Anwendungsfall – Sensordaten im Bereich Flottenmanagement
Betrachten Sie als potenziellen DAP-Anwendungsfall ein hypothetisches globales Speditionsunternehmen. Ihre zentralisierte IT-Gruppe, die für die Bereitstellung von der Flottenmanagment-Daten zuständig ist, entscheidet sich für den Aufbau einer Datenanalyse – Plattform, die Hunderte von verschiedenen Datenquellen in Form der Sensorik und eine Vielzahl von Benutzeranforderungen abdeckt. Mit dem DAP können sie auf dutzende von lokalen Rechenzentren verzichten, die eigenwillige, einmalige Prozesse zugunsten ihres Cloud Data Warehouse hosten, was dem Unternehmen grenzenlose Skalierbarkeit sowie eine konsistente, effiziente und unternehmensweite Sicht auf die Daten ermöglicht.
Das ultimative Ziel dieser Plattform ist es, datengesteuerte Entscheidungen zu treffen. In diesem Fall, wo und wann die Wartung durchgeführt werden muss und welche Teile dafür benötigt werden. Das DAP deckt die Anforderungen des gesamten Unternehmens an die Datenanalyse ab und bietet automatisierte Client-Leistungen sowie Live-Dashboards, die aus einem Cloud-basierten, kanalübergreifenden Repository stammen, das auch datenwissenschaftliche Modelle und Simulationen unterstützt.
Mit Benutzeranforderungen, die von Rohdaten bis hin zu Dashboard-Berichten reichen, entscheidet sich die Geschäftsführung für die bimanu Cloud mit den Komponenten bimanu Hub, bimanu Analytics und bimanu Datawarehouse. Die einfache Skalierbarkeit des bimanu Datawarehouse basierend auf Snowflake Computing macht es zu einer bevorzugten Option zusammen mit seinen MPP-Funktionen (Massively Parallel Processing) und für die Verarbeitung großer Datenmengen. Zusätzlich zu den Leistungsvorteilen bietet die bimanu Cloud ein Pay-as-you-go-Modell an, um die Notwendigkeit des Erwerbs ungenutzter Kapazitäten zu verringern, sobald eine grundlegende und kosteneffektive Barriere die Schaffung solcher Plattformen in lokalen Rechenzentren verhindert.
Um ihre hunderte von unzähligen Quellsystemen in die bimanu Cloud zu integrieren, wählt das Speditionsunternehmen zusätzlich das Modul bimanu Hub wegen seiner einfachen Entwicklung und der zahlreichen, sofort einsatzbereiten Konnektoren für Quellsysteme. Der bimanu Hub verwendet eine automatisierte Extraktions-, Last- und Transformationsarchitektur (ELT), die das bimanu Datawarehouse optimal nutzt, indem sie die nahezu unendlichen Ressourcen der CDW auf die Last- und Transformationsprozesse anwendet.
Die Analyse- und Visualisierungsschicht in diesem DAP – Beispiel verwendet bimanu Analytics eine modifizierte Tableau Online Umgebung für sein einfaches Dashboarding und seine Ad-hoc-Berichtsfunktionen. Power-User wie Data Scientists können ihre Daten direkt aus dem bimanu Data Model über Python oder R beziehen und müssen nicht mehr die Rohdaten verwenden. Benutzer können im Self-Service BI Ansatz Ihre Analyse oder Dashboards erstellen, wodurch ein Single Point of True entsteht und die historisch mit dieser Praxis verbundene Datensilos vermieden werden.
Wie man eine Datenanalyse-Plattform erstelltDie Technologien
Analytics: Die letzte Schicht in einem DAP ist für die Datenanalyse und -visualisierung verantwortlich. Diese Ebene bietet Ihren Analysten qualitativ hochwertige Informationen über die Aktivitäten Ihres Unternehmens und ermöglicht es Ihren Führungskräften, optimale, datengesteuerte Entscheidungen zu treffen. Moderne Tools bieten Schnittstellen für Ad-hoc-Analysen sowie Business Intelligence-Berichte oder Story Telling Optionen. Solche Tools nutzen die Daten, die in Ihrem Cloud Data Warehouse von Ihrer Datentransformationslösung transformiert und klassifiziert und aus vorgelagerten Quellsystemen extrahiert werden.
Business Intelligence: Manchmal kann Ihre Business Intelligence-Technologie mit Ihren Analyse- oder Visualisierungstechnologien oder sogar mit beiden identisch sein. Sie haben die Möglichkeit, Daten zu verwenden, um Geschäftseinblicke und -entscheidungen zu formulieren, sei es Data Mining, Dashboards, Erstellen von Berichten oder Erstellen von Visualisierungen. Looker, Tableau, SAP Anayltics Cloud sowie PowerBI sind beliebte Optionen.
Cloud Data Warehouse: sind Cloud-native Datenbankplattformen, die speziell für einfache (und sogar automatisierte) Skalierbarkeit sowie massiv parallele Verarbeitungsmöglichkeiten entwickelt wurden. Diese Plattformen sind oft spaltenorientiert für optimierte I/O-Operationen und bieten nahezu unbegrenzte Rechen- und Speicherfunktionen. Moderne Cloud-Datenbanken umfassen Amazon Redshift, Google BigQuery und Snowflake.
Datenintegration und -transformation: Um ein DAP zu erstellen, muss Ihr Unternehmen eine Vielzahl von relationalen, strukturierten und halbstrukturierten Datenquellen integrieren. Diese Datenquellen müssen manipuliert und in ein einheitliches Format umgewandelt werden, das nachgelagerte Analysen und Visualisierungen unterstützt. Eine Cloud-native Datentransformationslösung ermöglicht Hochgeschwindigkeitsverbindungen zwischen Ihrem Unternehmen und anderen Cloud-basierten Datenquellen. Diese sogenannte ETL Werkzeuge wie z.B. Matillion helfen Ihnen, Daten aus Ihren lokalen oder Cloud-basierten Anwendungen zu extrahieren, diese Daten in ein Cloud Data Warehouse zu verschieben und dann Daten in die für Ihre BI- und Analysetools erforderlichen einheitlichen Formate zu transformieren.
Unsere bimanu Cloud bietet die Möglichkeit, Ihre Geschäftsdaten in das richtige Auswerte- und Analyseformat zu bringen. Wir konsolidieren Ihre Daten aus Quellsystemen, Data-Lakes, lokalen Datenbanken und anderen Cloud-Data-Warehouses für erweiterte Analysen mithilfe unserer vorkonfigurierten Konnektoren des bimanu Data Hubs. Weitere Funktionen zur Sicherstellung Ihrer Datenqualität und Integrität sind:
- Automatisierte, wiederverwendbare Datenströme
- Datenermittlung & -aufbereitung
- Aufbau & Integration von Datenmodellen
- Bereitstellung eines einheitlichen Metadatenkatalogs
- Überwachung & Verteilung von Daten in Echtzeit oder Batch
Der bimanu Cloud hilft Ihnen eine 360 Grad Unternehmenssicht zu erhalten und die Entscheidungsfindung Ihres Unternehmens verbessern. Wofür die bimanu Cloud eingesetzt werden kann, erfahren Sie hier.
Die Architektur
DAPs kombinieren komplementäre Technologien, um ein einheitliches System zu schaffen:
- Nimmt Daten aus einer Vielzahl von Quellen wie Datenspeicher, Datenbanken, APIs und Dateien mit einer Vielzahl von Formaten auf.
- Transformieren Sie die am weitesten fortgeschrittenen Daten, indem Sie sie mit anderen Datenquellen verknüpfen, reinigen, aggregieren oder anderweitig manipulieren – Visualisieren Sie die transformierten Daten abschnittsweise an den Dashboards oder Berichten.
- Bilden Sie die Grundlage für die Durchführung fundierter Geschäftsentscheidungen.
Das untere Diagramm zeigt die einzelnen Komponenten, die ein modernes DAP beinhalten können. Extrahierungs- und Ladeprozesse verschieben Daten aus zahlreichen und unterschiedlichen Datenquellen in das Cloud Data Warehouse (CDW), idealerweise und zunächst in einen Teil desselben, der für Rohdaten und Staging-Daten reserviert ist. Von dort aus können die nahezu unendlichen Computerressourcen, die solchen CDWs zur Verfügung stehen, die bereitgestellten Daten in einen Enterprise Datawarehouse (EDW) zusammenführen. Auf Basis des EDW entstehen sogenannte fachbezogene Data Marts. Dieser Datenmodelle können durch Rollup-Transformationen, die OLAP-Cubes erzeugen, weiter für Berichte optimiert werden.
Schließlich können diese leistungsfähigeren Datenarchitekturen dann von der Visualisierungsschicht des DAP genutzt werden, um Endanwendern (wie Analysten oder Führungskräften) Einblicke in unternehmensweite Aktivitäten zu geben, die die bestmögliche Entscheidungsfindung ermöglichen.
Im Folgenden wird auf jede dieser DAP-Komponenten nacheinander eingegangen, beginnend mit verschiedenen Datenquellen, einer Integrations- und Transformationsschicht, einem Cloud Data Warehouse und der Visualisierungs- und Analyseschicht.
Datenquellen
Die folgenden Punkte stellen einige gängige Datenquellen in heutigen Unternehmensumgebungen dar:
- On-Premise – Datenbanken: Viele Unternehmen haben Schwierigkeiten, den Übergang vollständig auf Cloud-Plattformen zu vollziehen und Datenbanken immer noch in lokalen Rechenzentren zu pflegen. Glücklicherweise sind inkrementelle, hybride Ansätze durchaus möglich, die es Ihnen ermöglichen, bestehende Datenbanken lokal weiterzuführen, während Sie ihre kritischen Datenelemente strategisch extrahieren und in eine CDW laden.
- Data Lakes: Definiert durch die Speicherung von Dateien in nativen Formaten, flexiblen Zugriff, Schema-on-Read sowie die Entkopplung von Storage und Compute-Ressourcen, stellen Data Lake-Architekturen immer mehr gemeinsame Repositorien für Unternehmensaktivitäten dar. Cloud-fähige Speicherplattformen wie AWS S3, Azure Blob Storage und Google Cloud Platform Cloud Storage bilden bei nahezu unbegrenzter Erweiterbarkeit oft die Persistenzschicht des Data-Lakes. Das Laden von Dateien in die CDW Ihres Unternehmens von diesen Plattformen aus stellt eine äußerst wichtige Funktionalität dar.
- Teilstrukturierte Daten: In Bezug auf Datenseen, die oft aus halbstrukturierten Dateien bestehen, benötigen moderne DAPs oft die Möglichkeit, XML-, JSON- oder sogar Tabellenkalkulationsdateien zu laden.
- APIs: Anwendungsprogrammierschnittstellen ermöglichen die Integration zwischen Ihrem Unternehmen und wichtigen Ressourcen von Drittanbietern wie Salesforce oder Google Analytics. Auf diesen Software-as-a-Service (Saas)-Plattformen können daher unternehmenskritische Daten gespeichert werden; die Extraktion von Daten aus diesen Quellen liefert häufig wichtige Erkenntnisse.
Integrations- und Transformationsschicht
Typischerweise läuft ETL-Software auf leistungsstarken dedizierten Servern mit beträchtlichen Rechen-, Speicher- und Speicherressourcen, um sowohl Platz für Extrakte aus entfernten Quellsystemen zu schaffen als auch diese Extrakte in das für den Anwendungsfall erforderliche Format zu transformieren. Nach der Transformation werden die Ergebnisse in das Ziel geladen. Wie bereits erwähnt, ist die Skalierung dedizierter physischer Hardware eine zeitaufwändige und kostspielige Angelegenheit; dasselbe gilt für die ETL-Infrastruktur, die bei Betrieb außerhalb der Kapazität erhebliche Leistungsengpässe verursacht.
Um das Risiko einer schlechten Hardwareleistung und die Kosten für die Modernisierung der ETL-Infrastruktur zu vermeiden, wenden immer mehr Fachleute einen ELT-Ansatz (Extract, Load, Transformation) an, bei dem die übliche Reihenfolge der Ereignisse umgekehrt wird, so dass Daten zuerst extrahiert und geladen und dann innerhalb der CDW transformiert werden. Lösungen, die eine ELT-Methode aufrufen, weisen die CDW an, ihre skalierbaren und massiv parallelen Verarbeitungsmöglichkeiten zu nutzen, um Ihre Daten in den Cluster zu laden, und transformieren sie dann in die von Ihnen angegebene Form, sobald diese Ladung abgeschlossen ist. Geringe Rechenleistungen reichen aus, um diese Anweisungen zu generieren und ermöglichen es Ihnen, die Investitionen, die Sie bereits in Ihre Cloud-Data-Warehouse-Plattform getätigt haben, die diewährend des ELT-Prozesses erforderlichen schweren Arbeiten übernimmt, zu nutzen.
Der ELT-Ansatz wäre ohne die in CDW-Plattformen integrierte Skalierbarkeit nicht möglich, die die für diesen Betrieb erforderlichen Ressourcen bereitstellt und es Business Intelligence-Organisationen ermöglicht, auf das kostspieligere und weniger flexible ETL-Muster zu verzichten. Außerdem ist ETL-Software extrem teuer in der Lizenzierung. Diese Lizenzen erfordern oft zusätzliche Gebühren für höhere Datenmengen und noch mehr für Konnektor-Add-ons, die Ihnen Zugriff auf die Quellsysteme geben, die Sie in Ihr Lager laden müssen. Der ELT-Ansatz bietet echte Vorteile, so dass Ihr Unternehmen seine Integrations- und Transformations-Workloads auf die für es am besten geeignete Plattform, nämlich die CDW, übertragen kann.
Die Cloud-native Architektur von bimanu Cloud nutzt die praktisch unendlichen Speicher- und Rechenressourcen, die in modernen Cloud-Data-Warehouse-Plattformen integriert sind. Durch den Einsatz von bimanu Cloud Sie in der Lage, mit Ihren Datenanforderungen schnell zu skalieren, indem Sie die Vorteile der Leistung und Funktionen der Cloud nutzen.
Visualisierung und Analyse
Die letzte Komponente im DAP ist eine Visualisierungs- und Analyseschicht. Diese Schicht bietet sowohl formale als auch Ad-hoc-Berichtsfunktionen auf der Grundlage der endgültigen, transformierten Daten, die wir aus unseren Quellsystemen extrahiert und mit anderen Datenelementen angereichert haben, um verwertbare Business Intelligence zu erstellen. Die daraus resultierenden Visualisierungen und Analysen dienen dem datengesteuerten Entscheidungsprozess, helfen bei besseren Entscheidungen und generieren letztlich Wettbewerbsvorteile.
Tools wie Tableau, Looker, SAP Analytics Cloud und MS Power BI bieten derzeit erstklassige Visualisierungs- und Reporting-Suiten. Solche Pakete geben Ihrem Unternehmen interaktive Berichts- und Dashboarding-Funktionen, die Einblicke elegant darstellen, die nicht leicht aus Tabellenkalkulationen allein gewonnen werden können. Ihre GUIs sind sowohl einfach genug, um schnell aussagekräftige Informationen zu produzieren, als auch reich genug, um Power-Usern alle erweiterten Funktionen zu bieten, die sie benötigen. Darüber hinaus unterstützen diese Tools CDWs, so dass Ihr Unternehmen diese flexiblen, skalierbaren und cloud-nativen Komponenten in einem erweiterbaren DAP-Framework kombinieren kann.
Unsere bimanu Analytics Umgebung wird zur Visualisierung im Self Service – BI Ansatz eingesetzt. Zur Administration der Anwender und effektiven Dashboard Erstellung setzen wir auf auf eine modifizierte Tableau Online Umgebung.
Düsseldorf, 16.05.2019 – Swen Göllner
bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de
Erfahren Sie welche Möglichkeiten die neuen Stored Procedures in Snowflake bieten
Jon Nedelmann, Mai 2019
Seit Kurzem gibt es in Snowflake die Möglichkeit, Stored Procedures zu erstellen und natürlich auch auszuführen.
Analog zu den UDFs (User Defined Functions), die dem Entwickler schon seit längerer Zeit zur Verfügung stehen, wird als Basis-Programmiersprache JavaScript verwendet. Das mag dem einen oder anderen, der zum Beispiel die prozeduralen Erweiterungen von Oracle (PL/SQL) oder von Microsofts SQL Server (Transact-SQL) kennt, verwundern: Ist doch JavaScript eine Sprache, die eher von der Webanwendungsentwicklung bekannt ist, und bisher kaum mit nativer Datenbankprogrammierung in Verbindung gebracht wurde.
In diesem Blog möchte ich an einigen einfachen Beispielprozeduren zeigen, wie klassische prozedurale Themen in snowflake behandelt werden können, an anderen Beispielen aber auch, welche weiteren Möglichkeiten mit JavaScript zur Verfügung stehen.
Zur Vorbereitung lege ich zunächst zwei Tabellen an, die in einer Spalte ganze positive Zahlen und in einer zweiten Spalte das Pendant in römischer Schrift speichern:
CREATE TABLE NUMBERS(ARABIC_NUMBER INT, ROMAN_NUMBER VARCHAR);
CREATE TABLE NUMBERS_OF_DAY(ARABIC_NUMBER INT, ROMAN_NUMBER VARCHAR);
1. INSERTS in einer FOR-Schleife
Das erste Beispiel ist eine Prozedur, welche 2.995 Zeilen in der Tabelle NUMBERS erzeugt und in das Feld ARABIC_NUMBER jeweils die Zeilen von 1 bis 2.995 schreibt:
CREATE OR REPLACE PROCEDURE fill_numbers()
RETURNS VARCHAR LANGUAGE JAVASCRIPT
AS
$$
for(var i = 1; i 3000 || n < 1) return "NN";
else {
var result = "";
if(n > 999) {
result = times(Math.floor(n / 1000), ‚M‘);
n = n % 1000;
}
if(n > 99) {
result = result + parts(Math.floor(n / 100), ‚C‘, ‚D‘, ‚M‘);
n = n % 100;
}
if(n > 9) {
result = result + parts(Math.floor(n / 10), ‚X‘, ‚L‘, ‚C‘);
n = n % 10;
}
result = result + parts(n, ‚I‘, ‚V‘, ‚X‘);
}
return result;
}
var selectArabic = "SELECT ARABIC_NUMBER FROM NUMBERS";
var result = snowflake.execute({sqlText: selectArabic});
while(result.next()) {
var arabicNumber = result.getColumnValue(1);
var updateStatement = "UPDATE NUMBERS SET ROMAN_NUMBER = ‚" + toRoman(arabicNumber) + "‘ WHERE ARABIC_NUMBER = " + arabicNumber;
snowflake.execute ({sqlText: updateStatement});
}
$$;
Ein Blick in die Tabelle NUMBERS zeigt, dass wir das gewünschte Ergebnis erhalten haben. Die Performance dieser Prozedur ist aber wieder alles andere als akzeptabel gewesen: alle 3.000 UPDATE-Statements werden separat durchgeführt, das braucht seine Zeit. Hier sehen wir die aktuellen Begrenzungen der CURSOR-Verarbeitung in snowflake: Innerhalb der Schleife sollten keine DML-Statements ausgeführt werden. In unserem Fall könnten wird die Prozedur schnell umschreiben, dass arabische und römische Ziffern in einem einzigen BULK-INSERT geladen werden.
2. Dynamisches SQL ausführen
Eine weitere typische Anwendung von Datenbank-Prozeduren besteht darin, dynamisch eine SQL-Anweisung zusammenzustellen und sie dann innerhalb der Prozedur auszuführen. Dies haben wir in allen Beispielen bereits gemacht, wenn wir ein Statement sql_command erstellt haben und dann das snowflake-Objekt mit der execute-Methode aufgerufen haben:
snowflake.execute ({sqlText: sql_command});
Dieser Befehl hat noch weitere Optionen. Wir können in dem SQL-Befehl für noch nicht bekannte Parameter ein Fragezeichen setzen und dann bei der Befehlsausführung diesen Parameter binden. Die folgende Prozedur zeigt das Vorgehen. Sie kopiert montags alle Zahlen von der Tabelle NUMBERS in die Tabelle NUMBERS_OF_DAY, dienstags alle durch 2 teilbaren Zahlen, mittwochs alle durch 3…
CREATE OR REPLACE PROCEDURE copy_by_day()
RETURNS VARCHAR LANGUAGE JAVASCRIPT
AS
$$
var dayOfWeek;
var result = snowflake.execute({sqlText: "select dayofweek(current_date) from dual"});
if(result.next()) dayOfWeek = result.getColumnValue(1);
var copyStatement = "INSERT INTO NUMBERS_OF_DAY SELECT * FROM NUMBERS where ARABIC_NUMBER % ? = 0";
snowflake.execute ({sqlText: copyStatement, binds:[dayOfWeek]});
$$;
3. Fazit
Mit der Einführung der stored procedures hat snowflake eine große Lücke geschlossen. Für Entwickler, die aus der Oracle oder SQL Server-Ecke kommen, ist ein wenig Umdenken gefragt, um sich auf JavaScript als Programmiersprache einzulassen. Es lohnt sich aber, denn mit wenigen Zeilen können dann elegante Prozeduren erstellt werden. Hilfreich bei diesem Umstieg ist die wirklich gute snowflake-Dokumentation zu diesem Thema.
Schwachstelle ist bisher noch, dass jeder Aufruf eines DML-Statements in der Prozedur – sowie jeder Prozeduraufruf selbst – als eine Transaktion behandelt wird, und dann keine gute Performance zu erwarten ist. Die „klassische Cursor-Verarbeitung“ sollte dann anders gestaltet werden. Aber noch sind Prozeduren ja ein ganz neues Thema für snowflake, und es wird sich sicherlich in der nächsten Zeit weiterentwickeln.
Über bimanu bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
Link: https://bimanu.de/…
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de
Interviewstory von Mohammed Brueckner über Cloud Computing
Das Ergebnis haben wir in unserem Blogbeitrag veröffentlicht.
An dieser Stelle herzlichen Dank an Mohammed für den interessanten Austausch.
Einleitung
Jedes Unternehmen muss zukünftig weitere Erkenntnisse gewinnen, um seine Wettbewerbsvorteile zu behalten oder auszubauen. Die Grundlage hierfür sind die Daten, die als das neue Öl bezeichnet werden, obwohl der Vergleich ein wenig hinkt, da die Daten nicht verbraucht werden.
Es reicht nicht mehr aus, nur die Unternehmensdaten zu betrachten, sondern auch alle externen Daten, wie z.B. Marketing-Informationen, die über Kampagnen ermittelt werden oder Webseitenbesuche, um zu erkennen wie hoch die tatsächliche Konvertierung ist, müssen in dem gemeinsamen Kontext betrachtet werden. Noch schwieriger wird es, wenn unstrukturierte Daten wie Streaming Daten (Twitter & Co.) eine Rolle spielen. Diese Daten müssen über unterschiedliche Systeme und Technologien mit den klassischen betriebswirtschaftlichen Daten in Beziehung gebracht werden.
Der Weg dorthin ist jedoch keineswegs einfach und stellt eine große Herausforderung für alle Unternehmen dar. Insbesondere für kleine und mittlere Unternehmen, die Ihre verteilten Datenbereiche konsolidieren und damit analysierbar machen wollen, wird es noch komplizierter. Sie können sich die Big Data, Data Science und Business Intelligence – Einheiten nicht leisten bzw. sind diese Experten derzeit am Markt sehr schwierig zu bekommen. Größere Unternehmen haben bereits vor Jahren den Bedarf erkannt und entsprechende Organisationen geschaffen und können bei Bedarf auch noch externe Dienstleister einschalten, um maßgeschneiderte Analyse Plattformen, Data-Lakes oder Business Intelligence Systeme aufzubauen.
Damit ist es jedoch nicht getan, solche komplexen Projekte haben ein hohes Investitionsvolumen hinsichtlich der Projekteinführung, Beschaffung von Hardware & Softwarelizenzen sowie Einsatz von externen Dienstleistern und der internen Ressourcen. Wenn Sie jemals an einem solchen Unterfangen beteiligt waren, wissen Sie, dass eine solche Prozessumsetzung schon einige Millionen Euro kosten kann. Zudem sind die Folgekosten für den Betrieb zu beachten.
Nun gut, dass wir in Zeiten der Demokratisierung der fortschrittlichsten Instrumente und Dienstleistungen eine Vielzahl von Möglichkeiten haben und nicht darauf angewiesen sind, die großen Standardlösungen einzuführen.
bimanu hat es sich zur Aufgabe gemacht, Unternehmen aller Größen und insbesondere Mittelständler mit einer All-In-One Plattform für Datenintegration und Analyse zu unterstützen und zu begleiten, die sich deutlich von den bisherigen SaaS Angeboten unterscheidet und nicht auf ein einziges proprietäres Alles-oder-Nichts-Angebot setzt, sondern auf die Kombination von Best of Breed-Tools.
Ich bin Mohammed Brückner und dies ist ein Interview mit Swen Göllner, Gründer von bimanu und erfahrener BI-Veteran.
Swen, könntest du mir ein wenig über dich und bimanu erzählen?
Sehr gerne Mohammed, zuerst vielen Dank für das Interview und das Interesse an unserer Lösung. Kurz zu meiner Person – Ich bin verheiratet, Vater von 3 Kids im Alter von 2, 6, und 11 Jahren und seit 3 Jahren selbständig mit der bimanu im Bereich Business Intelligence. Ich beschäftige mich seit über 15 Jahren mit dem Thema Daten & Analysen, ursprünglich gestartet im Anwendungsunternehmen, später im Beratungshaus weitere Business Intelligence – Erfahrungen gesammelt und bin in den letzten Jahren im Banken und Versicherungsumfeld als Business Intelligence Berater tätig gewesen.
Nebenberuflich habe ich noch zwei Studiengänge in Wirtschaftsinformatik und General Management absolviert. Der MBA war letztendlich auch die Entscheidung den Weg in die Selbständigkeit zu wählen, da die Vorlesungsreihe Entrepreneurship die Wege aufgezeigt hat, welche Freiräume mit einem Blick über den Tellerrand möglich sind. Zudem bin ich sehr neugierig und hinterfrage die Dinge und versuche damit nicht immer den Standardweg einzuhalten. In den Unternehmen gibt es klare Hierarchiestrukturen, Prozesse aber auch Unternehmenskulturen, die berücksichtigt werden müssen und mich als Person doch ziemlich einschränken.
Vor 2016 hatte ich zusammen mit meinem jetzigen Geschäftspartner Michael Jungschläger bereits die Idee, einer einfachen Auswerte – Plattform nur für Endanwender, die ohne IT-Kenntnisse Ihre Daten analysieren können und sich im Vorfeld nicht vollumfängliche Gedanken machen müssen, wie bekomme ich diese Daten in der korrekten Form zusammen. Die Umsetzung haben wir Anfang 2015 nebenberuflich vorgenommen. Erste Gespräche mit Softwarefirmen, Business Angels oder Inkubatoren waren ernüchternd.
Also haben wir den Entschluss gefasst, unsere sicheren Arbeitsverhältnisse zu kündigen und die bimanu GmbH zu gründen und das in einer Phase, wo andere gedacht haben, wie könnt Ihr ein solches Risiko eingehen?
Direkt am Anfang konnten wir auch noch Dr. Jon Nedelmann als erfahrenden Data Scientist Experten gewinnen und damit wurde die Entwicklung der bimanu Cloud gemeinsam gestartet.
Dennoch waren wir hinsichtlich der Finanzierung sowie der Marktlage gut vorbereitet, da wir mit dem starteten, was wir gut können – die Business Intelligence Dienstleistung und nebenbei wurde unsere Software Idee bimanu Cloud mit dem bimanu Team realisiert. Jetzt sind wir bereits seit 3 Jahren am Markt, unser Team ist bereits auf 7 Personen angewachsen und die bimanu Cloud ist seit Anfang 2019 auf dem Markt.
An dieser Stelle möchte ich mich insbesondere bei Michael & Jon, aber auch beim restlichen bimanu Team ganz herzlich für die bisherigen 3 tollen Jahre bedanken.
Was ist das Leistungsversprechen hinter bimanu, in deinen eigenen Worten?
Es gibt für uns neben einem hohen Qualitätsanspruch, die Verlässlichkeit. Die Verlässlichkeit haben wir damals sogar als Wettbewerbsvorteil in unserem Business Plan aufgeführt. Konkret, wir stehen zu unserem Wort und bieten auch nur das an, was wir tatsächlich leisten können. Unser Vorteil ist, dass wir beide Seiten sehr intensiv kennengelernt haben, die Anwendungsunternehmen im IT & Fachbereich und die Beraterseite.
Wir verstehen beide Welten und genau diesen Anspruch, den wir in der klassischen Dienstleistung an uns haben, haben wir in die bimanu Cloud übertragen. Es ist uns wichtig, immer von der Anforderungsseite zu kommen, d.h. was wollen die Endkonsumenten mit den Daten erreichen und was ist deren Zweck dahinter? Im Gegenzug konzentriert sich die IT in der Regel so sehr auf die Technologie und die technischen Umsetzungen, anstatt den Fachbereich im Auge zu haben. Dann kann es halt passieren, dass die Konsumenten zwar die Daten- und Analyseplattformen nutzen, aber die Weiterveredlung findet in den Fachbereichen statt und damit entsteht wieder eine neue Schatten-IT – unterschiedliche Interpretationen der Daten oder eine inkonsistente Datenbasis sind die Folge.
Wir wollen nicht über die Technik diskutieren, diese ist wichtig, aber nur als unterstützende Maßnahme, letztendlich geht es allein um den Kunden. In den letzten Jahren werden die Möglichkeiten immer größer, aber die Technologien werden immer schwerer beherrschbar – auch für die IT’ ler. Konsequenz: Es werden Spezialisten benötigt, die nicht umfassend zur Verfügung stehen. Am schlimmsten sind aber die sogenannten Buzzwords IoT, KI oder BigData. Diese werden von allen betroffen Parteien aufgegriffen und als heilbringende Lösung für die Digitalisierung genannt. Dies ist definitiv nicht der Fall, sondern es muss im ersten Schritt eine solide Datenbasis aufgebaut werden, ansonsten sitzt der Data Scientist – Kollege auf dem Trockenen oder ist selber für die Datenintegration verantwortlich. Auch für das Thema Machine Learning werden qualitätsgesicherte – und ganz wichtig – vergangenheitsbezogene Daten benötigt. Eine Betrachtung von nur 2 Monaten ist damit nicht ausreichend, um das Lernen des Programms zu ermöglichen.
Welche sind die größten Herausforderungen, die Du heute für mittelständische Unternehmen siehst, die versuchen, ihr Spiel in Bezug auf Reporting und erweiterte Analysen zu verbessern?
Die mittelständischen Unternehmen haben längst erkannt, dass Business Intelligence ein wichtiges Instrument für die Unternehmenssteuerung sein kann. Wir konnten in den letzten Monaten mit einigen mittelständischen Unternehmen sprechen und haben für alle das gleiche Problem identifiziert.
Die relevanten Informationen zur Unternehmenssteuerung liegen meist in verteilten Systemen vor und sind schwer kombinierbar. In der Regel wird versucht diese Daten manuell in diversen Auswertewerkzeugen wie z.B. Qlik, PowerBI oder Excel aufzubereiten und auszuwerten. Die Folge ist immer wiederkehrender Aufwand in der Analyse- und Berichtserstellung. Zudem müssen die Daten von der Quelle bis hin zur Analyse selber organisiert werden und die Gefahr. dass die Datenqualität darunter leidet, ist hoch.
Auch dem Thema Cloud BI stehen nun viele positiv gegenüber, das war vor ein paar Jahren anderes. Zu diesem Erkenntnis ist auch die Barc in Ihrer Studie „Cloud BI weiter auf dem Vormarsch“ gekommen- https://barc.de/news/cloud-bi-weiter-auf-dem-vormarsch.
Die Vorteile aus Unternehmenssicht liegen auf Hand. Schnelle Implementierung im Vergleich zu On-Premise Lösungen. Die Kostenreduktion: Es fallen keine Lizenz-, Wartungs- und Hardwarekosten an, es werden keine zusätzlichen Mitarbeiter benötigt und es wird nur das bezahlt, was tatsächlich verbraucht wird. Es wird keine spezielle Expertise benötigt, da nur ein bestimmtes Einsatzszenario eingesetzt wird. Das hilft den Unternehmen, die wegen Ihren knappen Ressourcen keine eigene Datenintegration- und Analyse – Plattformen erstellen können.
Aber nicht nur die fachlichen Anforderungen sind als Herausforderung zu nennen, auch der Markt der Softwareanbieter ist intransparent und macht es für die Entscheider nicht gerade einfach. Natürlich können Gartner Magic Quadranten als Vergleiche herangezogen werden oder man orientiert sich an den bekannten Softwareherstellern wie SAP, Qlik & Co. die mit Ihrem Marketing den Self Services Ansatz versprechen. Nicht falsch verstehen, das sind gute Software Applikationen, aber es reicht nicht aus. Die Softwaresysteme bilden nur die Basis und der Endanwender ist von der Quelle bis zur Analyse für seine Daten verantwortlich.
Wie haben sich aus Deiner Sicht Compliance-Anforderungen und gesetzlichen Verpflichtungen wie DSGVO auf die Art und Weise ausgewirkt, wie Unternehmen ein besseres Kundenverständnis gewinnen?
Interessante Frage – in der Tat hat sich der Umgang mit den Daten geändert. Früher war es selbstverständlich die Daten schnell per Excel aufzubereiten und per Email zur Verfügung zu stellen oder personenbezogene Daten waren auch in der Testumgebung einsehbar. Das ist aufgrund der Compliance der Unternehmen definitiv nicht mehr der Fall. Die Anstrengungen sind aber enorm im Bereich Testdatenmanagement.
Die Anonymisierung von personenbezogen Daten muss gewährleistet sein doch in der Regel bieten die eingesetzten Datenintegrationswerkzeuge eine solche Funktionalität nicht. Für alle beteiligten ist dieser Aufwand in den Projekten nicht zu unterschätzen. Insbesondere im Bankenwesen sind die Auflagen (z.B. BCBS 239 – Grundsätze für die effektive Aggregation von Risikodaten und Reporting) extrem hoch und die meisten produktiven Datawarehouse-Systeme erfüllen die Anforderungen nicht und müssen im Nachgang mit großen Mühen angepasst werden, wenn das so einfach möglich ist. Vergleichbar mit dem Umbau eines Kellers bei einer Bestandsimmobilie.
Schöne Metapher! Nehmen wir an, ich bin ein mittelständisches Unternehmen und möchte agil Vorgehensmodelle einsetzen, um z.B. ein Minimum Viable Product (MVP) zu erschaffen mit dem Ziel Kunden- und Marktbedarf zu wecken. Was wäre ein vernünftiger Ansatz von Deiner Seite oder was hast Du bei Deiner Arbeit gesehen?
Die Rückmeldungen der Kunden sind extrem hilfreich um ein bedarfsgerechtes Produkt zu entwickeln, mit dem Vorteil, dass das Produkt von Anfang nicht perfekt sein muss. Unsere Lösung orientiert sich an der Scrum Methode – ein Vorgehensmodell im Projektmanagement Umfeld – mit deren Hilfe wir inkrementell und iterativ zum einen die Anforderungserhebung mit Hilfe von User Stories durchführen, zum anderen ist unser Datenmodell nach diesem agilen Ansatz entsprechend ausgerichtet. Wir können in wenigen Tagen die Zwischenergebnisse präsentieren und der Kunde kann Einfluss nehmen und sein Datenmodell so designen, dass er den größtmöglichen Nutzen erzielt. Ein weiterer Vorteil ist die Weiterentwicklung oder Anpassung. Neue Schnittstellen oder neue Datenfelder sind für uns kein Problem. Unser Modell ist agil genug, um neue Entwicklungen ohne Auswirkung auf das bestehende Modell aufzunehmen, der Vorteil – der Testaufwand für das bisherige Modell entfällt und die Testszenarien betreffen nur die Neuentwicklung.
Welche Analyse – Lösungen werden durch die bimanu Cloud unterstützt? Und welche Lösung würdest Du welchem Unternehmen aus welchem Grund empfehlen?
Die bimanu Cloud ist eine All-In-One Lösung und vereint alle Schritte von der Integration bis zum Datenmodell automatisiert in einer Plattform.
Zudem kann unser eigenentwickeltes TriData Modell wie oben bereits erwähnt Unternehmensdaten aus allen möglichen Bereichen aufnehmen und diese Daten mit Marketing Informationen verknüpfen, aber auch gemeinsame Auswertungen mit IoT Streaming Daten sind möglich. Das Interessante daran ist, dass wir gemäß Analysebedarf eine Bestands- oder Bestandsbewegungssicht auf Basis dieser 3 Datenbereiche ermöglichen, also entweder eine Zeitpunktbetrachtung oder Zeitraumbetrachtung.
Im Rahmen des bimanu Starter Paket werden mit Hilfe von User Stories die genauen Analyseanforderungen ermittelt und auf deren Basis wird das benötigte Datenmodell automatisiert erzeugt. Damit stellen wir den genauen Bedarf sicher. Die Empfehlung richtet sich immer nach der Anforderung des Kunden, somit lässt sich keine pauschale Empfehlung herleiten. Es hat sich aber bewährt, erst mit einem kleinen Auswertebereich zu starten und dann in weiteren Iterationen neue Informationen hinzuzunehmen. Das hinterlegte Datenmodell ist genau für dieses zyklisches Wachstum ausgelegt.
Im ersten Schritt erhält jeder Kunde dann ein Dashboard in der modifizierten bimanu Tableau Online Umgebung und erhält damit eine standardisierte 360 Grad Unternehmenssicht auf die zur Verfügung stehenden Daten.
Also nehme ich an, dass ihr den Tooling- und Integrationssupport abgedeckt habt, also alle technischen Details. Was würdet ihr den Kunden in Bezug auf Organisation und Kultur raten, wenn sie sich daran machen, "more data driven" zu werden?
Genau das haben wir mit unserer Lösung geschaffen. Der Kunde erhält eine All-In-One Plattform inkl. Betrieb und Support unseres bimanu Teams. Aber was genau bedeutet es für ein Unternehmen datengesteuert zu sein? Es müssen z.B. folgende Voraussetzungen geschaffen werden:
Das Unternehmen muss Daten sammeln – nicht irgendwelche, sondern die richtigen, die für die Fragestellung relevanten Informationen. Und diese müssen folgenden Anforderungen entsprechen: zeitnah, genau, qualitätsgesichert und vertrauenswürdig.
Die Daten müssen zugänglich und analysierbar sein. Genaue, zeitnahe und relevante Daten reichen im ersten Schritt nicht aus, um als datengetrieben zu gelten. Die Daten müssen in einer einheitlichen Form vorliegen, welche bei Bedarf mit anderen Unternehmensdaten verknüpft werden können. Also die strukturierten Daten mit semistrukturieren Daten (BigData, IoT, Streaming) einfach in Beziehung setzen. Können das die heutigen Unternehmen so einfach? Ich denke nicht.
Unternehmen müssen einer zulässigen Datenaustauschkultur innerhalb der Organisation zustimmen, damit Daten verknüpft werden können, wie z.B. die Kombination des Clickstreams der Kunden mit ihrer Transaktionshistorie. Am besten gelingt dies mit einer qualitätsgesicherten Ausgangsbasis.
Die weitere wichtige Voraussetzung ist die richtige Auswahl eines Analysewerkzeuges zum Abfragen der Daten. Alle Dashboards und Analysen erfordern das Filtern, Gruppieren und Aggregieren von Daten, um die großen Mengen an Rohdaten in einen kleineren Satz von übergeordneten Zahlen zu reduzieren, die uns helfen, zu verstehen, was in einem Unternehmen genau passiert. Zudem wird ein zentraler Ablageort der Objekte benötigt, wo der Zugriff entweder am Desktop oder Mobil erfolgen kann und das jederzeit ohne Verzögerung.
OK, was denkst Du – wohin gehen Business Intelligence und Data Analytics im Allgemeinen, um einen Blick in die Kristallkugel zu werfen? Und bitte sag uns, welche Investition aus Deiner Sicht wirklich sinnvoll ist und welche nicht.
Der Trend ist schon erkennbar. Immer mehr Werkzeuge zeigen einen Self Services Ansatz, d.h. der Analyst bekommt genügend Hilfestellung hinsichtlich der Datenanalyse und Interpretation seiner Daten. Das der Business Intelligence Markt weiterhin wächst zeigen auch die Marktforschungsergebnisse von Gartner, Lünedonk oder Barc.
Die Analytics Werkzeuge werden zukünftig verstärkt den Self Services – Ansatz in Richtung Data Scientist umsetzen. Aber auch hier werden durch den Einsatz von Machine Learning immer mehr Automatismen zur Verfügung stehen, so dass im Endeffekt der Analyst in der Lage sein muss das Ergebnis des Algorithmus bewerten zu können. Im Integrationsumfeld weisen einige ETL Werkzeuge einen hohen Automatisierungsgrad auf, insbesondere durch die Data Vault Datenmodellierungsmethode lassen sich immer mehr Datenintegrationsprozesse weiter automatisieren. Mit Machine Learning werden noch weitere Potentiale aufgedeckt – was wäre, wenn das Programm aus den Metadaten das Datenmodell automatisch richtig erzeugt? Es gibt erste Startups, die auf diesem Weg erste Umgebungen realisiert haben.
Investitionen im klassischen Sinne in Form von on-Premise Produkten sind nicht mehr zeitgemäß, d.h. das Aufsetzen von Serverinfrastrukturen, manuelle Installationen und sogenanntem Customizing können durch entsprechende SaaS Anbieter bereits heute abgelöst werden. Unternehmen sollten den Microansatz für Ihre spezielle operative Anforderung einsetzen, die Software für alle Bereiche wird es nicht geben. Unternehmen sollten lieber auf spezialisierte Lösungen, die einen bestimmten Zweck erfüllen und gut vernetzbar für spätere übergreifende Auswertungen sind, zurückgreifen.
Dies kann eine sinnvolle Investition sein. Hier können Cloud Ansätze einen Mehrwert bieten, da diese Systeme schnell und mit wenig Kosten evaluiert werden können. Auch wir sind mit unser bimanu Cloud – Lösung noch lange nicht am Ende der Entwicklung – Sprachsteuerung für die Analyse oder Machine Learning für das automatische Fehlerhandling sind nur einige Punkte, die wir in Zukunft umsetzen wollen.
Vielen Dank, Swen! Ich schätze es ist klar, dass bimanu das Rüstzeug mitbringt um Unternehmen zu helfen, die sich noch nicht sicher sind wie sie mit den Herausforderungen fortgeschrittener Datenanalyse umgehen sollen. Wie Du richtig sagst, ist die Technik eine Dimension, die gemeistert werden will, aber eben noch lange nicht die einzige. Auf bimanu.de erfahren Interessierte mehr.
Mohammed ist Technologe, CRM- und E-Commerce-Experte und interessiert sich für Cloud Computing. Er liebt es, über Plattformökonomien zu sprechen.
Über bimanu bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
Link: https://bimanu.de
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de
Bessere Entscheidungen dank 360° Unternehmenssicht
Die bimanu Cloud Solutions GmbH hat es sich zur Aufgabe gemacht, Unternehmen aller Größen und insbesondere Mittelständler mit einer All-In-One Plattform für die Datenintegration und Analyse zu unterstützen und zu begleiten. Diese Lösung unterscheidet sich deutlich von den bisherigen SaaS Angeboten. Denn sie setzt nicht auf ein einziges proprietäres Alles-oder-Nichts-Angebot, sondern auf die Kombination von Best of Breed-Tools.
Die bimanu Cloud vereinfacht die Informationsauswertung per Knopfdruck und die gewünschten Daten sind sofort abrufbar und bereits visualisiert per Dashboard aufbereitet. Alle relevanten Daten in Beziehung zueinander gestellt ermöglichen fundierte Entscheidungen zur Unternehmensführung auf einen Blick.
360° Unternehmenssicht – Alle Datenquellen an einem Ort
Daten zu konsumieren ohne diese vorher manuell zu kombinieren, einfach Ihre Unternehmensdaten mit Marketing Kennzahlen in Echtzeit abfragen und wichtige Erkenntnisse erzielen. Die bimanu Cloud löst diese Herausforderung, indem sie alle Ihre Daten sammelt und analysiert, Datensilos beseitigt und zeitnahe, relevante, konsistente und personalisierte Nachrichten und Angebote ermöglicht.
Die Verarbeitung von Massen- und unstrukturierten Daten wie z.B. Maschinendaten, Social Media oder Internet der Dinge (IoT) erfolgt mit Hilfe von Microsoft Azure Services und der Snowflake Clouddatenbank. Die bimanu Cloud schafft eine zentrale Datenbasis für Ihre Unternehmensdaten, IoT oder Marketing Analytics mit dem revolutionären bimanu TriData Modell durch moderne & zukunftsfähige Technologien. Der Datenkonsument greift auf die bimanu Analytics Umgebung – eine modifizierte Tableau Online Umgebung zu und kann im Self Services Ansatz seine eigenen Berichte oder Dashboards erstellen.
Verbesserung der Geschäftsprozesse führt zu Wettbewerbsvorteilen
Um im heutigen digitalen Wettbewerbsumfeld erfolgreich zu sein, müssen bestehende Data Warehouse- und Analyselösungen modernisiert oder eingeführt werden.
Eine zentrale und qualitätsgesicherte Datenbasis stellt das Fundament für eine erfolgreiche Unternehmenssteuerung dar. Auf Basis eines konsolidierten und validen Datenmodells nimmt die bimanu Cloud die Analyse – Komplexität, reduziert Fehler in der Datengrundlage und Berichtserstellung.
Zeitersparnis durch einen effizienten Automatisierungsgrad
In bisherigen Analytics Werkzeugen sind die Anwender selbst für die logische Verbindung Ihrer Daten verantwortlich und damit müssen sie auch die Datenqualität sicherstellen. Die bimanu Cloud automatisiert diesen Schritt. Durch den bimanu Modeler wird aus den Metadaten ein performantes „Best Practice“ virtuelles Datenmodell erzeugt. Damit ist die Schaffung einer qualitätsgesicherten, unveränderlichen und einheitlichen Datenbasis für Bestands- und Bestandsbewegungsgrößen sichergestellt. Die Daten werden aus verschiedenen Quellen automatisch und korrekt in Beziehung gesetzt. Ein manuelles Verbinden Ihrer Datenquellen innerhalb der Berichtswerkzeugen ist damit nicht mehr erforderlich. Dadurch wird eine gleichbleibende Datenqualität der Unternehmensanalysen garantiert und der Mehraufwand für die Berichtserstellung reduziert.
Swen Göllner, Mitgründer der bimanu Cloud und der bimanu Cloud Solutions GmbH ergänzt: „Mittelständischen Unternehmen haben längst erkannt, dass Business Intelligence ein wichtiges Instrument für die Unternehmenssteuerung sein kann und damit zwangsläufig zum Wettbewerbsvorteil führt.
Die relevanten Informationen zur Unternehmenssteuerung liegen meist in verteilten Systemen vor und sind schwer kombinierbar. In der Regel wird versucht diese Daten manuell in diversen Auswertewerkzeugen wie z.B. Qlik, PowerBI oder Excel aufzubereiten und auszuwerten. Die Folge ist immer wiederkehrender Aufwand in der Analyse- und Berichtserstellung. Zudem müssen die Daten von der Quelle bis hin zur Analyse selber organisiert werden und die Gefahr. dass die Datenqualität darunter leidet, ist hoch.
Die Vorteile für eine automatisierte Cloud – Lösung aus Unternehmenssicht liegen auf Hand. Schnelle Implementierung im Vergleich zu On-Premise Lösungen. Die Kostenreduktion: Es fallen keine Lizenz-, Wartungs- und Hardwarekosten an, es werden keine zusätzlichen Mitarbeiter benötigt und es wird nur das bezahlt, was tatsächlich verbraucht wird. Zudem wird keine spezielle Expertise benötigt, da nur ein bestimmtes Einsatzszenario eingesetzt wird. Das hilft den Unternehmen, die wegen Ihren knappen Ressourcen keine eigene Datenintegration- und Analyse – Plattformen aufbauen können.
Aber nicht nur die fachlichen Anforderungen sind als Herausforderung zu nennen, auch der Markt der Softwareanbieter ist intransparent und macht es für die Entscheider nicht gerade einfach. Natürlich können Gartner Magic Quadranten als Vergleiche herangezogen werden oder man orientiert sich an den bekannten Softwareherstellern wie SAP, Qlik & Co. die mit Ihrem Marketing den Self Services Ansatz versprechen. Nicht falsch verstehen, das sind gute Software Applikationen, aber es reicht nicht aus. Die Softwaresysteme bilden nur die Basis und der Endanwender ist von der Quelle bis zur Analyse für seine Daten verantwortlich.“
Wir zeigen wie ein bezahlte und leistungsfähige Business Intelligence Cloud auch für KMU möglich sind, um später die Grundlage für die eigentliche Digitalisierung zu legen. Ohne eine solide Datenbasis macht es überhaupt keinen Sinn über die neuen Technologien wie z.B. Machine Learning nachzudenken. Mit der bimanu Cloud ist beides möglich – eine bezahlbare und zukunftssichere Plattform, die es ermöglicht alle Datenbereiche der Unternehmen in einer zentralen & performanten Datenbasis abzubilden.“
Über bimanu bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
Link: https://bimanu.de/bimanu-cloud/
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
Kfm. Geschäftsführer & Gründer
E-Mail: swen.goellner@bimanu.de
Kfm. Geschäftsführer & Gründer