Daten-Demokratisierung = Kontrollverlust? 4 Gründe, die dagegensprechen
1. Kontrolle mittels Role Based Access
Die Prämisse von Daten-Demokratisierung – jeder Mitarbeiter ist in der Lage, Daten selbstständig zu sammeln, analysieren und nutzen – hört sich zunächst überzeugend an. Schließlich können Unternehmen so beispielsweise Prozesse beschleunigen, weil Mitarbeiter nicht mehr zunächst auf aufbereitete Datensätze warten müssen. Gleichzeitig gibt es aber in jedem Unternehmen Daten, die schlicht nicht für jeden einsehbar sein sollten – Personal- oder Finanzdaten etwa. Auch brauchen Mitarbeiter in höheren Positionen wahrscheinlich Zugang zu anderen Daten als ihre Teammitglieder.
Mit einer Plattform für Datenvirtualisierung können Unternehmen entsprechende Role Based Access Controls (RBAC) in einer zentralen Schicht einrichten. Das heißt, sie können genau festlegen, welche Rollen auf welche Daten zugreifen dürfen. Dies lässt sich je nach Lösung sogar granular für einzelne Spalten oder Zeilen in Datenbanken bestimmen. Unternehmen können so sicherstellen, dass Mitarbeiter nur auf die Daten zugreifen, die ihrer Rolle und ihrem Level entsprechen.
2. Kontrolle darüber, wie Daten genutzt werden
Es geht aber nicht nur darum, auf welche Datensätze Mitarbeiter Zugriff erhalten, sondern auch, was sie anschließend mit diesen machen können. Denn Unternehmen sind verpflichtet, den Missbrauch ihrer Daten verhindern. Daher ist ein Monitoring wichtig, um die Übersicht darüber zu haben, wer welche Daten wann und wie nutzt oder verändert. Eine Datenvirtualisierungs-Plattform geht dabei noch einen Schritt weiter: Sie ist in der Lage, Nutzern Datensätze zu empfehlen, die für ihre Zwecke am besten geeignet sind. Außerdem sorgt die semantische Schicht bei der Datenvirtualisierung dafür, dass alle Datensätze einer gemeinsamen Taxonomie und Namenspraxis folgen, und stellt Mitarbeitern diese standardisierten virtuellen Datensätze bereit. Dadurch wird verhindert, dass unterschiedliche Datendefinitionen zu Verwirrung oder gar Chaos führen.
3. Kontrolle über die Auslastung der Backend-Systeme
Wenn alle Mitarbeiter die Unternehmensdaten nach Belieben verwenden können, kann dies zu einer starken Auslastung oder Überlastung der Backend-Systeme (z.B. ERP) führen. Um dies zu verhindern, bietet eine Plattform für Datenvirtualisierung aber verschiedene Möglichkeiten: So lassen sich die Auswirkungen mithilfe eines Resource Managers kontrollieren, indem hier konkrete Einschränkungen für Abfragen definiert werden. Unternehmen können beispielsweise begrenzen, wie viele Querys gleichzeitig durchgeführt werden können, wie lange die Abfrage dauern darf, bevor sie automatisch beendet wird, wie viele Zeilen das Ergebnis haben darf und mehr. Gleichzeitig können Unternehmen auch vorgeben, wann diese Restriktionen greifen. Dies kann zum Beispiel bei bestimmten Rollen der Fall sein, aber etwa auch bei der Zugriffsmethode.
4. Kontrolle darüber, wie Daten abgefragt werden
Unternehmen können mithilfe von einer Datenvirtualisierungs-Plattform aber nicht nur einschränken, wie Querys sich auf die Backend-Systeme auswirken, sondern auch, wie Mitarbeiter diese grundsätzlich durchführen können. Dafür stehen ihnen Filter zur Verfügung, die den abgefragten Bereich einschränken. So werden Mitarbeiter davon abgehalten, (womöglich unbedacht) den gesamten Datenbestand des Unternehmens durchzusuchen, was bei Tausenden Terabyte an Daten sehr viel Zeit und auch Geld kostet. Unternehmen können es ihren Mitarbeitern freistellen, diese Filtermöglichkeiten zu nutzen, oder aber die Plattform so konfigurieren, dass sie verwendet werden müssen. Da bei der Daten-Demokratisierung auch viele Mitarbeiter ohne technisches Verständnis für etwaige Auswirkungen Querys durchführen, kann dies eine probate Lösung sein, um einerseits den Zugang zu Daten zu gewähren, aber ohne andererseits fürchten zu müssen, dass die Systeme überlastet werden und die Kosten explodieren.
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht.
Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Denodo zu “Google Cloud Ready – BigQuery” validiert
Das technologische Herz der Denodo-Lösung, einer Plattform für die Integration, Verwaltung und Bereitstellung von Daten, ist Datenvirtualisierung. Diese Technologie ermöglicht es Unternehmen, unabhängig von Standort, Format und Latenz all ihre Daten zu nutzen, die in unterschiedlichen Repositories gesammelten Daten logisch (d.h. ohne Replikation) zu integrieren und sie schnell nutzbar zu machen. Daneben unterstützt die Denodo Platform weitere Kernfunktionen wie die Topologie von Datenbewegungen, Stream-Datenintegration, API-Dienste, komplexe Datentransformationen, usw.
„Google Cloud Ready – BigQuery“ ist ein Programm, das Partnerintegrationen validiert und so das Vertrauen der Nutzer in die Integrationsfähigkeit stärkt. Im Rahmen dieser Initiative überprüfen die Google Cloud Engineering Teams die Integrationsfähigkeit von Partnern in einem dreistufigen Prozess:
- Sie führen eine Reihe von Datenintegrationstests durch und vergleichen die Resultate mit Benchmarks.
- Sie arbeiten eng mit den Partnern zusammen, um etwaige Lücken zu schließen.
- Sie präzisieren die Dokumentation für die Anwender.
„Unternehmen arbeiten mit verschiedenen Partnern und Anwendungen parallel zu BigQuery, um mit ihren Daten Werte zu generieren um die digitale Transformation ihres Geschäfts forcieren“, so Ritika Suri, Director, Technology Partnerships, Google Cloud. „Die Auszeichnung ‚Google Cloud Ready – BigQuery‘ bestätigt, dass Kunden, die datengesteuerte Entscheidungen unternehmensweit vorantreiben wollen, durch die Integrationen von Denodo mit BigQuery einen erheblichen Mehrwert und hervorragende Ergebnisse erhalten.“
„Wir sind hocherfreut über die Validierung als ‚Google Cloud Ready – BigQuery‘ für die Denodo Platform“, erklärt Suresh Chandrasekaran, Executive Vice President bei Denodo. „Als führendes Unternehmen im Bereich Datenmanagement unterstützt Denodo bereits tausende Unternehmen bei der Demokratisierung ihrer Daten. Hierdurch können Business-User schnellere und bessere Entscheidungen treffen. Die Integration von Denodo mit BigQuery von Google Cloud wird zweifellos vielen dieser Kunden dabei helfen, ihre Time-to-Insights zu beschleunigen und dadurch noch innovativer zu werden.“
Die Denodo Plattform für die Google Cloud Platform (GCP) ist auf dem GCP Marketplace in vier abonnementbasierten Angeboten verfügbar. Die Basislösung Denodo Professional erleichtert Unternehmen den Einstieg in die Datenvirtualisierung. Denodo Standard ermöglicht Datenvirtualisierung für das gesamte Unternehmen, während Denodo Enterprise und Enterprise Plus logische Data-Fabric-Lösungen bieten.
Mit der kostenlosen 30-tägigen Testversion von Denodo Professional lassen sich eine Vielzahl von Anwendungsfällen wie Smart Analytics, intelligentes BI-Reporting, Data as a Service, SaaS-Integration und mehr ausprobieren. Weitere Informationen über „Google Cloud Ready – BigQuery“ und dessen Vorteile sind hier verfügbar: https://cloud.google.com/bigquery/docs/bigquery-ready-overview
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht. Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Denodo Platform: Zwei neue Abo-Modelle gehen auf die Datenanforderungen von Mittelstandsunternehmen ein
Besonders mittelständische Unternehmen mit begrenztem Budget profitieren von den neuen Abo-Modellen, da sie für eine schnelle Datenbereitstellung und -nutzung sorgen. Gleichzeitig bleiben sie im Rahmen ihrer Budget- und Projektanforderungen, ohne viel Zeit und Ressourcen in Echtzeit-Analysen und Daten-Services investieren zu müssen. Die neuen Abonnements von Denodo umfassen:
- Denodo Professional: Dank leistungsstarker Datenvirtualisierung sowie dem no-code/low-code-webbasierten Designstudio können Unternehmen die Time-to-Insight verkürzen und ihre Daten-Services beschleunigen. Denodo Professional eignet sich am besten für den Einstieg in kleine abteilungsgebundene Projekte mit einem begrenzten Zugriff auf fünf Datenquellen.
- Denodo Standard: Mit diesem Modell erhalten mittelständische Unternehmen Zugriff auf eine unbegrenzte Anzahl von Datenquellen, was ihnen die Umsetzung mehrerer operativer und analytischer Use Cases erlaubt. Es enthält außerdem eine integrierte Versionskontrolle, mit der sich Änderungen leicht nachverfolgen lassen.
Zudem besteht die Möglichkeit, das Abonnement auf ein Denodo Enterprise- oder Enterprise-Plus-Modell hochzustufen, um Zugriff auf Funktionen wie einen Datenkatalog, KI/ML und Semantik-Erweiterung zu erhalten.
„Für dynamische Unternehmen aus dem Mittelstand ist es unerlässlich, eine einheitliche Sicht auf alle Daten zu erhalten, um in Echtzeit entscheidende Erkenntnisse zu gewinnen", kommentiert Angel Viña, CEO und Gründer von Denodo. „Wir haben viele mittelständische Unternehmen bei der abteilungs- und unternehmensweiten Datenintegration und -verwaltung unterstützt. Mit den neuen Abonnements wollen wir sicherstellen, dass unsere Kunden nur für die Funktionen aufkommen, die sie auch wirklich benötigen. Ich freue mich daher sehr über das positive Feedback hinsichtlich der neuen Modelle und bin mir sicher, dass Denodo in Zukunft für viele weitere Mittelstandsunternehmen ein integraler Bestandteil ihrer Datenstrategie sein wird."
Denodo bietet seinen Kunden eine 30-tägige kostenlose Testversion von Denodo Professional an, die auf den AWS, Azure und Google Cloud Platform Marketplaces verfügbar ist.
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht. Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Das dritte Jahr in Folge: Denodo erneut „Leader“ im Gartner Magic Quadrant für Datenintegrations-Tools
In dem Bericht heißt es, dass der Markt für Lösungen zur Dtaenintegration derzeit eine neue Dynamik erfährt. Diese ist angetrieben von den Anforderungen an hybride und Multi-Cloud-Datenintegration sowie Data-Fabric-Konzepten. Während Denodo-Kunden die üblichen Use Cases wie Data Engineering, Cloud-Datenintegration und API-Services mit der Denodo-Plattform bedienen, wächst die Popularität von Data-Fabric- und Data-Mesh-Architekturen. Bis 2024 wird die Verbreitung manueller Datenintegration aufgrund von Data-Fabric-Konzepten in Kombination mit erweiterter Datenintegration um 50 Prozent sinken, so die Prognose im aktuellen Gartner Magic Quadrant Report.
Die Denodo Platform ermöglicht die Integration, das Management sowie die Bereitstellung von Daten auf Grundlage von Datenvirtualisierung. Als Kernfunktion von Datenintegrations-Tools stellt Datenvirtualisierung unabhängig von Speicherort, Format und Latenz eine Verbindung zu Daten her und integriert virtuell jene Daten, die sich in unterschiedlichen Repositories ansammeln. Auf diese Weise können Daten-Konsumenten und Anwendungen schnell und sicher darauf zugreifen. Der Report unterstreicht zudem folgendes: Schaffen es Datenintegrations-Tools nicht, eine Balance zwischen ‚collect‘- und ‚connect‘-basierten Datenmanagement-Architekturen herzustellen, besteht das Endergebnis fast immer aus Datensilos und/oder mangelhaft integrierten Infrastrukturen. Neben Datenvirtualisierung unterstützt die Denodo-Plattform weitere Funktionen wie Datenbewegungstopologien, Streaming-Datenintegration, API-Services, komplexe Datentransformationen, erweiterte Datenintegrations-Szenarien sowie die Übertragbarkeit Data Preperation Prozessen.
„Ich freue mich sehr, dass Denodo im Gartner Magic Quadrant zum dritten Mal in Folge zum „Leader“ ernannt wurde“, sagt Ravi Shankar, Senior Vice President und Chief Marketing Officer bei Denodo. „Die Denodo Plattorm schafft einen modernen Ansatz in Sachen Datenintegration, -management und -bereitstellung. Mit ihr profitieren Anwender von vielen wichtigen Funktionen. Diese umfassen eine Datenabstraktionsschicht, eine KI-gestützte Abfrage-Beschleunigung für komplexe analytische Workloads, einen integrierten, KI/ML-unterstützen Datenkatalog sowie automatisiertes Cloud-Infrastruktur-Management. Im Rahmen der Gartner Peer Insights 2022 „Voice oft he Customer“ wählten Kunden Denodo bereits zum besten Datenintegrations-Tool mit der Auszeichnung „Customers‘ Choice“. Wir sind sehr gespannt darauf zu sehen, wie global agierende und mittelständische Unternehmen die Denodo Platform künftig nutzen werden, um ihre unternehmensweit verteilten Daten mithilfe von dezentralen Architekturen und Ansätzen wie Data Fabric und Data Mesh zu managen.“
Der vollständige 2022 Gartner Magic Quadrant Report, der am 17. August 2022 veröffentlicht und von Ehtisham Zaidi et al. verfasst wurde, liegt hier zum Download bereit.
Um zu erfahren, wie Denodo-Kunden ihre Erfahrungen mit der Denodo Plattform bewerten, lesen Sie die Gartner Peer Insights.
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht. Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Widerlegt: 5 häufige Mythen über Datenvirtualisierung
1. Datenvirtualisierung ist mit komplexen Abfragen auf großen Datenmengen überfordert
Hintergrund: Noch vor einigen Jahren wurde Data Federation genutzt, um auf Daten aus verschiedenen Quellen zuzugreifen, ohne diese dabei zu kopieren. Allerdings wurden die Daten dabei nicht remote verarbeitet, sondern dafür in den Federation Server gezogen. Dies funktionierte nur schlecht bei der Verarbeitung großer Datenmengen oder komplexer Abfragen.
Realität: Lösungen für Datenvirtualisierung wie die Denodo Platform schreiben Anfragen so um, dass die Verarbeitung dorthin verlagert wird, wo sich die Daten befinden. Deshalb müssen große Datenmengen erst gar nicht erst durch das System bewegt werden. Zudem wird die Performance bei Abfragen für langsamere Datenquellen verbessert, indem zwischengespeicherte Daten aus dem Cache verwendet werden. Moderne Plattformen für Datenvirtualisierung sind daher durchaus in der Lage, komplexe Abfragen auf großen Datenmengen sehr schnell zu verarbeiten.
2. BI-Tools und Datenvirtualisierung sind austauschbar
Hintergrund: Business-Intelligence-Tools bieten heute Funktionen für Data Blending, also um Daten aus verschiedenen Quellen miteinander zu kombinieren, zu bearbeiten und zu analysieren sowie daraus Reports für das Business zu erstellen. Zudem verfügen manche Tools auch über Funktionen für Data Modeling.
Realität: Zwar ermöglichen BI-Tools Data Blending und Reports. Sie sind aber in ihrer Funktionalität eingeschränkt, denn jedes Tools benötigt sein eigenes semantisches Datensilo. Die Verbindung zwischen unterschiedlichen Tools ist nicht gegeben, sodass Data Blending auf das Tool eines spezifischen Anbieters ausgerichtet ist. Datenvirtualisierung ist jedoch in der Lage, Daten aus nahezu allen Quellen mit einer Vielzahl von Konsumenten und Tools in einem unternehmensweiten Data-Fabric-Layer zu verbinden.
3. Wer einen Data Lake hat, braucht Datenvirtualisierung nicht
Hintergrund: Data Lakes waren ursprünglich als Möglichkeit gedacht, um Daten, die typischerweise nicht in Datenbanken gespeichert sind, zu explorieren und nutzbar zu machen. Heute werden dort dagegen alle Unternehmensdaten gespeichert, analysiert und verarbeitet.
Realität: Data Lakes sind äußerst komplex. So sind dort häufig gar nicht alle Daten gespeichert, auch weil sich nicht alle Daten hineinkopieren lassen. Zudem verfügen Unternehmen oft über mehrere Data Lakes. Außerdem fehlt ihnen eine entscheidende Komponente, um für eine breite Anzahl an Nutzern überhaupt hilfreich zu sein – Data Delivery Services. Statt einfach auf die Daten zugreifen zu können, müssen Nutzer sie erst selbst im Data Lake finden. Datenvirtualisierung bietet dagegen Zugriff auf Daten aus Data Lakes und anderen Quellen in einer einzigen einheitlichen Schicht und hilft Nutzern mit einem Data Catalog, Daten im Data Lake zu finden und verstehen.
4. Wer ETL-Tools nutzt, braucht Datenvirtualisierung nicht
Hintergrund: Unternehmen können mithilfe von ETL-Tools Daten aus verschiedenen Quellen extrahieren, transformieren und dann in eine Datenbank oder ein Data Warehouse laden.
Realität: ETL-Pipelines sind fragile Strukturen – kommt beispielsweise eine neue Datenquelle hinzu, bauen Unternehmen lieber eine neue Pipeline als die bestehenden zu verändern. Das führt einerseits zu Datensilos, was es für Nutzer schwieriger macht, benötigte Daten schnell zu finden und zu verarbeiten. Andererseits führt es zu Datenduplikaten, ein durchschnittliches Unternehmen hat zwölf oder mehr Kopien seiner Daten, die verteilt in der gesamten Architektur liegen. Bei Datenvirtualisierung verbleiben die Daten dagegen dort, wo sie sind, und werden nur in einer virtuellen Schicht dargestellt. Das spart Arbeit, Zeit und Speicherplatz.
5. Datenvirtualisierung führt zu einem Kontrollverlust bei den Daten
Hintergrund: Datenvirtualisierung gibt allen Mitarbeitern Zugriff auf Unternehmensdaten, damit sie Analysen per Self-Service schnell und einfach selbst ausführen können. Damit geht aber der Überblick verloren, wer welche Daten wie nutzt. Außerdem fehlt vielen Mitarbeitern das Verständnis dafür, wie sich Anfragen auf Backend-Systeme auswirken und welche Kosten sie womöglich verursachen.
Realität: Plattformen für Datenvirtualisierung bieten zahlreiche Kontroll- und Governance-Funktionen, um den Zugang auf granularer Ebene zu regeln, für die Einschränkung von Anfragen – was beispielsweise Dauer, Prioritäten oder Zeilen im Ergebnis betrifft – und um den Umfang von Anfragen einzugrenzen, etwa durch die Nutzung von Filtern. Unternehmen können auch standardisierte, kuratierte Daten für die Analysen ihrer Mitarbeiter bereitstellen.
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht. Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Denodo Cloud Survey: Unternehmen sorgen sich um Verwaltung neuer Cloud-Systeme während sie versuchen Daten optimal zu nutzen
Hybrid Cloud dominiert
Cloud-basierte Data Warehouses, Data Lakes und Lake Houses spielten im Jahr 2021 eine herausragende Rolle und werden von den Befragten sowohl als wichtigste Initiative (48 Prozent) als auch als wichtigster Anwendungsfall (57 Prozent) genannt. Die Hybrid-Cloud ist nach wie vor das bevorzugte Bereitstellungsmodell, wie schon in der Umfrage von 2020. In diesem Jahr ist die Kluft zwischen Hybrid Cloud und Public Cloud jedoch deutlich größer: Fast doppelt so viele Befragte (37,5 Prozent) entscheiden sich für die Hybrid Cloud wie für die reine Public Cloud (20 Prozent). In diesem Jahr wird deutlich, dass die hybride Cloud weniger eine Wahl als vielmehr eine Notwendigkeit ist, was darauf hindeutet, dass die Unternehmen ihre On-Premises-Systeme nicht vollständig abschaffen, auch wenn sie ihre Cloud-Präsenz erhöht haben. Die Unternehmen haben gute Gründe für die gemischte Bereitstellung, unter anderem. die Einhaltung gesetzlicher Vorschriften, weshalb sie sich möglicherweise dafür entscheiden, On-Premises-Systeme nicht einfach aufzugeben, wenn sich die Technologielandschaft ändert.
Fast vier von fünf der befragten Unternehmen (79 Prozent) nannten die Komplexität der Datenintegration, Datenverfügbarkeit und Anpassung an unterschiedliche Datenformate als Haupthindernis für eine datengesteuerte Entwicklung, gefolgt von einem Mangel an analytischen Fähigkeiten und Ressourcen, um Rohdaten in verwertbare Information umzuwandeln (62 Prozent). 44 Prozent der Unternehmen waren nach der Einführung von Cloud-Technologien nicht in der Lage, die Hälfte oder mehr ihrer Daten zu finden, darauf zuzugreifen und sie zu analysieren, und nur 17 Prozent waren in der Lage, 75 Prozent oder mehr ihrer Daten nutzbar zu machen, da sie häufig mehr Zeit für die Suche nach, den Zugriff auf und die Vorbereitung von Daten aufwenden als für deren Analyse.
Vom Aufbau zum Ausbau der Cloud-Infrastrukturen
Auch die Rolle der IT bei der Cloud-Modernisierung hat sich verändert. Im Jahr 2020 lag der Schwerpunkt der IT-Experten auf der Auswahl des geeigneten Cloud-Anbieters und der Verwaltung der Migration. Im Jahr 2021 jedoch konzentrieren sich die IT-Teams mehr auf die Schulungen, um die Cloud-Systeme ihres Unternehmens auf die nächste Stufe zu heben (laut 31,3 Prozent der Umfrageteilnehmer). Unternehmen nutzen die Cloud für verschiedene Anwendungsfälle, wobei Berichte und Dashboards sowie Self-Service-BI und Ad-hoc-Analysen am beliebtesten sind. Die Befragten erwarten jedoch für die Zukunft eine Verlagerung auf Datenvirtualisierung, Datenaufbereitung, Datenqualität und Data Blending.
Diese Anwendungsfälle zeichnen ein anschauliches Bild davon, wo viele Unternehmen auf ihrer Cloud-Reise stehen. Unternehmen sind bereit, ihre Daten besser zu nutzen, und versuchen, ihre Cloud-Systeme mit robusten Cloud-basierten Repositories zu optimieren. Nach der Migration wichtiger Workloads in die Cloud besteht der nächste Schritt für viele Unternehmen darin, einen Ort zu finden, an dem sie die neuen Daten speichern können. Moderne Datenverwaltungsansätze wie Logical Data Fabric ermöglichen es Unternehmen, Altsysteme nahtlos zu integrieren, so dass sie mit Cloud-Systemen zusammenarbeiten können.
„Vor dem Hintergrund des wachsenden Bedarfs an Echtzeitdaten spielt Verfügbarkeit eine entscheidende Rolle“, sagt Ravi Shankar, Senior Vice President und Chief Marketing Officer von Denodo. „Dies gilt für alle Konfigurationen, aber die Realität ist, dass die meisten Unternehmen auch nach der Einführung von Cloud-Technologien nicht in der Lage sind, die Hälfte oder mehr ihrer Daten zu finden, darauf zuzugreifen und sie zu analysieren. Das mag der Grund sein, warum die überwältigende Mehrheit der Unternehmen (93 Prozent) angibt, dass sie Cloud-basierte Datenintegration, -verwaltung und -analyse nutzen, evaluieren oder in Erwägung ziehen, einschließlich leistungsfähiger Technologien wie Datenvirtualisierung und Logical Data Fabric, um einen nahtlosen Echtzeit-Zugriff sowohl auf lokale als auch auf Cloud-Systeme zu ermöglichen.“
Microsoft Azure und Amazon Web Services (AWS) dominieren weiterhin den Markt für Cloud Provider, doch in diesem Jahr hat AWS (44,6 Prozent) Azure (26,2 Prozent) mit deutlichem Vorsprung überholt, nachdem Azure zwei Jahre in Folge knapp vor AWS gelegen hatte. Google Cloud Platform (GCP) kam laut der Umfrage als drittbeliebteste Option (8 Prozent) ins Spiel. Alibaba wuchs von 1,4 Prozent im Jahr 2021 auf 3,6 Prozent in diesem Jahr.
Methodik:
Die Denodo Global Cloud Survey 2022 befragte Stakeholder in mehr als 150 Unternehmen in den drei großen globalen Regionen Nordamerika, EMEA und APAC, um zu verstehen, wo sich die Unternehmen bei der Einführung der Cloud befinden. Die Umfragen wurden im März 2022 online unter Daten- und Cloud-Experten mit unterschiedlichem Hintergrund und in verschiedenen Rollen durchgeführt. Die Ergebnisse der Denodo Global Cloud Survey 2022 stehen hier zum Download bereit.
Denodo ist führender Anbieter im Bereich Datenmanagement. Die preisgekrönte Denodo-Plattform ist die überlegene Lösung für Datenintegration, -management und -bereitstellung, die einen logischen Ansatz verfolgt, um Self-Service-BI, Data Science, hybride/multi-Cloud-Datenintegration und Daten-Services zu ermöglichen. Mit einem ROI von mehr als 400% haben mittelständische und große Kunden von Denodo in über 30 Branchen eine Amortisierung in weniger als sechs Monaten erreicht. Weitere Informationen finden Sie unter www.denodo.com/de
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Der Weg zur Smart City: Vier Aspekte sind erfolgsentscheidend
Smart-City-Initiativen sollen dazu beitragen, den Alltag für Stadtbewohner effizienter, sicherer und nachhaltiger zu gestalten. Die Möglichkeiten sind zahlreich und können ganz unterschiedliche Lebensbereiche betreffen:
- Mobilität – Ampeln, die mithilfe von Sensoren ihre Rot-Grün-Phasen an das tatsächliche Verkehrsaufkommen anpassen, und smarte Park-Leitsysteme, die den Verkehrsfluss optimieren.
- Energie – Gebäude, die Energie gewinnen, sei es durch Solaranlagen oder durch Wärmerückgewinnung im Rechenzentrum, können den eigenen Bedarf und den ihres unmittelbaren Umfelds decken.
- Sicherheit – Straßenlaternen, die anhand von Sensoren wahrnehmen, dass sich ihnen jemand nähert, können daraufhin heller leuchten und über integrierte Notfallknöpfe Hilfesuchende schnell mit dem Notruf verbinden.
Obwohl die Vorteile solcher Ideen auf den ersten Blick überzeugen mögen, gestaltet sich die Umsetzung in der Realität allerdings oft als schwierig. Das liegt sowohl an den technologischen Voraussetzungen, die zunächst geschaffen werden müssen, wie auch an mangelhafter Unterstützung durch Betroffene. Um zu einer wahren Smart City zu werden, brauchen Städte deshalb ein integriertes Gesamtkonzept, das vier Faktoren abdeckt:
1. Unterstützung in Bevölkerung und Belegschaft
Sind die Menschen nicht vom Nutzen solcher Initiativen überzeugt, sind diese zum Scheitern verurteilt. Das gilt genauso für die eigentlichen Bewohner wie auch die Mitarbeiter der Städte. Wichtig ist deshalb eine klare Kommunikation, die Kosten, Dauer und Nutzen klar benennt, um Unterstützung für Projekte zu gewinnen. Befragungen zu den dringlichsten Problemen oder die Möglichkeit, eigene Vorschläge einzubringen können ebenfalls hierzu beitragen.
2. Erwerb der benötigten Fähigkeiten durch Neueinstellungen oder Weiterbildungen
Städte brauchen Mitarbeiter, die über das Fachwissen verfügen, um ihre digitale Transformation voranzutreiben. Sie stehen dabei jedoch im Wettbewerb mit dem Privatsektor, der ebenfalls stark vom IT-Fachkräftemangel betroffen ist. Entsprechend müssen die Verantwortlichen entweder versuchen, die Attraktivität städtischer IT-Stellen zu steigern oder die eigenen Mitarbeiter schnellstmöglich weiterzubilden, um die benötigten Fähigkeiten zu erhalten.
3. Smarte Daten für eine digitale Infrastruktur
Vielen Städten fehlt noch die Infrastruktur für eine Smart City: Ämter und Behörden verfügen zwar über verschiedene digitale Lösungen, sind aber nicht in der Lage, diese miteinander zu verknüpfen, auch weil Daten oft in ganz unterschiedlichen Formaten, Qualitäten und Granularitäten vorliegen. Städte brauchen stattdessen Smart Data: Daten, die so aufbereitet wurden, dass sie qualitativ hochwertig, rechtssicher und intelligent sind und in Echtzeit genutzt werden können.
4. Die Basis: Zentrale und skalierbare kommunale Datenplattform
Für die Bereitstellung dieser Daten für die verschiedenen digitalen Services benötigen Städte eine zentrale leistungsstarke Datenplattform, die in der Lage ist, verschiedenste Datenquellen anzubinden und Daten unabhängig von ihrem Format zu integrieren. Zusätzlich sollte sie skalierbar sein, denn: aller Anfang ist schwer und eine Smart City entsteht nicht von heute auf morgen. Die Plattform sollte aber erste kleinere Projekte genauso unterstützen können, wie spätere, die wesentlich umfangreicher sind.
Denodo ist das führende Unternehmen im Bereich der Datenvirtualisierung und bietet Unternehmen agile und hochleistungsfähige Datenintegration, Datenabstraktion und Datendienste in Echtzeit an. Mit der Denodo Plattform können Daten aus einer Vielzahl verschiedener Quellen integriert werden, unabhängig davon, ob es sich dabei um strukturierte oder unstrukturierte Daten, Unternehmensdaten, Cloud-Daten oder Big Data handelt, und das zur Hälfte der Kosten herkömmlicher Datenintegrationsansätze. Denodo hilft so seinen Kunden in sämtlichen Industrien durch eine virtuelle Datenschicht ihre Flexibilität und ihren ROI erheblich zu steigern. Denodo wurde 1999 gegründet und befindet sich in Privatbesitz. Für weitere Informationen besuchen Sie https://www.denodo.com/de oder kontaktieren Sie uns unter info@denodo.com.
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Denodo: 5 Trends, mit denen sich Daten 2022 effektiver nutzen lassen
1. Die Data Fabric wird zur Basis dezentral arbeitender Organisationen
Digitale Unternehmen, die Verbreitung von Online-Vertriebskanälen und Remote Work sorgen zunehmend für ein komplexes und vielfältiges Ökosystem aus Nutzern, Anwendungen und der Daten-Infrastruktur. Insbesondere letztere kann sich über lokale Server, Single- oder Multi-Clouds sowie einer Kombination aus diesen und über Ländergrenzen hinweg erstrecken. Viele Unternehmen werden deshalb im Jahr 2022 eine Data Fabric implementieren, um verteilte Datenbestände, mithilfe logischer, physischer oder hybrider Ansätze zu vereinheitlichen. Hierdurch werden Unternehmen in der Lage sein, Aufgaben im Bereich der Datenintegration, -aufbereitung und -bereitstellung zu automatisieren und die Time-to-Delivery signifikant zu verkürzen.
Laut einer aktuellen TEI-Studie von Forrester geht eine Data Fabric basierend auf einer modernen Datenvirtualisierungs-Plattform sogar noch einen Schritt weiter, indem sie Datenmanagement-Funktionen mithilfe von KI/ML automatisiert und zusätzliche semantische Funktionen mittels Datenkatalog, Datenaufbereitung und Datenmodellierung bereitstellt.
2. Datenbasierte Entscheidungsfindung hält unternehmensweit Einzug
Entscheidungsintelligenz setzt sich aufgrund der riesigen erfassten Datenmengen immer mehr durch. Dabei werden reguläre BI-Dashboards durch KI/ML-gesteuerte Systeme zur Entscheidungsunterstützung ergänzt. Dadurch können Unternehmen Vorhersagen über die Auswirkungen bestimmter Maßnahmen treffen sowie manche Maßnahmen gegenüber anderen empfehlen, damit das System lernt.
Im kommenden Jahr bietet „Decision Intelligence“ das Potenzial, Beurteilungen genauer und schneller vorzunehmen, da maschinengenerierte Entscheidungsprozesse in einer Geschwindigkeit ablaufen, die Menschen nicht erreichen können. Allerdings verfügen Maschinen noch nicht über ein Bewusstsein. Daher sollten Unternehmen, die Entscheidungsintelligenz in ihren BI-Stack integrieren, die Ergebnisse kontinuierlich kontrollieren und unbeabsichtigte Folgen vermeiden, indem sie die Entscheidungsparameter entsprechend anpassen.
3. Data-Mesh-Architekturen zunehmend verbreitet
Je größer und komplexer ein Unternehmen, desto stärker müssen sich zentrale Daten-Teams mit einer Vielzahl von Abteilungen, Datenkonsumenten und Datenanforderungen auseinandersetzen. Data Mesh ist ein neuer dezentraler Datenarchitekturansatz, der darauf abzielt, Engpässe zu beseitigen und Datenentscheidungen näher an diejenigen zu bringen, die die Daten verstehen.
Größere Organisationen werden eine solche Architektur daher künftig vermehrt implementieren. Da die einzelnen Teams und Abteilungen besser verstehen, wie sie ihre Daten nutzen werden, führt die Möglichkeit, eigene Dateninfrastrukturen zu definieren und zu implementieren zu weniger Iterationen bis die spezifischen Business- und Qualitäts-Anforderungen erfüllt sind. Data Mesh etabliert dennoch eine einheitliche Infrastruktur, die es Abteilungen ermöglicht, Datenprodukte zu erstellen und gemeinsam zu nutzen und gleichzeitig Standards für Interoperabilität, Qualität, Governance und Sicherheit umzusetzen.
4. Adaptive Daten-Architekturen erhöhen die Schlagkraft der Data Scientists
Monolithische Architekturen gehören bereits der Vergangenheit an und werden in 2022 weiter zurückgedrängt. Da globale Unternehmen mit über Speicherorte und Ländergrenzen verteilten Daten arbeiten, ist eine physische Konsolidierung aller Unternehmensdaten an einem zentralen Ort praktisch unmöglich. Bei einer adaptiven Architektur können Organisationen hingegen bestimmte Tools für den Aufbau von Teilen oder der gesamten Dateninfrastruktur wählen. Eine Data Fabric bestehend aus einem Datenkatalog-, einem Datenintegrations-, einem Metadaten- und einem semantischen Tool ist ein Beispiel hierfür. Die Möglichkeit, eine Low-Code- oder No-Code-Dateninfrastruktur aufzubauen, bietet Flexibilität und ein hohes Maß an Benutzerfreundlichkeit. Auch sind sie infolge weniger abhängig von der IT. Für 2022 ist zu erwarten, dass Unternehmen den Aufbau adaptiver Daten- und Analyseumgebungen beschleunigt vorantreiben werden, wodurch sie einen Vendor Lock-in vermeiden und Flexibilität und Agilität gewinnen.
5. Konzepte Small und Wide Data Analytics erhalten an Zugkraft
KI/ML verändern die Art und Weise, wie Unternehmen arbeiten. Bislang lag der Fokus auf der Analyse riesiger bestehender Datenmengen – und Big Data wird auch weiterhin Bestand haben, jedoch verlieren ältere historische Daten an Wert. Im laufenden Jahr werden Unternehmen vermehrt auf die Analyse von Small Data setzen, um hochpersonalisierte Erkenntnisse beispielsweise über individuelle Kunden zu generieren und deren Einstellung zu bestimmten Produkten oder Services zu einem bestimmten Zeitpunkt zu erfassen. Wide Data Analytics – wobei strukturierte, unstrukturierte und semi-strukturierte Daten aus verschiedenen Datenquellen zu Analysenzwecken kombiniert werden – ist noch vergleichsweise neu. Angesichts des Tempos, mit dem Unternehmen Geodaten, maschinell erzeugte Daten, Social-Media-Daten und andere Datentypen nutzen, wird diese Art der Analyse aber ebenfalls in 2022 an Zugkraft gewinnen.
Denodo ist führend in der Datenvirtualisierung und bietet agile, leistungsstarke Datenintegration, Datenabstraktion und Echtzeit-Datendienste für verschiedenste Datenquellen. Ob Unternehmen, Cloud, Big Data oder unstrukturierten Daten – Denodo verarbeitet sie zur Hälfte der Kosten herkömmlicher Ansätze. Kunden von Denodo stammen aus allen wichtigen Branchen und konnten erheblich an Flexibilität zulegen und ihren ROI steigern. Dies gelingt durch den schnellen und einfachen Zugriff auf einheitliche Geschäftsinformationen für agile BI, Big Data-Analysen, Web- und Cloud-Integration, Single-View-Anwendungen und Unternehmensdatendienste. Denodo ist kapitalkräftig, profitabel und in Privatbesitz.
Weitere Informationen finden sich unter www.denodo.com
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Smarte Daten erhöhen die Innovationskraft
Die digitale Transformation kam in Deutschland lange Zeit eher schleppend voran – erst die Pandemie hat bei vielen Unternehmen zu einem Umdenken geführt. Inzwischen sind Begriffe wie „Cloud-Computing“, „VPN“ oder „Machine Learning“ längst keine Fremdworte mehr, die die IT-Abteilung immer wieder erklären muss. Mehr noch: Unternehmen setzen zunehmend auf neue Technologien, um ihre Innovationskraft zu steigern, sei es, weil sie interne Prozesse optimieren oder neue Produkte und Dienstleistungen entwickeln können.
Enterprise AI braucht verlässliche Daten in Echtzeit
Eine dieser Technologien ist Künstliche Intelligenz (KI), die auf zwei verschiedene Arten Anwendung findet:
- Consumer AI – hierbei wird KI eingesetzt, um den Kunden einen Mehrwert zu liefern, etwa indem sie den Personalisierungsgrad von Produkten erhöht oder die Kundenerfahrung verbessert.
- Enterprise AI – hierbei wird KI in interne Geschäftsprozesse eingebettet, um diese zu automatisieren und zu beschleunigen.
Während KI schon lange in der ersten Form eingesetzt wird, beispielsweise für Chatbots im Kundenservice, gewinnt Enterprise AI zunehmend an Bedeutung. Als Basis dienen dabei Geschäftsdaten, die mittlerweile in jedem Unternehmen in großen Mengen vorhanden sind. Machine-Learning-Algorithmen können darin Muster erkennen und Verknüpfungen bilden, um Probleme zu identifizieren und direkt zu lösen.
Allerdings sind Daten heute mehr denn je über verschiedene Speicherorte hinweg verteilt, auch weil Unternehmen in den letzten Monaten die Vorteile der Cloud entdeckt haben. Entsprechend liegen ihre Daten nun nicht mehr nur On-Premises, sondern häufig auch auf mehreren Cloud-Plattformen. Gleichzeitig kann sich die Qualität der Daten in dieser hybriden Multi-Cloud-Architektur erheblich unterscheiden. Die Folge: ihnen fehlt ein Single Source of Truth – ein allgemeingültiger, qualitativ hochwertiger Datenbestand. Ohne diesen können Unternehmen sich nicht auf ihre Daten und Erkenntnissen, die aus ihnen gewonnen werden, verlassen. Zudem scheitern herkömmliche Technologien zur Datenintegration daran, die konsolidierten Daten für AI/ML in Echtzeit bereitzustellen.
Zur Single Source of Truth mit Datenvirtualisierung
Datenvirtualisierung kann dieses Hindernis überwinden: Bei dieser Lösung werden die Datenkonsumenten von den Datenquellen entkoppelt und eine einzige logische Datenschicht für den Datenzugriff geschaffen. Durch diese Fähigkeit kann Datenvirtualisierung als „Klebstoff“ fungieren, der komplexe und heterogene Datenarchitekturen und Enterprise AI verbindet:
- Der Speicherort spielt keine Rolle – die Daten werden virtuell integriert, unabhängig davon, wo sie in der hybriden Multi-Cloud-Architektur tatsächlich gespeichert sind.
- Die Daten sind aktuell und eindeutig – weil die Daten weder bewegt noch physisch repliziert werden müssen.
- Datenlieferung in Echtzeit – da die Daten jederzeit genauso dargestellt werden, wie sie momentan in den zugrundeliegenden Datenquellen aussehen, kann die Enterprise-AI-Software immer auf Basis der aktuellsten Daten arbeiten.
Schon heute sind hybride Multi-Cloud-Architekturen aufgrund ihrer beschleunigten digitalen Transformation bei vielen Unternehmen ein wichtiger Bestandteil, während Enterprise AI in den kommenden Jahren noch weiter an Bedeutung gewinnen wird. Ein Zurück in die Zeiten ohne Cloud und KI können Unternehmen sich nicht mehr leisten, zu wichtig sind diese Technologien für die Innovationskraft geworden. Mithilfe von Datenvirtualisierung können sie einen virtuellen Single Source of Truth schaffen, um noch mehr aus ihren Daten herauszuholen und so Prozesse und Produkte kontinuierlich zu verbessern und ihre Zukunftsfähigkeit zu sichern.
Denodo ist führend in der Datenvirtualisierung und bietet agile, leistungsstarke Datenintegration, Datenabstraktion und Echtzeit-Datendienste für verschiedenste Datenquellen. Ob Unternehmen, Cloud, Big Data oder unstrukturierten Daten – Denodo verarbeitet sie zur Hälfte der Kosten herkömmlicher Ansätze. Kunden von Denodo stammen aus allen wichtigen Branchen und konnten erheblich an Flexibilität zulegen und ihren ROI steigern. Dies gelingt durch den schnellen und einfachen Zugriff auf einheitliche Geschäftsinformationen für agile BI, Big Data-Analysen, Web- und Cloud-Integration, Single-View-Anwendungen und Unternehmensdatendienste. Denodo ist kapitalkräftig, profitabel und in Privatbesitz.
Weitere Informationen finden sich unter www.denodo.com
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com
Denodos DataFest 2021: Die Bedeutung der Logical Data Fabric
Melden Sie sich hier für die kostenlose Veranstaltung an.
„Als langjähriger Anwender von Denodo berichte ich auf dem DataFest gerne darüber, wie wir Datenvirtualisierung genutzt haben, um eine Kultur zu fördern, die nicht nur Daten verwaltet, sondern auch die Geschäftsergebnisse beschleunigt", so Jonathan Paul, VP, Director – IT Governance, Fifth Third Bank. „Auf dieser Veranstaltung kommen Führungskräfte aus den Bereichen Daten und Analytik zusammen und ich freue mich darauf, über unsere eigene Reise hin zu moderner Infrastruktur zu sprechen."
Das Denodo DataFest EMEA findet als jeweils halbtägige Veranstaltung am 20. und 21. Oktober zu 100% virtuell statt. Sowohl Denodo-Kunden wie Infineon, DNB, Nedbank, McCormick, Engie, und Multichoice, als auch Denodo-Partner wie Accenture, Q-PERIOR, Wipro, und Axians werden ihre Erfolgsgeschichten mit logischen Datenarchitekturen teilen.
Renommierte Analysten wie Michele Goetz von Forrester Research und David Loshin von TDWI sowie Führungskräfte von Denodo werden sich mit dem Publikum über Hybrid/Multi-Cloud, Data Science, Data Mesh, Lakehouse, Logical Data Fabric und viele andere Trendthemen austauschen, Best Practices für die Implementierung vorstellen und wichtige Funktionen der Denodo-Plattform demonstrieren. Christian Dreier, Lead Principal Engineer Business Intelligence bei Infineon, wird einen Vortrag zum Thema Datenvirtualisierung halten und anhand eines Use Cases erklären, wie sich diese für Energiekostenberichte nutzen lässt.
„Als einer der ältesten und führenden Anbieter von Datenvirtualisierung war unsere Devise schon immer, unser Publikum über die Vorteile logischer Datenarchitekturen aufzuklären. Das DataFest ist die perfekte Plattform, um dieses Ziel zu erreichen", ergänzt Ravi Shankar, Senior Vice President und Chief Marketing Officer bei Denodo. „Wir schätzen es sehr, dass unsere weltweiten Partner und Kunden in den letzten Jahren ihre Erfolgsgeschichten im Bereich der Datenvirtualisierung auf dem DataFest vorgestellt haben, und es auch in diesem Jahr wieder tun. Ich freue mich auf viele spannende, richtungsweisende Diskussionen sowie unterhaltsame Tage mit unseren Kunden, Partnern, Branchenanalysten und unseren eigenen Fachexperten."
Registrieren Sie sich hier für das DataFest in der EMEA-Region (20.-21. Oktober):
Jetzt anmelden
Denodo Technologies GmbH
Oberanger 28
80331 München
Telefon: +49 (89) 59990450
Telefax: +34 (91) 27758-60
http://www.denodo.com
Hotwire
E-Mail: lara.weber@hotwireglobal.com