Künstliche Intelligenz: Vom Aufblühen einer alten Disziplin
Sensordatenanalyse, Predictive Maintenance, Gesichtserkennung, Chatbots, Sprachassistenten, Autonomes Fahren, Pflegeroboter – in IT- und anderen Fachmagazinen werden über diese Themen ebenso flächendeckend berichtet wie in Publikumsmedien. Gemeinsamer Nenner dieser neuen Anwendungen bildet die Technologie rund um Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI). Wie ist dieser Hype zu erklären? Schließlich reicht die KI-Forschung bis zurück in die Mitte des letzten Jahrhunderts. Die meisten Algorithmen und multivariaten statistischen Methoden sind – von wenigen neuen Verfahren abgesehen – uralt. Warum treten KI-basierte Anwendungen erst jetzt massenhaft auf?
Der Grund für erste markttaugliche Verwendungen liegt im enormen Fortschritt, den die Informationstechnologie (IT) in den letzten Jahren genommen hat. Heute steckt in einem durchschnittlichen Smartphone mehr Rechnerleistung als in einem NASA-Computer aus der Zeit der ersten Mondlandung. Ebenso lassen sich heute exponentiell mehr Daten intelligent verarbeiten als früher – und das fast in Echtzeit. Die Gründe hierfür: schnellere, in Cluster geschaltete Rechner, verbesserte Speicher (In-Memory, Cloud) sowie die Möglichkeit, in kurzer Zeit individuelle Softwarelösungen zu entwickeln. Big-Data-, Business-Intelligence bzw. Business-Analytics- und Predictive-Analytics-Lösungen wären ohne diese Weiterentwicklungen nicht denkbar.
Dennoch ist bei diesem Boom Vorsicht geboten. Denn KI umfasst sehr komplexe Anwendungen aus Mathematik, Informatik und Neurologie, nicht zu vergessen philosophische und ethische Diskussionen. Was bis vor einigen Jahren nur in Forschungsbereichen globaler IT-Firmen, Hochschulen und Instituten untersucht, thematisiert und getestet wurde, läuft Gefahr, zwischen Halbwissen und Verschwörungsszenarien zu verschwinden. Einige Begriffsklärungen können hier helfen.
KI – was ist das eigentlich?
Bisher gibt es weder eine vollumfängliche und allgemein gültige Definition der menschlichen noch der künstlichen Intelligenz. Dessen ungeachtet, ist das Ziel von KI-Versuchen, das menschliche Gedächtnis, seine Lernprozesse und sein problemlösungsorientiertes Verhalten nachzubilden. Hinsichtlich ihrer Funktionalitäten basiert KI zusammengefasst auf Verstehen, Fühlen und Handeln:
„Verstehen“ umfasst das Verarbeiten des Inputs, zum Beispiel durch Sprachverarbeitungsprogramme, die Geschriebenes, Gesprochenes und die Sprache an sich verstehen. Ist der Input verstanden, kann die KI sinnvolle Antworten finden, also das angeeignete Wissen kommunizieren und Menschen bei ihrer Entscheidungsfindung helfen. Unter „Fühlen“ wird das Erfassen von Eindrücken aus der Umwelt verstanden, etwa durch maschinelles Sehen, Sensoren oder Mikrofone. Nach Identifizierung, Analyse und Verarbeitung dieser Informationen können Veränderungen in ihrem Umfeld automatisch identifiziert, gekennzeichnet und berichtet werden; gegebenenfalls kann auch mit Programmbefehlen darauf reagiert werden. „Handeln“ definiert die Umsetzung der eingegebenen und sensorisch erfassten Informationen in Aktionen. Robotik-Lösungen stellen hierfür die benötigte Hardware, damit das Handeln für die Software möglich gemacht wird (autonome, humanoide oder Service-Roboter). Grundsätzliche Voraussetzung sämtlicher KI-Projekte ist, dass sich die eingegebenen oder anderweitig erfassten Daten und Vorgänge algorithmisch abbilden und verarbeiten lassen. Insofern handelt es sich also immer um sogenannte geschlossene Systeme, deren Grenzen von den erfassten Daten und dargestellten Prozessen gebildet werden.
Vom Schachcomputer zur selbstlernenden Maschine
Ein einfacher Schachcomputer tat vor 30 Jahren genau das, was er sollte: Unter Beachtung der Schachregeln errechnete er die jeweils optimalen Spielzüge je nach eingestellter Spielstärke beziehungsweise Berechnungsdauer binnen weniger Sekunden. Die Grenzen dieses geschlossenen Systems markierten die Schachregeln. Mittlerweile berücksichtigen handelsübliche Schachprogramme bereits ganze Bibliotheken verschiedener Eröffnungen, Varianten und vollständiger Spielpartien. Auf prädikatenlogischer Basis berechnen sie unzählige Varianten, um die nächstbesten Züge zu ermitteln. Auch hierbei handelt es sich um ein geschlossenes System, denn die verwendeten logischen Aussagen und Regeln sind formale Sprachen zur Wissensrepräsentation. Mit ihnen findet eine logische Anwendung der bereits vorhandenen, eingespeisten Wissensinformationen und Regeln statt, die nicht erlernt und erkannt, sondern nur ausgeführt werden.
Machine Learning (ML) – alter Wein in neuen Schläuchen?
Einen scheinbar neuen Weg, Computer sinnvolle Prozesse entwickeln zu lassen, ohne sie speziell dafür zu programmieren, beschreibt das maschinelle Lernen. So innovativ ist dieser Weg allerdings nicht. Denn deren Grundlagen fußen im Wesentlichen auf Forschungen im Bereich Mustererkennung, die bereits vor fast vierzig Jahren durchgeführt wurden. Erst seit der Möglichkeit, Daten parallel in Grafikprozessoren (GPU) exponentiell schneller zu verarbeiten, erlebt ML seit 2010 einen wahren Boom.
Bei ML generiert der Rechner – ähnlich wie ein Mensch – Wissen aus Erfahrung und findet eigenständig Lösungen für neue und unbekannte Probleme. Ein Programm analysiert hierzu zahlreiche Beispiele – je mehr, desto besser. Mit Hilfe selbstlernender Algorithmen wird versucht, in den Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Das Ziel maschinellen Lernens ist die intelligente Verknüpfung von Daten, um Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Prognosen zu treffen. Hierbei kommen multivariate statistische Verfahren zum Einsatz. Sie ermitteln die wahrscheinlich beste Lösung und merken sich gegebenenfalls richtige Entscheidungen via persistenter Speicherung, um derartige richtige Urteile beim nächsten Mal wieder zu fällen. Typische Anwendungen auf ML-Basis sind zum Beispiel „Next-best-offer“-Möglichkeiten im Rahmen der intelligenten Warenkorbanalyse eines Webshops.
Künstliche neuronale Netze (KNN)
Eine weitere KI-Variante – die der Neuronalen Netze – ist ebenso älter als angenommen, denn sie reicht bis in die vierziger Jahre des 20. Jahrhunderts zurück. Erst mit dem beginnenden IT-Hype Mitte der achtziger Jahre begannen Forscher diese Modelle, die sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns orientierten, weiter zu entwickeln. Die Grundidee: Informationsverarbeitung basiert auf der Interaktion vieler einfacher Verarbeitungselemente und erfolgt in hohem Maße parallel. Nach dem Vorbild des menschlichen Gehirns simulieren KNN ein Netzwerk aus miteinander verbundenen Neuronen und lernen aus Erfahrung, indem sie die Verbindungsstärke der simulierten Neuronenverbindungen verändern. Auf diese Art und Weise können sich Maschinen Fähigkeiten wie Sehen, Hören, Sprechen, Lesen und Schreiben aneignen. Für diese Fähigkeiten sind allerdings umfangreiche Test- bzw. Trainingsläufe notwendig, an deren Ende ein abstrahiertes Modell miteinander verbundener Neuronen steht. Dank der antrainierten speziellen Anordnung und Verknüpfung dieser Neuronen lassen sich dann Anwendungsprobleme aus verschiedenen Bereichen (Statistik, Technik, Wetter usw.) computerbasiert lösen. Je höher die Anzahl der Schichten eines KNN ist, desto schneller und genauer können die Ergebnisse ermittelt werden.
Üben, üben, üben!
Bei Deep-Learning-Modellen werden große Datenmengen bereitgestellt und das Computerprogramm klassifiziert diese via Cognitive Computing anhand von Attributen, die es aus Bildern, Texten oder akustischen Signalen filtert. Der wesentliche Unterschied zum Machine Learning besteht im Training, denn die relevanten Merkmale werden aus den Daten automatisch extrahiert. Außerdem verbessert das Deep-Learning-Netz die Ergebnisse, sobald weitere Daten hinzugefügt werden. Hieraus folgt: Übung macht den Meister. Die Trainingszeit dieser Prozesse hängt von der verfügbaren Rechenleistung ab, sie reicht von wenigen Stunden bis zu mehreren Tagen. Dank enormer Datenmengen und erweiterter Rechenkapazität sowie durch die Nutzung von KNN erzielen Deep-Learning-Modelle bei manchen Aufgaben bereits heute genauere Ergebnisse als Menschen.
Das beweisen zum Beispiel die Erfolge des KI-Systems AlphaZero von Google. Die KI-Entwickler von AlphaZero haben ihrer neuen Software nur die Grundregeln des Schachspiels gezeigt. Den Rest hat sich die KI selbst beigebracht, indem sie mithilfe selbstlernender Algorithmen und immenser Rechenkraft immer wieder gegen sich selbst angetreten ist und aus ihren Fehlern gelernt hat. Die Erfolge waren beeindruckend: Ende 2017 hat die selbstlernende Software sämtliche führende Programme für Schach und Go geschlagen. Gegen menschliche Spieler ist sie gar nicht erst angetreten. Trotz dieser Erfolge gilt es zu beachten, dass KI nur in geschlossenen Systemen funktioniert, das heißt, sämtliche Bedingungen und Regeln lassen sich, so komplex sie auch sein mögen, beschreiben. Für Spiele und Szenarien trifft das zu. In der realen menschlichen Lebenswelt mit unvorhersehbaren zukünftigen Ereignissen ist das nicht der Fall.
KI-Lösungen für Unternehmen
Die Zeit KI-basierter Business-Anwendungen hat quasi erst begonnen. In manchen Online-Shops mehren sich spracherkennende und schreibende Chatbots bzw. sprechende virtuelle Agenten ebenso wie „Next-best-offer“-Angebote. In immer mehr Privathaushalten gehören sprachbasierte Informationsassistenten (Alexa, Siri etc.) längst zum festen Bestandteil der Einrichtung. In der Fertigung eröffnet die intelligente Sensordatenerfassung völlig neue Möglichkeiten zur Steigerung der Produktqualität oder zur Instandhaltung und Wartung von Maschinen sowie Geräten. Unter bestimmten Rahmenbedingungen und in spezifischen Situationen bieten KI-Anwendungen auch kleinen und mittelständischen Unternehmen interessante Möglichkeiten zur Optimierung von Geschäftsprozessen oder zur Entwicklung neuer Geschäftszweige. Das zeigt die wachsende Vielfalt an Einsatzmöglichkeiten im Handel, in der Industrie und im Dienstleistungsbereich. Eigene Erfahrungen mit einem Handelsunternehmen haben gezeigt, dass es für seinen Kundendienst enorme Produktivitätsquoten erzielt, indem es Teile von Hotline-Anfragen bereits von einem Chatbot bearbeiten lässt. Das verkürzt nicht nur die Reaktionszeiten, sondern entlastet auch die Service-Mitarbeiter und führt zu höherer Kundenzufriedenheit.
Künstliche Intelligenz intelligent nutzen
Immer mehr Großkonzerne stecken bereits mitten in der Entwicklung von KI-Anwendungen oder nutzen sie bereits. Denn ihr Einsatz im Kundenservice, im Marketing und Vertrieb, in der Produktionssteuerung, im Risikomanagement oder Personalwesen erweist sich zunehmend als besonders erfolgsträchtig. Kleinere Betriebe und mittelständische Firmen schrecken vor einer Investition in derart disruptionsfördernde Technologien noch zurück. Das hat weniger technologiephobe Gründe, sondern ist oft durch wirtschaftliche Fragen motiviert: „Lohnt sich die eigene Entwicklung einer KI-Lösung für meine Firma? Realisiere ich das mit einem IT-Partner? Individualentwicklung oder Standardlösung? Wie sieht die Anbindung an meine vor- und nachgelagerten IT-Systeme aus? Wie sieht mein ROI aus?“
Hier hilft das Gespräch mit der eigenen IT-Abteilung und die Beratung durch einen externen IT-Partner weiter. Kreative Workshop-Methoden sind eine weitere Möglichkeit, sich den KI-Technologien mit neuen Denkweisen, wie etwa Design Thinking, zu nähern. Unternehmen erhalten auf diese Weise nicht nur Orientierungshilfen inmitten der neuartigen KI-Welt. Sie erhalten darüber hinaus einen versierten externen Sparringspartner zum wirtschaftlichen Ausloten neuer Geschäftsmodelle durch eigene KI-Anwendungen. Die Themen reichen von Ideengenerierung, Definition des konkreten Projektziels und vorhandener technischen Möglichkeiten bis hin zur Prototyp-Erstellung und -Testing. Von den erarbeiteten Ergebnissen zur Produktivsetzung ist es dann oft nur ein kleiner Schritt.
Web-basierte KI-Plattformen bieten an dieser Stelle einen technisch wie wirtschaftlich interessanten Lösungsweg, ohne dass eigenes IT-Entwickler-Know-gestellt werden muss. IBM Watson ist eine der avanciertesten Lösungen in diesem Bereich. Unternehmen können auf dieser KI-Plattform die unterschiedlichsten Microservices für Ihren Bedarf auswählen, ohne dafür eigene umfangreiche Investitionen – etwa in Softwareentwicklung, Rechner- oder Speicherkapazität – tätigen zu müssen. Dadurch können sie sich voll und ganz auf das kunden- bzw. projektspezifische Training der Anwendungen konzentrieren. An die Sicherheit der Daten ist dabei ebenso gedacht, denn die Datenhoheit verbleibt DSGVO-konform beim Kunden.
Weitere Informationen: www.mip.de/ki
Die mip Management Informationspartner GmbH ist seit 30 Jahren ein zuverlässiger Partner und Ideengeber für mittelständische sowie große Unternehmen, die ihre Unternehmensdaten intelligent verknüpfen und profitabel einsetzen wollen. Mit dem Hauptsitz in München und einer Niederlassung in Stuttgart agiert das Unternehmen vom Süden Deutschlands aus im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen seit der Firmengründung 1988 in den Bereichen Data Warehouse und Business Intelligence. Heute berät die mip GmbH mittelständische sowie große Unternehmen und entwickelt für diese nutzenorientierte Datenanalyse-Lösungen als Basis für die digitale Transformation. Dabei stehen Data-Warehouse-, Business- und Predictive-Analysis- sowie Enterprise-Search-Lösungen im Vordergrund. Strategische Partnerschaften mit großen Herstellern und spezialisierten Häusern sorgen für den technologischen Unterbau.
mip Management Informations Partner GmbH
Fürstenrieder Straße 267
81377 München
Telefon: +49 (89) 589394-0
Telefax: +49 (89) 589394-50
http://www.mip.de
Geschäftsführerin
Telefon: +49 (89) 589394-12
Fax: +49 (89) 589394-50
E-Mail: ursula.fladeruf@mip.de
Marketing Manager
Telefon: +49 (89) 589394-31
E-Mail: Gabriela.Bargen@mip.de
Intelligente Datenintegration – ein Muss für qualifizierte Geschäftsentscheidungen
Aufgrund langjähriger Projekterfahrungen mit zahlreichen mittelständischen und großen Unternehmen sehen sich die DWH- und BI-Pioniere von mip in der Rolle als beratende und projektbegleitende Data Stewards ihrer Kunden bestätigt. „Auch die avanciertesten IT-Entwicklungen, zum Beispiel in Richtung Predictive Analytics, stehen auf dem nüchternen Boden von Daten und Informationen. Um diese zeitnah bzw. in Echtzeit zu nutzen, bedarf es mitunter nicht nur materialisierter, sondern auch virtueller Integrationsarchitekturen, die es kundenindividuell anzupassen gilt“, so Ursula Flade-Ruf zur mip-Strategie. Vorrangige Aufgabengebiete der in München und Stuttgart vertretenen BI-Experten sind daher nicht nur klassische DWH-Entwicklungen rund um Infrastrukturerweiterungen und Softwareoptimierungen. Auch neue Anwendungen und Dienstleistungen zur Integration und Nutzung semi- bzw. unstrukturierter Daten aus externen Datenquellen nehmen einen zunehmend wichtigeren Platz im mip-Angebotsportfolio ein.
Die Einsatzgebiete der BI-Lösungen werden immer vielfältiger. Sie reichen von IoT-Anwendungen im industriellen Sektor bis hin zu KI-gestützten Services im Kundendienst oder Call-Centern. „Chatbots zur Kommunikation mit Kunden oder Mitarbeitern, auf Sensor- und Maschinendaten basierende Predictive-Maintenance-Lösungen zur wirtschaftlichen Qualitätssicherung oder selbstlernende Cognitive-Business-Anwendungen. Die Grundlage aller dieser Services ist die intelligente Integration und Nutzung einer immens großen Datenmenge aus unterschiedlichen Quellen“, so die mip-Geschäftsführerin
Data Steward: Informations-Schubser oder -partner?
Unterstützten Data-Warehouse-Lösungen früher vorwiegend Entscheidungsprozesse im Management, so nutzen heute viel mehr Fachabteilungen zunehmend DWH-Werkzeuge. Größere Datenmengen, höhere Userzahlen und Abfragefrequenzen sowie veränderte Recherchemodi sind die Folge. Das bedeutet für Unternehmen eine zusätzliche Herausforderung. Ursula Flade-Ruf: „In unserer Rolle als Datenintegrator in den Unternehmen unterstützen und begleiten wir unsere Kunden quasi als ‚Data Steward’. Wir sind das lösungsorientierte Bindeglied zwischen den Anforderungen des Business-Anwenders in der Fachabteilung und der IT. Unsere Aufgabe ist es, alle relevanten, inner- und außerhalb des Unternehmens steckenden Datenquellen zur Auswertung IT-seitig einzubinden.“ Hierzu wird mip seine langjährigen strategischen Partnerschaften nicht nur zu IBM (Gold Business Partner) vertiefen, sondern auch zu Bissantz, Lenovo, Pitney Bowes, VMware und Longview.
Kongeniale Partnerschaft
Datenintegration ist auch das beherrschende Thema in der über zwanzigjährigen Zusammenarbeit mit IBM und zahlreichen gemeinsamen Kundenprojekten. Dank der technologischen Vorreiterrolle des weltweit führenden IT-Anbieters rund um Big Data, Business Analytics/Intelligence, Cognitive Business und Künstlicher Intelligenz (Watson) stehen mip-Kunden nicht nur Auswertungsmöglichkeiten durch strukturierte Datenbanken zur Verfügung. Da nun auch unstrukturierte Daten aus externen Quellen auswertbar sind, hat sich die Menge zu nutzender Informationen exponentiell vergrößert: Sensor- und Maschinendaten gehören ebenso dazu wie Bild-/Audio-Dateien (Recognition) oder Informationen zum Nutzerverhalten auf Webseiten. „Dank der kongenialen Partnerschaft mit IBM sind wir in Bereichen wie Cloud und IoT genauso gut aufgestellt wie etwa bei selbstlernenden Systemen, zum Beispiel Chatbots, Deep Learning usw.“, so Ursula Flade-Ruf.
Drei Jahrzehnte vorneweg
Parellel zum Aufkommen des Begriffs „Data Warehouse“ im Jahr 1988 gründete Ursula Flade-Ruf das IT-Dienstleistungsunternehmen mip Management Informationspartner GmbH in München. Unter Berücksichtigung unterschiedlicher Frontends und Hersteller decken die mip-Experten seither die verschiedenen Anforderungen von Management und Fachabteilungen in der Datenanalyse und Visualisierung vollumfänglich ab. In der Liga von Data-Warehouse- und Business-Intelligence-Anbietern spielt das IT-Beratungs-, Implementierungs- und Umsetzungs-Team ganz vorne mit. So berät mip große und mittelständische Unternehmen vorwiegend aus den Branchen Fertigung und Handel und blickt auf eine lange Referenzliste erfolgreich durchgeführter BI-Projekte – unter anderen mit den Unternehmen Theo Förch (Neuenstadt ), Hans Riegelein (Cadolzburg), Eschenbach Optik (Nürnberg), Kaiser+Kraft (Stuttgart), afb Application Services (München), Migrol (Zürich/Schweiz). Die Offenheit gegenüber neuen Themen und Arbeitsmethoden, zum Beispiel Design Thinking oder Think-Tank-Konzepte, sichert dabei nicht nur die professionelle Begleitung von Digitalisierungsprojekten, sondern beschleunigt auch ihre Umsetzung. Ursula Flade-Ruf: „Kunden und Partner überzeugt die Fähigkeit unserer Mitarbeiter, Innovationskraft mit fundiertem Wissen derart zu kombinieren, dass gleichermaßen praxisorientierte wie zukunftsöffnende Lösungen entstehen. Mit 50 Prozent ist der Mitarbeiteranteil unserer ‚jungen Wilden’ heute höher denn je – Ich denke, das ist eine sehr gute Mischung.“
Über mip Management Informationspartner
Seit 30 Jahren ist die mip Management Informationspartner GmbH ein zuverlässiger Partner und Ideengeber für mittelständische und große Unternehmen, die ihre Daten und Informationen intelligent verknüpfen und profitabel einsetzen wollen. Vom Hauptsitz in München und einer Niederlassung in Stuttgart aus agiert mip im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen in den Bereichen Data Warehouse und Business Intelligence. Die Experten der mip GmbH beraten mittelständische wie große Unternehmen und entwickeln für sie nutzenorientierte Datenanalyse-Lösungen als Basis für die digitale Transformation. Das mip-Leistungsspektrum umfasst maßgeschneiderte Lösungen für Data-Warehouse, Business- und Predictive-Analysen, Enterprise-Search sowie Geodaten-Analyse. Strategische Partnerschaften mit marktführenden Herstellern und spezialisierten IT- und Softwarehäusern sorgen für eine moderne und zuverlässige technologische Basis.
mip Management Informations Partner GmbH
Fürstenrieder Straße 267
81377 München
Telefon: +49 (89) 589394-0
Telefax: +49 (89) 589394-50
http://www.mip.de
Marketing Manager
Telefon: +49 (89) 589394-31
E-Mail: Gabriela.Bargen@mip.de
Watson, wir haben (k)ein Problem
„Diese Reduktion auf Watson als einzelne Maschine hat in der Vergangenheit sicher für die ein oder andere Verwirrung gesorgt“, so Markus Ruf, Geschäftsführer und Big-Data-Experte bei der mip GmbH. „Er ist aber weder ein einzelner Superrechner, noch eine irgendwie geartete individuelle KI. Vielmehr ist Watson eine Plattform verschiedenster Services und Verfahren, die auf derselben Technologie basieren. Es handelt sich bei Watson nicht um ein Produkt, sondern um viele Einzelprodukte. Auch sind diese meistens auf mehreren Rechnern installiert – von einer ‚Maschine‘ oder einem ‚Watson‘ kann also keine Rede sein.“
KIs im B2C und B2B – Vergleiche hinken
Zudem wird Watson gerne seinen KI-Brüdern und -Schwestern aus dem B2C-Bereich gegenübergestellt. „Ungerechterweise“, wie Flade-Ruf meint, „denn hier werden Äpfel mit Birnen verglichen. Die mit Watson verbundenen Services und Entwickler-Tools von IBM sind ausschließlich auf den B2B-Sektor ausgerichtet.“ Alexa, Siri, Cortana, Google Home und Co haben es hingegen mit den Endkunden im B2C erheblich einfacher, rasche Erfolge vorzuweisen, da sie jeden Tag von Millionen Menschen genutzt, mit Informationen gefüttert und dadurch stetig trainiert werden.
Dass diese Geräte schnell eine große Menge an Informationen zu Personen und ihren Vorlieben ansammeln und dann auch anwenden, ist leicht nachvollziehbar. Allerdings geschieht dies durch ein ständiges Mithören, was eigentlich jeden Nutzer aufhorchen und vorsichtiger werden lassen sollte. Wem die Daten am Ende gehören und wo sie genau gespeichert sind (was wichtig für die Datenschutzrichtlinien ist), ist meist nicht eindeutig geklärt oder steht gut versteckt im Kleingedruckten.
Daten bleiben Eigentum der Watson-Nutzer
„Solch ein Vorgehen unterscheidet sich erheblich vom projektbezogenen, individuellen Daten-Training mit Watson“, meint Flade-Ruf. „Hier hat IBM zudem eine Art Code of Conduct für Cloud Services in Verbindung mit KI-Daten verfasst, sodass die innerhalb eines Projektes gewonnenen Informationen immer Eigentum der jeweiligen Service-Nutzer bleiben – und bisher hält sich IBM auch daran.“ Damit lässt sich auch der Vorwurf einiger Unternehmen entkräften, dass man ja bei Watson nicht genau wisse, wem schließlich sowohl die eingespielten als auch die neu gewonnenen Daten gehören würden. Unterm Strich lassen sich die KIs durch die völlig verschiedenen Zielrichtungen der Hersteller und Einsatzgebiete nur schwer bis überhaupt nicht miteinander vergleichen.
Watson-Projekte benötigen einen längeren Atem – zeitlich und finanziell
Künstliche Intelligenz ist kein neues Phänomen. Schon seit Jahrzehnten taucht der Begriff in Verbindung mit Regressionsanalysen, Clustering oder Multivariable-Verfahren auf. Dem autonomen Lernen wird dabei eine besonders große gesellschaftliche sowie wirtschaftliche Bedeutung zugemessen, was unter anderem das nahezu exponentielle Wachstum von Fundraising-Projekten rund um Start-ups im Bereich Deep oder Machine Learning erklärt.[3]
Nach den jüngsten Kritiken zu urteilen haben aber scheinbar viele Unternehmen den Aufwand, der mit einem Watson-Projekt auf ein Unternehmen zukommt, unterschätzt. „So hat ein Beispiel eines Kunden aus der Bekleidungsbranche gezeigt, wie viel Arbeit etwa ein Training von Watsons Visual Recognition kosten kann“, wirft Ruf ein. „Für die visuelle Unterscheidung von Kleidungsstücken wurden rund 30.000 Bilder benötigt, bis der Service autonom funktionierte.“ Auch in der Medizin oder bei Versicherungsfällen muss eine riesige Menge an Daten herangezogen werden, um eine verlässliche statistische Auswertung zu ermöglichen. „Die Intelligenz der Programme und Services wird natürlich stetig weiterentwickelt“, ergänzt Markus Ruf. „Die Wissensdatenbanken, die sich dahinter verbergen, müssen allerdings den Watson-Systemen in den einzelnen Projekten immer wieder neu beigebracht werden.“
Kooperationen entscheidend für Weiterentwicklung von KI
Um solche Mengen an Daten bereitstellen und die zur Verfügung stehenden KI-Services voll ausnutzen zu können, seien Kooperationen unerlässlich, so Flade-Ruf. „Viele Unternehmen sind auf bestimmte Bereiche wie etwa visuelle Wahrnehmung und Verarbeitung, Robotik, Sprachverarbeitung und -analyse oder Datenauswertung spezialisiert und müssen deshalb auch in komplexe Watson-Projekte miteinbezogen werden.“ Unter anderem arbeiten IBM, Apple, Amazon, die Google-Tochter Deep Mind, Facebook und Microsoft an gemeinsamen Projekten rund um das Thema Künstliche Intelligenz.[4] „IBM hat zudem die Plattform PowerAI installiert, auf der von verschiedenen Herstellern Frameworks zu Deep Learning und unterstützende Datenbanken angeboten werden“, erklärt Flade-Ruf. „Das Unternehmen präsentiert sich in diesem Zusammenhang auch sehr offen: Es gibt einige Open-Source-Projekte oder freie Services aus der Bluemix Cloud.“ Am Ende möchte IBM möglichst viele Experten unter seinem technologischen Dach vereinen, um die Watson-Funktionalitäten künftig noch erheblich zu erweitern.
Konkrete erfolgreiche Anwendungsbeispiele selten
Eine Schwierigkeit im Zusammenhang mit Watson-Projekten ist das Fehlen von allgemeingültigen weltweiten Anwendungsfällen, wie sie im B2C-Bereich mit Alexa, Siri oder Cortana vorhanden sind. „Watson-Projekte sind dagegen äußerst industrie- und unternehmensspezifisch“, erklärt Flade-Ruf. „Vieles passiert hier hinter verschlossenen Türen, da sich niemand zu früh von Mitkonkurrenten in die KI-Karten schauen lassen möchte.“ Ein großer Teil stammt dabei aus dem Bereich Internet of Things (IoT) im industriellen Sektor. Big Data in Form von Sensor- und Maschinendaten soll dort im Predictive-Maintenance-Umfeld und zur Qualitätssicherung eingesetzt werden. IBM kooperiert beispielsweise mit Unternehmen wie Schaeffler, Bosch, BMW, Citroen, Renault etc.
Ein anderer Bereich, in dem ein großes Potenzial gesehen wird, ist die Unterstützung von Call-Centern und -Services etwa im Öffentlichen Dienst oder Versicherungs- und Banking-Umfeld, aber auch im technischen Support. Hier sollen KI-gestützte Systeme automatisch Kunden identifizieren und Empfehlungen zum Umgang mit diesen an die Sachbearbeiter vorschlagen.
Die Nachfrage nach Künstlicher Intelligenz steigt auch in der Ausbildung. „So haben Experten von IBM und der mip GmbH einen halbtägigen Workshop zum Thema ‚Künstliche Intelligenz – Watson Services für Chat-Bots nutzen‘ an der Technische Hochschule Nürnberg abgehalten“, bemerkt Ruf. Die Studenten konnten im Verlauf der Veranstaltung die verschiedenen Cloud-Services von Watson ausprobieren und beispielsweise die Spracherkennung des Bots trainieren.
KI-gestützte Chatbots voll im Trend
Einen Schritt weiter gehen intelligente Chatbots, die eigenständig komplette Chat-Sessions mit Kunden oder Mitarbeitern bewältigen können, um etwa FAQs zu beantworten oder Bestellungen abzuwickeln. „Auf dem Watson Summit wurde ein Chatbot vorgestellt, der Siemens für das eigene Personal basierend auf den IBM Conversation Services und anderen Watson-Tools entwickelt wurde“, so Flade-Ruf. Mitarbeiter können mit diesem interagieren und erhalten automatisiert Antworten auf ihre Fragen.[5]
Auch im juristischen Umfeld könnten eine Vielzahl an einfacheren Rechtsfällen über einen Watson-Service abgebildet werden. DoNotPay ist ein Beispiel für einen intelligenten Chatbot, der Nutzer in kleinen Rechtsfragen wie etwa Falschparken unterstützt.[6]
Ein weiteres Feld umfasst das Thema Enterprise Search, in dem Watson-basierte Tools wie das Natural Language Processing zur Verarbeitung menschlicher Sprache und das Watson Knowledge Studio, welches ein branchenspezifisches Training ohne Programmierungskenntnisse ermöglicht, eingesetzt werden. „Mit Enterprise-Search-Systemen lassen sich schnell große Mengen an Informationen durchsuchen und personenbezogen aufbereiten“, erklärt Ruf. Die Lösung lernt dabei, welche Informationen für den jeweiligen Nutzer besonders relevant sind und zeigt diese dann übersichtlich in einem Dashboard an.
Ist Watson mittelstandstauglich?
Neben all dem Interesse an der Künstlichen Intelligenz offenbart die McKinsey-Studie aber auch, dass sich kleine und mittelgroße Unternehmen in diesem Bereich noch schwer mit der Umsetzung von Projekten tun: So setzen gerade einmal neun Prozent bereits maschinelles Lernen im größeren Maßstab ein. Nur zwölf Prozent gaben an, dass sie das Experimentierstadium bereits verlassen hätten. „Unser Rat ist, dass Unternehmen mit der Umsetzung von Watson-Projekten erst einmal klein anfangen sollten“, bemerkt Flade-Ruf. „Watson ist kein fertiges Produkt und vor dem Training sozusagen noch ‚dumm‘. Deshalb müssen Ziele und Trennschärfen im Vorfeld klar formuliert werden.“ Umso eindeutiger sich Themen definieren und Grenzen ziehen lassen, desto einfacher und schneller lässt sich auch zum Beispiel ein Chatbot aus den verschiedenen Watson-Komponenten zusammenstellen und mit einer spezifischen Wissensdatenbank trainieren. „Zudem ist ein großes Team erforderlich, dass sich aus unterschiedlichen Qualitäten zusammensetzt, die die von üblichen IT-Projekten übersteigen“, so Flade-Ruf: „Man benötigt unter anderem Business-User sowie -Analysten, KI-Experten, Programmierer, Prozess-Spezialisten für die Einbindung der KI in die Systemlandschaft.“ Ein weiterer Punkt, der bei Watson-Projekten bedacht werden muss, ist die Ausrichtung aller Watson-Services auf die Cloud. „Das ist auch sinnvoll, da es zum Beispiel gerade im Bereich Sensorik meist um Maschinendaten aus Anlagen auf der ganzen Welt geht“, bestätigt Ruf. „Hier müssen sich die Kunden also in ihrer Unternehmensstrategie entscheiden, welchen Weg sie gehen wollen.“
Viele KI-Experimente, wenig Ertrag
Im Watson-Umfeld tut sich viel, doch fehlen vielerorts noch die Erträge. Flade-Ruf: „Leider erkennen wir gerade den Trend, dass Unternehmen Projekte in Eigenregie durchführen – und dabei oft scheitern, ohne die entsprechenden Schlüsse daraus zu ziehen.“ Dabei bieten der Markt oder auch Watson selbst viele Open-Source-Möglichkeiten an, um Wettbewerbsvorteile zu generieren oder neue Geschäftsmodelle aufzubauen. Experimentieren ist dadurch also nahezu ohne große eigene finanzielle Aufwände möglich. „Das Scheitern solcher Ansätze, wie etwa im Start-up-Umfeld, ist ein immanenter Bestandteil solcher Experimente“, bemerkt Flade-Ruf. „Jedoch hat sich in Deutschland bisher keine ‚Fast-Fail-Kultur‘, also der schnelle Übergang von einem Fehlschlag zu einem neuen optimierten Versuch, entwickeln können.“ Dieser Trend fordert IT-Dienstleister heraus, da es immer schwieriger wird, die eigene Expertise in solche Projekte einzubringen. Viele Firmen befürchten scheinbar, dass KI-Know-how über externe Berater zur Konkurrenz wandern könnte. Ruf: „Auf der anderen Seite können Unternehmen von den Erfahrungen von Spezialisten wie uns spürbar profitieren, um beispielsweise Projekte schneller erfolgreich abschließen zu können.“
Weitere Informationen finden Sie auf https://mip.de/mip-gmbh/.
[1] McKinsey-Global-Institute-Studie: „Artificial Intelligence: The Next Digital Frontier?”, 2017; https://www.mckinsey.de/files/170620_studie_ai.pdf
[2] Matthias Kamp, Michael Kroker und Sven Prange auf golem.de: „IBMs Supercomputer stellt sich dumm an“; https://www.golem.de/news/watson-ibms-supercomputer-stellt-sich-dumm-an-1709-130126.html
[3] Clipperton-Studie: „Artificial Intelligence – Deep Learning: From Hype to Maturity”, 2017; http://www.clipperton.net/news/deeplearning
[4]Giuseppe Rondinella auf horizont.net: „Apple schließt sich Partnerschaft von Amazon, Google, IBM und Co an“; http://www.horizont.net/tech/nachrichten/Kuenstliche-Intelligenz-Apple-schliesst-sich-Partnerschaft-von-Amazon-Google-IBM-und-Co-an-145690
[5] Vgl .dazu: https://www.bigdata-insider.de/digitalisierung-schlau-umgesetzt-a-654757/
[6] John Mannes auf techcrunch.com: „DoNotPay launches 1,000 new bots to help you with your legal problems”; https://techcrunch.com/…
Die mip Management Informationspartner GmbH ist seit fast 30 Jahren ein zuverlässiger Partner und Ideengeber für mittelständische sowie große Unternehmen, die ihre Unternehmensdaten intelligent verknüpfen und profitabel einsetzen wollen. Mit dem Hauptsitz in München und einer Niederlassung in Stuttgart agiert das Unternehmen vom Süden Deutschlands aus im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen seit der Firmengründung 1988 in den Bereichen Data Warehouse und Business Intelligence. Heute berät die mip GmbH mittelständische sowie große Unternehmen und entwickelt für diese nutzenorientierte Datenanalyse-Lösungen als Basis für die digitale Transformation. Dabei stehen Data-Warehouse-, Business- und Predictive-Analysis- sowie Enterprise-Search-Lösungen im Vordergrund. Strategische Partnerschaften mit großen Herstellern und spezialisierten Häusern sorgen für den technologischen Unterbau.
mip Management Informations Partner GmbH
Fürstenrieder Straße 267
81377 München
Telefon: +49 (89) 589394-0
Telefax: +49 (89) 589394-50
http://www.mip.de
dieleutefürkommunikation
Telefon: +49 (7031) 7688-52
E-Mail: mspohn@dieleute.de
Hochverfügbarkeit im Data Warehouse
„Die frühere Ansicht, dass Daten nicht unbedingt hochverfügbar sein müssen, da ja Unternehmen ohne sie bzw. ohne Auswertungen und Analysen weiter funktionieren können, zählt heute nur noch eingeschränkt“, erklärt Ruf. Zwar haben immer noch die tatsächlich wertschöpfenden Prozesse Priorität. Jedoch sind in der Zwischenzeit Informationen sowie Datenanalysen teilweise selbst zu wertschöpfenden Prozessen in Unternehmen geworden. Vortages- oder Tagesauswertungen gehören zu wichtigen Entscheidungshilfen für Vorstände, Management und Unternehmensführung, genauso wie für Abteilungen. „Daten etwa zum Kundenverhalten sind heute wesentlich für aktuelle sowie künftige Entwicklungen und Trends – Stichwort: Predictive Analytics“, so Ruf.
Hochverfügbares Data Warehouse: Welche Variante macht Sinn?
Auch wenn bei einem Ausfall die Firma nicht gleich zusammenbricht, ist ein hochverfügbares DWH sinnvoll. Welche Methode bzw. Hochverfügbarkeitsstrategie sich hierfür am besten eignet, muss von Fall zu Fall am besten zusammen mit DWH-Experten geprüft werden: Wie lange darf mein DWH im Jahr höchstens ausfallen? Müssen die Daten 24 Stunden am Tag, 7 Tage die Woche vorliegen? Damit hängt meist auch die Frage zusammen, wie viel das Thema Hochverfügbarkeit überhaupt kosten darf.
Sehr häufig wird ein Data Warehouse nur tagesaktuell genutzt. Aber selbst wenn bei einem Ausfall die Berechnungen und Auswertungen über Nacht nicht stattfinden können, weil kein paralleler bzw. gespiegelter DWH-Aufbau vorliegt, lassen sich die Informationen aus den operationalen Daten wiedergewinnen. „Eine Herausforderung ist jedoch, dass einige Firmen ihre Daten direkt im Data Warehouse archivieren und so nicht mehr alles aus dem operativen System rekonstruieren können“, erklärt Ruf. „Hier ist es deshalb entscheidend, dass die Informationen zum Beispiel auf einem parallel betriebenen DWH oder in der Cloud gesichert sind.“
Verschiedene Wege führen zu mehr Hochverfügbarkeit
Um Daten hochverfügbar zu machen, existieren mehrere Methoden, die jeweils von der im Vorfeld ermittelten höchstmöglichen Ausfallzeit und dem eigenen Geldbeutel abhängen. Dazu gehören:
- eine vollständige (und bestenfalls automatisierte) Rekonstruktion der Daten aus den operativen Vorgängen (über Nacht) – allerdings mit einem Tag Verzögerung
- die Virtualisierung des Data Warehouse über eine virtuelle Maschine (VM): Wenn eine DWH-Hardware-Komponente ausfällt, wird die VM einfach auf einen anderen physikalischen Server oder ins Storage Area Network (SAN) verschoben. So lässt sich das DWH wieder starten. Diese Variante setzt voraus, dass der Storage- bzw. VM-Server nicht ausgefallen ist. Erst eine Spiegelung auf der physikalischen Ebene macht das System hochverfügbar.
- ein HADR-Cluster (High-Availability Data Replication) in der Datenbank selbst: Während der Datenaufbereitung wird eine Kopie des gesamten DWH angelegt. Somit lassen sich die Informationen bereits dort auf einer zweiten physikalischen Ebene spiegeln. Das hat aber auch Performance-Einbußen zur Folge, weil die Daten jedes Mal doppelt geschrieben werden müssen.
Synchron oder asynchron – das ist hier die Frage
Beim Thema Hochverfügbarkeit im Data Warehouse muss zudem im Vorfeld entschieden werden, ob dieser Bereich synchron oder asynchron aufgebaut werden soll. „Bei angestrebter Synchronität muss man stets darauf warten, bis alle Informationen geschrieben worden sind, was ein DWH langsam macht“, so Ruf. „Beim asynchronen Schreiben der Daten können diese allerdings verloren gehen, während sie ins DWH übernommen werden.“ Die wenigen so eingebüßten Datensätze lassen sich jedoch wieder per Datenrekonstruktion vervollständigen. Hier müssen sich Unternehmen entscheiden, ob sie nicht zugunsten einer höheren Performance eventuelle Datenverluste verschmerzen können.
Cloud und Hochverfügbarkeit
Geht es darum, Daten im Notfall dynamisch verschieben zu können, kommt beim Thema Hochverfügbarkeit die Cloud ins Spiel. Hierbei sind aber wieder zwei Seiten zu betrachten. Ruf: „Zum einen liegen die bekannten Cloud-Vorteile vor, wie etwa mehr Flexibilität durch eine bedarfsgerechte Speicherplatznutzung, ein höherer Sicherheitsstandard, den sich Firmen aus dem Mittelstand so gar nicht leisten können, und die wegfallenden bzw. geringeren Wartungs- sowie Administrationsaufwände.“ Wenn das komplette Data Warehouse in der Cloud aufbereitet wird, etwa als Database-as-a-Service (DBaaS), werden bestenfalls nur die Deltas aus den operativen Prozessen in die Cloud übertragen, wodurch keine Performance-Probleme auftreten. Allerdings könnten im schlechtesten Fall beide DWHs asynchron auseinanderlaufen.
„Arbeitet die Firma jedoch mit einem lokal aufgebauten Data Warehouse, welches zunächst alle Daten verarbeitet, um dann das gebündelte Gesamtvolumen zur Absicherung in die Cloud zu übertragen, kann sich dies auf die Performance auswirken“, beschreibt Ruf. Übertragungsgeschwindigkeiten von einem Gigabyte pro Sekunde reichen bei einem DWH mit Massendaten-Transfer bis zu mehreren Terabyte pro Nacht nicht mehr aus. Außerhalb der von Providern gut abgedeckten Gebiete sind Gigabyte-Bandbreiten allerdings kaum bis gar nicht verfügbar.
Hochverfügbare DWH-Strategien verlangen genaue Planung
Bereits vor dem Aufbau eines Data Warehouse und einer entsprechenden IT-Infrastruktur sollte deshalb darauf geachtet werden, welche DWH-Strategie das Unternehmen verfolgen möchte. Die grundlegende Frage lautet dabei, wie sich das DWH-Architektur-Konzept so aufsetzen lässt, dass das lokale DWH und die DBaaS-Lösung synchron laufen, ohne durch einen Infrastrukturteil wie eine langsame Cloud-Anbindung ausgebremst zu werden.
Eine hybride Cloud ist beispielsweise dann sinnvoll, wenn ein asynchrones Modell verfolgt wird, bei dem sich mit einem Versatz von ein oder zwei Stunden arbeiten lässt. Damit lassen sich immer so viele Daten verschieben, wie die jeweilige Bandbreite erlaubt, während die User im On-Premise-DWH auf die aktuellen Daten zugreifen können. Wenn nur in der Cloud gearbeitet wird, besteht immer ein Zeitversatz-Problem. Teams, die an verschiedenen Standorten am gleichen Projekt arbeiten, müssen so mit unterschiedlich aktuellen Informationen arbeiten, was zu Fehlern führen kann.
Übergangsphase von On-Premise in die Cloud
Ruf: „Wir bei mip gehen davon aus, dass es künftig für Kunden einfacher wird, mit Echtzeitdaten aus ihren DWHs zu arbeiten. Das Hauptproblem bezüglich Datentransfers ist ja, dass die meisten Unternehmen ihre großen ERP-Systeme heute noch lokal installiert haben und auf dieser Ebene die operativen Daten erzeugen.“ Deshalb müssen sich Firmen beim Thema Data Warehouse überlegen, ob sie die Daten aus der ERP-Lösung in zwei physikalische, parallel laufende und damit hochverfügbare DWHs verschieben oder alternativ VMs bzw. eine zeitversetzt arbeitende hybride Cloud-Architektur nutzen – mitsamt Performance-Einbußen oder asynchronen Datensätzen.
„In Zukunft werden aber verstärkt auch die großen IT-Infrastrukturen über die Cloud betrieben“, führt Ruf weiter aus. „Infrastructure-as-a-Service oder Cloud-Systeme werden gerade von den ERP-Anbietern vorangetrieben.“ Dabei ‚zwingen‘ SAP Hana Cloud Platform, Microsoft Dynamics Nav etc. Unternehmen dazu, mit ihrer gesamten IT in die Cloud umzuziehen, da sie sonst keine Software-Unterstützung mehr erhalten. Dann werden sowohl operative Daten als auch DWHs in der Cloud liegen, also in großen Rechenzentren. Durch die kurzen Wege sowie den schnell erweiterbaren Speicherplatz verschwinden Performance-Probleme. Die jeweiligen finanziellen Möglichkeiten bestimmen dabei die Übertragungsgeschwindigkeit sowie die Ausfallsicherheit.
Diese Entwicklung wird von den Anbindungsmöglichkeiten der Unternehmen an die Cloud bzw. der Netzwerk-Topologie der Provider abhängen. An die Frage nach einem uneingeschränkten Datenzugriff schließt sich auch die Diskussion um den Ausbau des Glasfasernetzes in Deutschland an – andere Länder sind schon viel weiter. „Hier muss sich noch einiges tun, damit auch die Unternehmen aus Randgebieten besser angebunden werden“, so Ruf. „Denn eine Hochverfügbarkeit ist erst dann gegeben, wenn ich über zwei getrennte Internet-Leitungen von zwei unterschiedlichen Providern verfüge. Der berühmt-berüchtigte Bagger, die häufigste Ursache für einen Ausfall, lauert überall!“
Eine Infografik zum Thema unter: https://mip.de/hochverfuegbarkeit-im-data-warehouse/
Die mip Management Informationspartner GmbH ist seit fast 30 Jahren ein zuverlässiger Partner und Ideengeber für mittelständische und große Unternehmen, die ihre Unternehmensdaten intelligent verknüpfen und profitabel einsetzen wollen. Mit dem Hauptsitz in München und einer Niederlassung in Stuttgart agiert das Unternehmen vom Süden Deutschlands aus im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen seit der Firmengründung 1988 in den Bereichen Data Warehouse und Business Intelligence. Heute berät und entwickelt die mip GmbH für mittelständische und große Unternehmen nutzenorientierte Datenanalyse-Lösungen, die eine digitale Transformation unterbauen. Dabei stehen die Data Warehouse-, Business- & Predictive Analysis- und Enterprise Search-Lösungen im Vordergrund. Strategische Partnerschaften mit großen Herstellern und spezialisierten Häusern sorgen für den technologischen Unterbau.
mip Management Informations Partner GmbH
Fürstenrieder Straße 267
81377 München
Telefon: +49 (89) 589394-0
Telefax: +49 (89) 589394-50
http://www.mip.de
dieleutefürkommunikation
Telefon: +49 (7031) 7688-32
E-Mail: sconradt@dieleute.de
Marketing Manager
Telefon: +49 (89) 589394-31
E-Mail: Gabriela.Bargen@mip.de
dieleutefürkommunikation
Telefon: +49 (7031) 7688-52
E-Mail: mspohn@dieleute.de