Email to someoneTweet about this on TwitterShare on FacebookShare on LinkedIn

“Consumer data will be the biggest differentiator in the next two to three years. Whoever unlocks the reams of data and uses it strategically will win.”

Angela Ahrendts, Senior VP of Retail at Apple

Blog: Big Data- Part III, Dezember 2018, Daniel Joseph

Big Data und Artificial Intelligence (BDAI) führen einen tiefgreifenden Wandel herbei. 1,8 Zettabyte an Daten wurden alleine im letzten Jahr erstmals weltweit produziert und das Volumen verdoppelt sich laut Prognosen alle zwei Jahre. Das rasante Wachstum dieser Datenmengen, das die Digitalisierung mit sich bringt, sowie ihre Analyse und Auswertung haben den Begriff Big Data geprägt. Große und unterschiedliche Datenmengen entstehen in hoher Geschwindigkeit. Aktuell stehen viele Unternehmen vor der Herausforderung, dass sie immer größere Datenmengen speichern, verwalten und analysieren müssen, um sie für ihre Geschäftsprozesse optimal verwenden bzw. verwerten zu können. Big Data ist nicht mehr länger nur eine Herausforderung für eine spezifische Branche, sondern betrifft alle Wirtschaftszweige, Organisationen und Nutzer von digitalen Technologien. Ob nun im Mobilfunk (Verbindungsdaten) oder beispielsweise im Internet (Übererweisungsdaten oder Echtzeitnachrichtendaten wie Twitter-Meldungen), neuere IT-Systeme können dazu beitragen, Big Data zur Beantwortung sowohl existierender als auch neuer Fragestellungen auszuwerten. Dies ermöglicht zum einen Prozessverbesserungen, zum anderen auch Produktinnovationen.

Abb. 1, Quelle: Analyse, Big Data, Fraunhofer AIS

Hinter vielen Anwendungen, zukünftigen Anwendungen und Anwendungsfelder steckt Big-Data-Technologien und das spezielle Know-how, aus diesem unerschöpflichen Potenzial neue Mehrwerte zu schaffen. Insgesamt ist Big Data ein Werkzeug zur Verbesserung der Wettbewerbsfähigkeit. Es ist zu hoffen, dass die deutsche Wirtschaft die Methoden rechtzeitig entdeckt und vor dem internationalen Wettbewerb einsetzt, denn bisher wurden diese Methoden noch viel zu wenig genutzt. In einer vernetzten Welt entstehen gleichermaßen neue Chancen und Risiken durch eine Vielzahl an Daten, die erhoben, verarbeitet und gespeichert werden. Die Sicherheit muss dabei gewährleistet und Gefahren müssen reduziert werden. Unter Sicherheit mit Big Data versteht man den Einsatz von Big-Data-Technologien um die Sicherheit, im Sinne von Security und Safety, zu gewährleisten. Der Leidgedanke wird dadurch getragen, dass derjenige, der um Gefahren weiß, sich und andere besser schützen und künftig Gefährdungen reduzieren kann. Das Wissen und das Analysieren von Gefahren, über die in irgendeiner Form auch untergeordnet Informationen vorliegen, wird mit verschiedensten Technologien unterstützt. Dies findet etwa im Krisenmanagement, bei Prognosen von Krankheitsausbreitung und bei der forensischen Analyse zur Aufklärung von Straftaten statt. Des Weiteren müssen Daten vor Verlust und Miss-brauch geschützt werden und das Vorhalten und Verarbeiten großer Datenmengen muss auch selbst sicher geschehen. Beispielsweise durch neue Verschlüsselungsverfahren, die auch für große Datenvolumina geeignet sind, und durch das Datenschutz-Engineering, dem die Betroffenen vertrauen können.

Relevanz von Big Data

Erfolgreiche Umsetzungen von Big Data und Artifical Intelligence (BDAI) können sich praktisch selbstverstärkend rasch ausbreiten. Die Relevanz von BDAI steigt durch Wechselwirkungen zwischen den Akteuren Technologie, Unternehmen und Verbrauchern. Der technologische Fortschritt erlaubt heute eine breite praktische Anwendung von BDAI. Des Weiteren setzen Unternehmen zur Optimierung ihrer Prozesse und Geschäftsmodelle vermehrt auf Daten und Verwertung. Das Verhalten der Verbraucher ist zunehmend durch digitale Anwendungen geprägt, wodurch wiederum mehr Daten erzeugt werden und verfügbar sind. In vielen Bereichen ist die mit der Nutzung von BDAI einhergehende sich selbstverstärkende Entwicklung noch im Anfangsstadium, jedoch wird diese rasch an Geschwindigkeit zunehmen.

Abb. 2, Quelle: Analyse, Big Data, Fraunhofer AIS

Welch großer Nutzen durch geeignete Big Data Methoden zugänglich wird, beweisen die positiven Ergebnisse aller Anwendungen. Erhöhung von Qualität und Durchsatz sowie Energieeinsparung zeigen deutliche wirtschaftliche Effekte und positive ökologische Auswirkungen. Mit Big Data kann die Effizienz von Produktionsprozessen deutlich erhöht werden. Mehr und bessere Produkte können mit gleichem Einsatz wertvoller Ressourcen erzeugt werden. Daraus ergibt sich folglich ein erheblicher gesamtwirtschaftlicher Nutzen. Unternehmen müssen sich also frühzeitig mit innovativen Entwicklungen auseinandersetzen.

BDAI ermöglicht Innovation

Es lassen sich neue Erkenntnisse durch Kombination von Analytik und massenhaft verfügbarer Daten gewinnen. Diese können für Produkt- und Prozessinnovationen genutzt werden. Solche Innovationen können deskriptiv auf bestehende Wertschöpfungsprozesse wirken, so dass neue Anbieter in den Markt eintreten und sich etablierte Geschäftsprozesse und Marktstrukturen ändern können. Man muss sich als Unternehmen und Branche mit den potenziell tiefgreifenden Auswirkungen von BDAI-Technologie auseinandersetzen. Anhand von Marktbetrachtungen und Anwendungsbeispielen sind sowohl denkbare Entwicklungen als auch Auswirkungen auf Verbraucher skizziert. Aus einer ganzheitlichen Sicht werden Implikationen und Leitfragen abgleitet.

„The winner takes it all“

Daten sind für Unternehmen bzw. Organisationen von größter Wichtigkeit. Je mehr Daten ein Unternehmen hat, desto mehr Erkenntnisse kann es gewinnen. Innovative Produkte können aus diesen Erkenntnissen entwickelt werden, aus denen wiederum zusätzliche Daten gewonnen werden können. In vielen Fällen erfolgt der hierzu erforderliche Datenzufluss nach dem Konzept mit „Bezahlen nach Daten“, das bei vielen plattformbasierten Geschäftsmodellen zu beobachten ist. Das Entstehen von monopolartigen BDAI-Anbietern könnte durch diesen, sich selbsttragende, ungemein wich-tigen Marktpenetrationsprozess begünstigt werden. Für den Verbraucher sind solche Angebote meist nur scheinbar kostenfrei, denn sie werden letztendlich durch die Auswertung der Daten finanziert werden, die sie den Anbietern zur Verfügung stellen, beispielsweise über individualisierte Werbung.

Abb. 3, Quelle: Analyse, Big Data, Fraunhofer AIS

BDAI-Anbieter könnten Daten, die sie außerhalb ihres Industriezweigs/Märkten gewinnen, auch in anderen Märkten profitabel einsetzen, etwa durch Entdeckung neuer Märkte oder Absatzkanäle. Diese Unternehmen könnten schnell systemrelevant werden, würden sie mit eigenen Angeboten in diese Märkte treten. Systemrelevanz ist aber auch dann denkbar, indem sie der Branche/den Branchen ihre Infrastrukturen oder Daten kostenpflichtig zur Verfügung stellen, wodurch dann Abhängigkeiten entstehen würden. Dies kann sich dann natürlich für die Branche als wertvoll erweisen, beispielsweise für die präzisere Risikoeinschätzung. Es wird folglich ein hoher Wettbewerbsdruck entstehen, denn kaum ein Wettbewerber wird darauf verzichten wollen, auch auf diese Erkenntnisse zuzugreifen.

Big-Data-Anwendungen tragen zu Zielen bei

Teilt man die Unterschiedlichen Unternehmen nach Branchen auf und untersucht in den Branchen verschiedene, relevante Fragestellungen, so ergibt sich das folgende Bild:

Abb. 4, Quelle: Analyse, Big Data, Fraunhofer AIS

Steigerung der Umsätze und Einsparung von Kosten zählen zu den häufigsten Zielen. Das wichtigste Ziel für Banken und Versicherungen ist die Erkennung von Compliance-Problemen (vornehmlich in Zusammenhang mit Betrugs-versuchen). Im Dienstleistungssektor steht die datenbasierte Planung im Fokus und im Industriesektor sind die Ziele sehr vielfältig.
Einer Online-Befragung des Fraunhofer AIS (Verständnis über Potenziale von Big Data bei kleinen und mittelständischen Unternehmen), versprechen sich mittels Big Data aber auch viele Unternehmen Steigung der Wettbewerbsfähigkeit, Effizienzsteigerung, Massenin-dividualisierung und effizientere Unternehmensführung durch Big Data und Intelligentere Produkte. Wettbewerb an der Kundenschnittstelle könnte durch Big-Data-Anwendungen und -Innovationen entschieden werden. Die Anwendung von BDAI kann einen nachhaltigen Wettbewerbsvorteil bringen, da sie dazu beitragen kann, bestimmte, veränderte Kundenerwartungen zu erfüllen. Es könnte durch einen verstärkten Wettbewerb zu einer Umverteilung von Erträgen kommen. Wichtig sind hierbei die Schnelligkeit von Prozessen und Entscheidungen, eine Individualisierung/Personalisierung der Dienstleistung und eine reibungslose Interaktion zwischen Dienstleistern und Kunden.

Der Verkauf anonymisierter Datenauswertungen tritt als potenzielles neues Geschäftsmodell stärker in den Vordergrund, ersetzen jedoch klassische Erträge nicht. Dennoch ist die Monetisierung von Daten als zusätzliche Ertragsquelle durchaus vorstellbar. Aggregierte, anonymisierte Informationen zu bestimmten Transaktions- und Stammdaten gehören zu diesem Verkauf von Daten. Es ist allerdings nicht zu erwarten, dass sich damit die klassischen Erträge im Kerngeschäft des Unternehmens kurzfristig ersetzen lassen. Die Unternehmen müssen zwischen dem Zusatznutzen und potenziellen negativen Auswirkungen auf das Verbrauchervertrauen und der Reputation abwägen, ob bei formaler Einwilligung der Kunden, diese Monetisierung für sie sinnvoll ist.

Der Begriff „Big Data“ ist in allen Medien präsent. Dennoch hat die Fachwelt keine wirkliche Vorstellung über Bedeutung und Auswirkung dieses Begriffs. Verwendete mathematischen Methoden, die im Rahmen von Big Data zum Einsatz kommen, sind erklärungsbedürftig und komplex und die Anwendungen daher oft eher schwer vermittelbar. Um das Thema besser zugänglich und greifbar zu machen, werden ausgewählte Bereiche und Anwendungsbeispiele vorgestellt und der konkrete Nutzen von Big Data demonstriert. Die Beispiele kommen aus verschieden Bereichen im Ingenieursumfeld und aus verschiedenen Industrien. Sie sind als Konzepte oder Ideen zu verstehen, die auf andere Anwendungen leicht übertragbar sind. Im Bereich IT-Security sind derzeit fünf große Ge-schäftsfelder von großer Bedeutung für die Entwicklung von Anwendungen und der Technologie an sich:

Krisenfrüherkennung und Krisenmanagement

Gefährliche Situationen, Krisen und Katastrophen müssen besonders früh erkannt werden, so dass ein rechtzeitiges Eingreifen und präventives Handeln ermöglich werden. Grundlage hierfür sind ein möglichst aktuelles und vollständiges Bild der Lage und Prognosen zur weiteren Entwicklung. Big-Data-Technologien ermöglichen hier die Verknüpfung vielfältiger und massiver Datenströme aus Sensoren, Kameras und Mobilfunknetzen. Auch Daten aus sozialen Medien und Informationen von Personen vor Ort fließen mit ein. Eine komplexe Lage kann so besser verstanden werden, Veränderungen zeitnah überwacht und unge-wöhnliche Ereignisse erkannt werden. Dadurch werden Handlungsalternativen besser beurteilbar.

Forensik durch Datenanalyse

Die Forensik entwickelt Lösungen, die zum einen Beweismittel aus dem IT-Umfeld sammeln, Daten wiederherstellen und die Authentizität dieser Daten bewerten können. Anderseits bietet sie Methoden, durch die sich forensische Beweise aus bestimmten Datenmengen ableiten lassen. Dieser Ansatz verwendet Big-Data-Technologie: Um Daten zu filtern, Metadaten zu generieren und Zusammenhänge zwischen heterogenen Datenquellen herzustellen. Beispielsweise findet dies Anwendung bei intelligenten Videoüberwachungssystemen, die einen fallbezogenen Zugriff auf Videodaten in Echtzeit bieten. Auch andere Beispiele sind denkbar, unter anderem Betrugserkennungsverfahren, die betrügerische Abläufe in großen Datenströmen erkennen und auf diese hinweisen.

IT Security für Big Data

IT Security umfasst den Schutz von Daten und IT-Systemen vor Angriffen. Dabei sind für die gesamte Informationstechnik verschiedene Aspekte von großer Relevanz, etwa diese hervorgerufen durch Authentizität, Integrität, Vertraulichkeit, Zugriffsschutz und Privatheit. Die Sicherheitsanforderungen nehmen durch Big Data weiter zu. So können beispielsweise kryptografische Verfahren, die Integrität oder Vertraulichkeit gewährleisten, bei großen Datenmengen in ihren Standardumsetzungen an Grenzen stoßen. Nun müssen spezielle Algorithmen, die effiziente Verschlüsselung gewährleisten oder hierarchische Hashverfahren realisieren, entwickelt und als Lösung präsentiert werden.

Monitoring kritischer Systeme zur Gefahrenabwehr

Große Datenmengen entstehen beim Monitoring der Systeme zur Abwehr von Cyberangriffen, die Analysten und Sicherheitskräfte vor Herausforderungen stellen, denn zunächst müssen die Daten in Echtzeit erhoben, miteinander in Zusammenhang gebracht und aggregiert werden. Danach müssen diese auf Anomalien untersucht werden. Anschließend werden die Ergebnisse zusammengefasst und in einem aussagekräftigen Bild visualisiert. Kritische Infrastrukturen, darunter Bereiche wie Energie, Informationstechnik und Telekommunikation und Staat und Verwal-tung, sind besonders schützenswerte Systeme, denn fällt solch ein System aus oder wird es beeinträchtigt, gefährdet das die öffentliche Sicherheit.

Datenschutz-Engineering

Darunter versteht man den Entwicklungsprozess, der bestehende oder neue Systeme analysiert, bewertet und so gestaltet, dass alle Datenschutzanforderungen erfüllt sind. Ziel ist dabei, die gewünschte Funktionalität für den Kunden so umzusetzen, dass die Datenschutzrechte der Betroffenen gewahrt bleiben. Gängige Konzepte, zum Beispiel Privacy-by-Design (PbD), lassen sich an die neuen Herausforderungen von Big-Data-Anwendungen adaptieren. Um die Daten der Betroffen optimal zu schützen bedarf es besonderer Herangehensweisen. Einhergehend mit wachsenden Datenmengen steigen die Anforderungen an Verfahren zur Pseudonymisierung und Anonymisierung, um den Schutz der Privatsphäre aller Betroffenen zu garantieren. Besonders hervorzuheben ist hier das Privacy Impact Assessments (PIA), das eine Methode bietet, um Datenschutzrisiken zuverlässig zu erkennen und danach zu vermeiden oder zumindest ihr Risiko minimieren.

An dieser Stelle möchte ich dem interessierten Leser aktuelle Themen bzw. Anwendungen (Use Cases) aus der Welt der IT näherbringen:

Cognitive Security

Milliarden von Anwendern, Geräten, Komponenten oder Installationen können von einem Angriff auf IT-Systeme betroffen sein. Die schieren Datenmengen potenziell sicherheitsrelevanter Ereignisse und die damit einhergehende Realzeitauswertung braucht Technologien der Künstlichen Intelligenz und des Cognitive Computing. Mittels Methoden der Cognitive Security (Schutz vor Angriffen auf IT-Systeme) können „bösartiges“ abweichendes Verhalten im Netz von „gutartiges“ abweichendes Verhalten, vor allem im Internet, effizienter und effektiver unterschieden werden und den Verteidiger auf die Ausnutzung ihm unbekannter Zero-Days-Schwachstellen hinweisen. Zero-Day-Lücken sind Schwachstellen im IT-System von Unternehmen. Die betroffene Hard- und Software oder Firmware lässt sich zunächst nicht dagegen schützen. Auslöser solcher Zero-Day-Lücken ist häufig ein fehleranfälliger Code. Ein potenzieller Angriff, der sogenannte Zero-Day-Exploit erfolgt am selben Tag, an dem die Securitylücke entdeckt wurde. In diesem Fall wird die Schwachstelle ausgenutzt, bevor sie durch einen Fix geschlossen werden kann.

Big-Data-Analysen für Cybersicherheit und Privatsphärenschutz

Zur Steuerung eines Einsatzes von Polizeikräften und zur Vorhersage von Straftaten wertet Predictive Policing Big-Data-Sammlungen aus. Social Media Forensics unterstützen die Bildung von Personenprofilen beispielsweise zum Zweck der Strafverfolgung. Die besondere Herausforderung liegt hier in der gleichzeitigen Wahrung der grundgesetzlichen Freiheitsrechte. Dasselbe gilt für die Autorschaftserkennung auf Basis von großen Textsammlungen. Anwendungsszenario sind zum Beispiel juristische Verfahren, bei denen festgestellt werden soll, ob eine bestimmte Person Verfasser von rechtswidrigen Texten in sozialen Medien sind. Hierfür eignen sich besonders KI-Methoden des maschinellen Lernens und der maschinellen Verarbeitung natürlicher Sprache.

Weitere Use Cases aus der Industrie

Es gibt es auch weitere größere Industriezweige die von Big Data profitieren. Dazu gehören unter anderem die Zweige Chemieindustrie, Maschinenbau, Messtechnik, Informationstechnik, Finanzwirtschaft und optische Messtechnik.
Finite-Elemente-Methode, kurz FEM, ist ein allgemein angewendetes numerische Verfahren, das bei unterschiedlichen physikalischen Aufgabenstellungen angewendet werden kann. Ziel ist es, strukturelle und Strömungsoptimierung von mechanischen Bauteilen. Als Eingangsdaten sind Simulationsergebnisdaten-ströme von iterativen FEM Simulationen und Daten von PLM (Project-Lifecycle-Management)- und CRM (Customer-Relationship-Management)Systemen.

Einer der Probleme waren unter anderem bisher, dass durch falsche Simulationsparameter bereits in frühen Phasen der Simulation nicht brauchbare Ergebnisse erzeugt werden, die eine Wiederholung des Simulationslaufs erfordern. Bislang konnte eine Auswertung erst nach Beendigung des Simulationslaufs vorgenommen werden. Außerdem sind strukturelle Optimierungen zeitlich langlaufende Prozesse von mehreren Tagen bis Wochen und erzeugen somit Daten (numerische Ergebnisse und Log-Dateien) im Multi-Terrabyte-Bereich.
Ziel des Data-Stream-Management-Projekts ist es bereits während des Simulationslaufs Fehler oder zu Fehler führende Trends zu erkennen, Logfiles in real-time semantisch zu validieren und Warnungen bzw. Fehler sofort zu melden. Außerdem soll der das System den Fortschritt der Simulation in Echtzeit dem Anwender grafisch zeigen und Kollaborationen mit Spezialisten anstoßen und gegebenfalls den Simulationslauf stoppen.

Der Prozess hat mittels Big Data als Resultat erstaunliche Werte vorzuweisen:

  • Data-Stream-Management-System mit Kollaborationsservice
  • Exakte Hinweise auf Fehlermeldungen bzw. wesentliche Warnungen
  • Zeitreduzierung einer Gesamtoptimierung um mehr als 40%

Mittels Big-Data-Anwendungen bzw. Einflüsse lassen sich auch bei den Methoden einige gleichzeitige Aktionen festhalten:

  • Parallele Auswertung unterschiedlicher Simulationsjobs und Alarme und Benachrichtigung von Verantwortlichen
  • IPR (Intelligente Peripherien für Roboter)-Schutz-Mechanismen bei der Kollaboration mit Berechtigten
  • Visuelle Kollaboration aufgrund von bislang erzeugten 3D-FEM-Modellen
  • Trendanalysen und semantische und numerische Validierung von laufenden FEM Simulationsiterationen

Immer mehr Unternehmen realisieren das Potenzial der heute verfügbaren Datenmengen und beginnen, sich als sogenannte Data-driven-Company neu zu definieren. Sie gewinnen aus prädiktiven Modellen Daten für Prognosen, Entscheidungen und Maßnahmen – in allen Geschäftsbereichen. Dazu benötigen sie aber ein Team mit besonderem Mix aus Kom-petenzen. Es sind Fachkräfte nötig, die Konzepte und Techniken aus Informatik, Statistik und Mathematik zu nutzen wissen. Auf in die Zukunft mit der Industrie 4.0 und Big Data.
In der nächsten Artikelreihe beschäftigen wir uns intensiver mit Artificial Intelligence, be-leuchten die Technolgie an sich, Anwendungs-felder und beantworten Fragen nach Chancen und Risiken.

Über ihre Meinungen oder ideenreiche Diskus-sionen sowie Kritik freue ich mich sehr! Bis bald und herzliche Grüße aus Frankfurt!

 

 

Portrait

Daniel Joseph

Practice Lead Germany
Technology, Data, Digital, Strategy & Change

Morgan Philips Executive Search Germany

 

 

Quellen:

  • Data Analytics, 2015, Dr. F. Moser, R. Dunkerbeck, V.Ossendoth, EY
  • Big Data – Changing the way businesses compete and operate, April 2014, P. van Kessel, J. Layman, J. Blackmore, I. Burnet, Y. Azuma, EY
  • Enabling Big Data – Building the capa-bilities that really matter, Mai 2014, R. Agarwal, E.Baltassis, J. Brock, J. Platt, BCG
  • The Trust Advantage – How to win with Big Data, November 2013, J. Rose, C. Barton, R. Souza, J. Platt, BCG
  • Big Data trifft auf künstliche Intelligenz – Herausforderungen und Implikationen für Aufsicht und Regulierung von Finanzdienstleistungen, BaFin
Email to someoneTweet about this on TwitterShare on FacebookShare on LinkedIn

Es kann nicht mehr kommentiert werden.