• FAQ
  • |
  • Hilfe
  • |
  • Quellenliste
  • Login
Merkliste Merkliste Wirtschaft und Management

Themenfokus: Trend-Review - Big Data / Künstliche Intelligenz / Predictive Analytics

Themenfokus aus dem GENIOS Newsletter vom 29.03.2019

Wortwolke BigData
Wortwolke Big Data | Quelle: wikipedia
Alle Technologie-Trends in diesem Trend-Review haben eines gemeinsam: Ihr Name weckt falsche Erwartungen oder zumindest welche, die sie in der Praxis (noch) nicht befriedigen können.

Die Situation ist vergleichbar mit dem Hype um die Entwicklung der Quantencomputer. Um ihre Überlegenheit gegenüber den bereits etablierten Supercomputern zu beschreiben, wurde um die Jahrtausendwende herum, der Begriff „Quantum Supremacy“ – also „Quantenüberlegenheit“ – erfunden. Viele assoziierten damit ausschließlich eine höhere Rechenleistung. Dabei liegt die Stärke der Quantencomputer nicht darin, schneller als Binär-Rechner zu sein, sondern darin, Aufgaben zu erfüllen, die von Supercomputern gar nicht geleistet werden können.

Nach diesem kurzem Abstecher zur grundsätzlichen Problematik von Technik-Hypes zurück zu unseren Trends:

1. Big Data

Ohne Hintergrundwissen wird diese Technologie wegen des Wortes "Big" oft nur mit einer unglaublichen Datenmenge assoziiert, welche in einer riesigen Datenbank liegt (quasi ein riesiges "Datengrab").Daneben wird der Begriff oft als Synonym für die Datensammelwut von Facebook, NSA & Co. gebraucht.
Dabei ist "Big Data" viel mehr. Hierunter fallen alle Technologien, die für Erhebung, Haltung, Verarbeitung und den Zugriff in benötigter Geschwindigkeit, Umfang und Bandbreite notwendig sind, damit Daten von den nachfolgenden Prozessen effizient verarbeitet werden können.

2. Künstliche Intelligenz

Die weitere Verarbeitung von "Big-Data-Daten" kann dann zum Beispiel durch eine Anwendung erfolgen, welche mit "künstlicher Intelligenz" arbeitet. Die Vorstellung, was sich hinter diesem Begriff verbirgt, dürfte sich bei vielen an dem orientieren, was in den letzten 20 Jahren in Hollywood dazu in SciFi-Filmen produziert wurde, also ein Computer oder ein Roboter mit einer Art von Bewusstsein (z.B. wie "HAL 9000" in Stanley Kubricks Film "2001" oder der Kinder-Roboter "David" in Spielbergs "A.I.").
Das, was heute mit dem Stempel "Künstliche Intelligenz" versehen wird, sollte deswegen vielleicht besser unter der Bezeichnung "Neuronale Netze" oder "Machine Learning" laufen. Bei dem Großteil der "KI-"Technologien geht es nämlich darum, Verfahren und Programmen einen Lernprozess beizubringen, um Muster aus der realen Welt verarbeiten zu können, welche mit klassischen Programmier-Methoden niemals effizient abzubilden wären.
Im Ergebnis werden durch Training Algorithmen berechnet, welche z.B. bei selbstfahrenden Autos die Erkennung von Verkehrszeichen bei unterschiedlichen Lichtverhältnissen ermöglichen.

Beispiele für Künstliche Intelligenz:

Cleverbot ist ein Chatbot, der auf Basis vieler tausend Dialoge "gelernt" hat, bei seinem Gegenüber das Gefühl zu erzeugen, dass es sich um eine echte Person handelt. (Cleverbot versteht auch etwas Deutsch.)

Microsoft Bildanalyse Hier können Sie eine "intelligente" Bilderkennungs-API von Microsoft testen, welche Bilder auf deren Inhalt hin analysiert und das darauf Erkannte als Tag ausgibt. Es können auch eigene Bilder hochgeladen werden.


3. Predictive Analytics

Ablauf Predictive Analytics
Ablauf Predictive Analytics |
Quelle: GBI-Genios
Im Gegensatz zu den beiden obigen Technologien handelt es es sich hierbei nicht schwerpunktmäßig um die Erhebung und Bearbeitung von Daten, sondern darum, Erkenntnisse daraus abzuleiten. Bereits seit längerem gibt es dazu Verfahren wie z.B. "Data Mining“, um Muster in Daten zu erkennen und ähnliche zu identifizieren. "Predicitve Analytics" geht einen Schritt weiter, denn hier geht es zusätzlich noch darum, Zusammenhänge in noch unbekannten Daten z.B. für die Zukunft abzuleiten.
Das geht allerdings nur mit vielen Daten und der Lernkurve einer selbstlernenden Maschine. Realisiert wird das in der Praxis deswegen oft mit Technologie aus der "Big-Data" und "KI"-Schublade.

Fazit und Erwartung für die Zukunft:

Alle drei hier erwähnten Technologien sind wichtige Bausteine, um uns als Markt und Gesellschaft das Erklimmen der nächsten Technologiestufen zu ermöglichen. "Big Data" und "Predicitve Analytics" werden vermutlich im Laufe der nächsten Dekade durch ihre jeweiligen Nachfolgetechnologien ("Fat Data" und "Omniscient Analytics"? 😜) abgelöst werden. Da "KI" als Begriff schon so viele Jahre besteht und immer etwas SciFi-Feeling in sich trug, wird das wohl auch so bleiben und uns weiter begleiten - auch wenn in 10 Jahren oder 20 Jahren wieder etwas anderes mit "Künstlicher Intelligenz" gemeint sein wird.