Know How Butter bei die Fische: Was ist eigentlich Deep Learning?

Immer häufiger treten Begriffe wie Machine Learning, Big Data, Industrie 4.0, Artificial Intelligence und Deep Learning auf. Noch können die Wenigsten diese BuzzWords mit Inhalt füllen. Zum Verständis dessen, was Deep Learning ist, trägt Jan Riedel von Tomorrow Labs im Interview bei.
Butter bei die Fische: Was ist eigentlich Deep Learning?

Was ist überhaupt Deep Learning?
Deep Learning beschreibt eine Technologie für das maschinelle Lernen. Es bildet u.a. die Basis für Siri und Cortana. Dabei werden künstliche neuronale Netze so trainiert, dass sie eigenständig Beziehungen zwischen unterschiedlichen Informationen herstellen können – oder vereinfacht ausgedrückt: Lernen wie ein Mensch!

In der Grundschule haben uns die Lehrer beigebracht, wie der Buchstabe ‘B’ aussieht, indem sie ihn uns einfach immer wieder in unterschiedlichen Formen gezeigt haben. Am Anfang konnten wir ihn mehr oder minder mühevoll entziffern, wenn er in sauberer Druck- oder Schreibschrift vorlag. Mit der Zeit wurden wir immer besser und heute können wir ihn (meist) sogar in einer üblen Sauklaue erkennen.

Das eigentlich Bemerkenswerte daran ist, dass die Lehrer uns nie gesagt haben, dass wir nach etwas Schwarzem auf weißem Grund suchen müssen, dass wir einen Schokoladenfleck auf dem Papier ignorieren können und welche exakten geometrischen Regeln wir anwenden müssen um ein ‘B’ zu erkennen.

Was uns bzw. unseren Neuronen so leicht gelingt, nämlich intuitiv das Wichtige vom Unwichtigen zu trennen nennt sich ‘feature extraction’ und ist in vielen Arten des maschinellen Lernens schwierig umzusetzen.

Der Programmierer muss genau vorgeben, worauf zu achten bzw. was zu ignorieren ist und der Lernerfolg des Systems hängt ganz wesentlich davon ab, wie vorausschauend und sorgfältig ihm dies gelingt.

Hier unterscheidet sich deep learning von anderen Verfahren, weil es in der Lage ist, sich im Rahmen des Trainings selbst auf die wichtigen Aspekte zu fokussieren. Der Programmierer muss wesentlich weniger Vorarbeiten leisten, bei denen er Fehler machen kann und ist dadurch natürlich auch schneller bei der Entwicklung von Modellen.

Diese Tatsache im Zusammenklang mit immer leistungsfähigeren Computern führt zu den beachtlichen Erfolgen von deep learning in der jüngeren Vergangenheit, wie z. B. dem Sieg von Googles AlphaGo gegen den derzeit besten Go-Spieler der Welt Lee Sedol.

big-data
Und was hat deep machine learning mit big data zu tun?
Zunächst muss man mal feststellen, dass es für bestimmte Problemklassen ‘feste’ Algorithmen gibt, deren Fehlerfreiheit bewiesen ist und die sehr effizient implementiert sind.

Sollen z. B. große Datenbestände mit traditionellen statistischen Methoden ausgewertet oder nach genau bestimmbaren Merkmalen kategorisiert werden, gibt es keinen Grund, dafür ein deep learning System neu anzulernen und somit das Rad neu zu erfinden, das dann nur aufwändiger langsamer und ungenauer arbeitet, als das schon vorhandene ‘Rad’.

Deep learning kann aber dann zum Einsatz kommen, wenn auf den unteren ‘datennahen’ Schichten der Verarbeitung alle Vorarbeiten so effizient wie möglich durchgeführt wurden und es jetzt darum geht, Muster zu identifizieren, die ‘fuzzy’ sind und im Bereich der inhaltlichen Verarbeitung liegen.

Ein aktuelles Beispiel aus dem Bereich Industrie 4.0 (engl.: Industrial internet of things): Um die ungeplanten Stillstandszeiten einer teuren Werkzeugmaschine zu minimieren, werden in regelmäßigen Intervallen Wartungsarbeiten an wichtigen Komponenten vorgenommen.

Diese Intervalle beruhen auf Erfahrungswerten und Vorgaben des Herstellers. Jetzt kann es natürlich sein, dass man dadurch zwar auf der sicheren Seite ist und die Maschine selten ungeplant ausfällt. Eine Garantie dafür hat man allerdings nicht und außerdem besteht eine gewisse Wahrscheinlichkeit, dass man zu häufig wartet und dadurch wertvolle Produktionszeit verschwendet.

Es wäre doch viel schöner, wenn man im Voraus wüsste, wie lange eine Komponente noch reibungslos funktioniert, so dass sie rechtzeitig vor ihrem Ausfall gewartet werden kann. Um eine solche Abschätzung zuverlässig zu treffen, müssen große Datenströme von Sensoren und Umgebungsfaktoren in Betracht gezogen werden.

Ein Maschinenbediener, der das seit 30 Jahren macht, entwickelt ein Gefühl dafür, wenn etwas ‘faul’ ist und kann entsprechend reagieren. Hier könnten deep learning-basierte Systeme entsprechend trainiert werden und fundierte Entscheidungen treffen.

Vielleicht würde ein solches System nicht dasselbe Fingerspitzengefühl entwickeln wie der Mensch, aber dafür wird es auch nicht müde und macht keine Kaffeepause.

Gibt es Alternativen zum deep learning?
Natürlich gibt es Alternativen, es kommt immer auf den Einsatzfall an. Erst kürzlich konnte man lesen, dass der KI-Forscher Douglas Lenat nach über dreißig Jahren die Wissensdatenbank Cyc zur Marktreife gebracht hat.

Sie besteht aus einer Vielzahl einfacher Regeln mit dem Ziel, sämtliches Allgemeinwissen zu sammeln und für Schlussfolgerungen bereit zu stellen. Ein beliebtes Beispiel sind die Regeln ‘Wasser ist nass’ und ‘das Meer besteht aus Wasser’. Wenn ein Programm nun die Wissensdatenbank Cyc verwendet und mit der Aussage konfrontiert wird, dass eine Person im Meer schwimmt, wird das Programm ableiten, dass diese Person nass ist.

Es ist sicherlich viel effizienter, solche Regeln abrufbereit zu speichern, als Sie jedes Mal mit großem Aufwand neu zu errechnen. So funktioniert das bei uns Menschen auch, gewisse Fakten wie z. B ‘der Ball ist rund’ und ‘ein Fußballspiel dauert in der Regel 90 Minuten’ lernen wir ja auch einfach und ermitteln sie nicht selbstständig durch Grundlagenforschung.

artificial-intelligence
Man kann davon ausgehen, dass eine Kombination aus Datenbanken wie Cyc und der deep learning-Technologie einen vielversprechenden Ansatz bietet, die Künstliche Intelligenz (KI – in der Regel wird man aber die englische Abkürzung AI = Artificial Intelligence finden) noch erfolgreicher zu machen.

deep learning ist grundsätzlich ein selbstlernendes System, aber auch dieses benötigt gute Lehrer und ein gutes ‘Allgemeinwissen’, um den richtigen Startpunkt zu haben und die Erfolgskontrolle zu ermöglichen.

Das ist ähnlich wie bei uns Menschen: Wenn der Lehrer in der Grundschule uns die Grundrechenarten nicht beibringt, werden die wenigsten von uns die Gesetze der Arithmetik selbst entdecken. Und wenn er uns sagt, dass 1 + 1 = 3 ist, wird uns das im Leben auch nicht viel weiterbringen.

In welchen Branchen bietet deep learning die größten Benefits?
Wie schon angedeutet ist das Potenzial dort am größten, wo Computer kognitive Aufgaben übernehmen sollen, die bisher nur von Menschen geleistet werden konnten. Schon heute gilt das für Bild- und Schrifterkennung, Übersetzungssoftware und ähnlich ‘einfache’ Leistungen.

In naher Zukunft wir das sicher auch für komplexere Aufgaben gelten z.B. in Bereichen wie Sicherheit und Überwachung, Finanzplanung, Medizin, Produktion etc.

deep learning bietet vor allem in Branchen einen Benefit, die über eine Vielzahl an Daten verfügen und von ‘predictive analytics’ profitieren. Das sind vor allem produzierende und vermarktende Unternehmen.

Wenn bereits durch die Analyse der bestehenden Daten ein neuer Trend vorhergesagt werden kann, ist man in der Lage, das Produkt-Portfolio zum optimalen Zeitpunkt anzupassen oder gezielte Marktaktivitäten zu planen.

Ein erheblicher Benefit ist auch im Bereich der Wartung von Maschinen zu erwarten. Maschinen stellen teilweise jede Millisekunde Daten zur Verfügung, die nicht mit konventionellen Lösungen in Echtzeit vollständig auszuwerten sind.

Dementsprechend erfolgt die Auswertung der Daten stets vergangenheitsorientiert und oftmals anhand von Stichproben. Deep learning ermöglicht in diesem Zusammenhang eine Erkennung der Muster, die bspw. zu Ausfällen führt.

industrial-internet-of-things
Welche Hausaufgaben muss die Industrie erfüllen, damit sie von deep machine learning überhaupt profitieren kann?

Um bspw. den zuvor genannten Benefit im Bereich der Wartung von Maschinen zu realisieren, müssen aktuell mindestens zwei Herausforderungen gemeistert werden:

Das Unternehmen muss in erster Linie überhaupt in der Lage sein, alle relevanten Maschinendaten direkt aus den Maschinen auszulesen und zu verarbeiten. Dabei steigt die Herausforderung mit zunehmender Anzahl von Maschinen unterschiedlicher Hersteller. Darüber hinaus müssen zusätzlich die eingesetzten Enterprise Softwarelösungen wie z.B. SAP ebenfalls an den gemeinsamen Datenpool angeschlossen werden, um auf Plandaten zurückzugreifen und demzufolge übergreifende Muster zu erkennen.

Wenn der Anschluss der Maschinen erfolgreich war, müssen die erfassten Datenmengen der Maschinen und angebundenen Enterprise Softwarelösungen auch zum Datenpool der deep learning Software transportiert werden. Und hier würde aktuell ein Großteil der Netzwerke in den Firmen unter der Last zusammenbrechen. Es gilt also neben dem Anschluss der Maschinen eine ausreichende technische Infrastruktur im Unternehmen zur Verfügung zu stellen, um deep learning einsetzen zu können.

Im Allgemeinen muss sich die Denkweise in Unternehmen an die neuen Möglichkeiten anpassen und darf sich nicht gegenüber der neuen und zugegebenermaßen schwer begreifbaren Technologie verschließen.

Es werden meiner Einschätzung nach noch mehrere Jahre, wenn nicht sogar Dekaden vergehen bis sich deep learning in Industriebetrieben etabliert hat. Es gilt hier also noch jede Menge Missionierungsarbeit zu leisten sowie die zuvor genannten Herausforderungen zu meistern.

Über Tomorrow Labs
tomorrow_labs
Tomorrow Labs mit Niederlassungen in Hamburg und München sind Spezialisten im Bereich Digitalisierung, Big Data, Enterprise Integration und in der Umsetzung von Industrie 4.0 Projekten. Ihre prämierte Industrie 4.0-Plattform Tomorrow connect ermöglicht mit geringem Aufwand die Anbindung von Maschinen diverser Hersteller und Produktionslinien sowie allen bestehenden Enterprise Softwarelösungen aus den Bereichen ERP, MES, BI, Logistik, Einkauf, Vertrieb, Controlling, etc. Tomorrow connect ist die Open-Source-Plattform, die abteilungs- und unternehmensübergreifende sowie autonome Steuerung der Prozesse ermöglicht. Unternehmen können aus bestehenden Apps von Tomorrow Labs wählen und zusätzlich eigene Anwendungen entwickeln.

Siehe zum Thema deep learning auch: TwentyBN = Deep Learning – Vier Gründer, die Künstliche Intelligenz erschaffen

Bild oben: Shutterstock, deep learning ; weitere Bilder: Shutterstock, AI, Shutterstock, iiot, Shutterstock, big data – modifiziert

Elke Fleing aus Hamburg liefert Texte aller Art, redaktionellen Content und Kommunikations-Konzepte. Sie gibt Seminare, hält Vorträge und coacht Unternehmen. Bei deutsche-startups.de widmet sie sich vor allem Themen und Tools, die der Erfolgs-Maximierung von Unternehmen dienen.