Deep Learning ist eine spannende Technologie, um KI-Systemen auf die Sprünge zu helfen. Foto: Gerd Altmann/Pixabay
Von Christian Dirschl, Chief Content Architect, Wolters Kluwer Deutschland
In meinem ersten Artikel zum Thema Künstliche Intelligenz habe ich geschrieben, dass es KI schon lange gibt und dass der derzeitige Hype erste Erfolge, aber auch eine übersteigerte Erwartungshaltung wiederspiegelt. Nun wollen wir uns etwas genauer anschauen, woher diese „plötzlichen“ Erfolge kommen.
Ein Grund ist der generelle technische Fortschritt in der Computertechnologie. Der andere Grund baut darauf auf: Maschinelles Lernen (oder Machine Learning) ist nutzbar geworden, um Wissensmodelle zu trainieren – also die Programme, die das intelligente Verhalten an den Tag legen. Maschinelles Lernen oder sogar KI als Ganzes wird immer wieder mit Neuronalen Netzen oder Deep Learning gleichgesetzt. Das ist unzutreffend, denn Deep Learning ist nur die spannendste und geheimnisvollste Technologie, um KI-Systemen etwas beizubringen.
Darüber hinaus gibt es viele weitere Lernverfahren, die sich bereits im Laufe der letzten Jahrzehnte etabliert haben und teilweise Standardverfahren z.B. in den von uns allen verwendeten Suchmaschinen sind. Letztendlich ist es immer dieselbe Aufgabe, die ein System zu lösen hat: „Finde mir Muster in einer großen Datenmenge, die für mich interessant sein könnten.“
Die Kunst besteht nun darin, diese „Muster“ so genau wie nötig und gleichzeitig so allgemein wie möglich zu machen, damit alles gefunden wird, was „ähnlich“ zu meiner Anfrage ist. Also bei der Bilderkennung ist ein Hund mit abgeknickten Ohren immer noch ein Hund, aber einer mit ausgeprägten Schnurrhaaren eher nicht mehr. Die Verfahren unterscheiden sich nun darin, wie sie diese Unterschiede lernen, wie sie sie abspeichern und wie sie darauf für die Erkennung bei neuen Daten zugreifen.
Maschinelles Lernen ist nicht gleich Deep Learning
Jedes Maschinelle Lernen besteht aus zwei Phasen: der Trainingsphase und der Anwendungsphase. In der Trainingsphase werden die Muster erlernt. Entweder bekommt das System viele fertig mit Informationen angereicherte Beispiele. Oder das System sucht sich selbst seinen Weg, macht Vorschläge und ein Mensch sortiert die Ergebnisse dann in richtig oder falsch ein. Basierend auf diesem Feedback beginnt die nächste Lernrunde.
Bei manchen Verfahren kann man quasi hineinschauen und erkennen und nachvollziehen, weshalb das System sich so und nicht anders entschieden hat. Man kann sich zum Beispiel ausgeben lassen, welche Begriffe in einem Text wichtiger sind oder welcher Bildabschnitt besonders sinntragend ist.
Beim Deep Learning ist das anders. Das System sucht sich selbständig einen individuellen Weg, bei dem das Gesamtergebnis mehr als die Summe seiner Einzelteile ist. Der Vorteil ist das „Selbständige“, das heißt es ist relativ einfach, schnell zu guten Ergebnissen zu kommen. Der Nachteil ist aber, dass man in der Regel nicht weiß, warum, und es auch keinen einfachen Weg gibt, das herauszufinden. Bei vielen Anwendungsgebieten reicht es aus, wenn das Ergebnis korrekt ist. Bei anderen dagegen, besonders wenn es um Persönlichkeitsrechte, Vorhersagen oder sicherheitsrelevante Aspekte geht, wird das normalerweise nicht akzeptiert. Deshalb ist diese Intransparenz zusammen mit der Notwendigkeit, wirklich große und „neutrale“ Trainingsdatenmengen zu haben, derzeit die „Achillesferse“ des Deep Learning. Viele Forscher arbeiten daran, diese Defizite zu beheben, und nennen diesen verbesserten Ansatz „Explainable AI“. Und erst wenn es hierfür brauchbare Lösungen gibt, wird sich meines Erachtens auch die LegalTech-Welt der vollautomatischen KI-Verfahren nicht mehr verschließen können.
Somit befinden wir uns gerade auf dem Weg, mit ersten funktionierenden Anwendungen zu arbeiten. Und das wird sich in den nächsten Jahren stetig fortsetzen. Einen großen Knall erwarte ich dagegen nicht.
Die immense Aufmerksamkeit des KI-Themas zeigte sich erst kürzlich wieder, als in Berlin mehr als 8.000 Teilnehmer aus Wirtschaft, Politik und Gesellschaft über die aktuellen Entwicklungen sprachen und insbesondere politische, ethische und zivilgesellschaftliche Aspekte immer wieder in den Fokus der Diskussionen kamen (https://www.big-data.ai/this-was-bas19).