Natural Language Processing – wie kommuniziert KI?

von | 8. Okt. 2019 | Künstliche Intelligenz

Intelligente Systeme sollen fortan auch sprachlich versiert sein, um so mit uns Menschen interagieren zu können. Aber wie kann unsere natürliche Sprache in einer solchen Form aufbereitet werden, dass sie für eine Künstliche Intelligenz greifbar und nutzbar wird? Mit dieser Fragestellung beschäftigt sich ein Teilgebiet des Machine Learnings, das sogenannte Natural Language Processing, kurz NLP.
Natural Language Processing verfolgt ein Ziel: Einer Künstlichen Intelligenz soll eine Sprache so beigebracht werden, so dass diese Texte und Sprache syntaktisch und semantisch korrekt verstehen und nutzen kann. Das Ganze ist relativ anspruchsvoll, denn wie Ihr aus eigener Erfahrung wisst, setzt das Übersetzen und Verstehen ein nicht gerade geringes Sprachniveau voraus.

Aber wie funktionieren NLP Verfahren?
Um die genaue Funktionsweise zu verstehen ist es ratsam sich erst einmal ein grobes Verständnis davon zu verschaffen, was der Begriff „Sprache“ alles umfasst. Allgemein bezeichnen wir gleichauf das schriftliche, als auch das gesprochene Wort als Sprache. Aber auch die nonverbale Kommunikation, wie Mimik und Gestik, hat einen hohen Einfluss auf die Bedeutung der Wörter. Hieran lässt sich bereits das Grundproblem von NLP erahnen: Es reicht nicht alleinig aus, die Maschine mit einer bestimmten Anzahl an Wörtern zu trainieren. Vielmehr muss der KI auch die Bedeutung eines jeden Wortes in seinem jeweiligen Kontext beigebracht werden. Und genau das ist die eigentliche Krux – diesen Zusammenhang auf eine für den Computer verständliche Art und Weise darzustellen.

Bereits vor der Erfindung von NLP haben Forscher an ähnlichen Aufgabenstellungen gearbeitet. Hierzu haben sie meist die Präfixe, Suffixe und den jeweiligen Wortstamm betrachtet und anschließend eine Segmentanalyse gestartet. Das heutige NLP basiert meist auf Deep Learning Verfahren. Die meist vektorbasierten Vorgehensweisen inkludieren dabei die früheren Systematiken.
Die Basis-Idee bei den vektorbasierten Techniken ist es, einzelne Sinneinheiten – die Worte, in einem multidimensionalem Vektorraum aufzuspannen. Dies wird in einer Art und Weise getan, dass Wörter mit ähnlichen Bedeutungen sich nahe zueinander befinden.

Die Basis-Idee bei den vektorbasierten Techniken sind sogenannte one-hot Vektoren: Dabei wird jedem Wort ein komplexer, multidimensionaler Vektor zugewiesen. Dadurch erhält jedes Wort eine feste Position innerhalb eines Datenraums. Legt man beispielsweise einen Text zugrunde, der aus 1.000 Wörtern besteht, wird für jedes Wort ein eigener Vektor kreiert. Das erste Wort erhält einen Vektor mit der Ziffer 1 und nachfolgend 999 mal die Zahl null. Der Vektor des zweiten Wortes enthält als erste Komponente die Zahl null, als zweite die Zahl eins und anschließend 998 mal die Zahl null. Analog Verhalten sich die nachfolgenden Wörter, indem sich die die Position der Zahl eins jeweils immer um eine Position nach rechts bzw. nach unten verschiebt, je nach Art der Darstellung des Vektors.
Wort 1: Apfel (1/0/0/0/0/0/….)
Wort 2: Birne (0/1/0/0/0/0/…)

Wie sprachlich versiert sind die intelligenten Systeme heutzutage?
Beim gesprochenen Wort ist die KI derzeit soweit, dass sie mehrere von Menschen gesprochene, überlagerte Tonspuren separieren und die Bedeutung verstehen kann. Aber es gibt auch einige Hürden, die noch zu überwinden sind. Jeder von uns kennt das Phänomen: Das Startniveau ist bei jedem Sprachanfänger sehr einfach aufgebaut. Dadurch kann relativ schnell eine gute Grundlage geschaffen werden. Für die Perfektion, sozusagen den rhetorischen Feinschliff, bedarf es einem weitaus höheren Aufwand. Diese Verhaltensweise ist auch auf KI übertragbar.

Photo by Raphael Schaller on Unsplash

Michael Scheuner, Co-Founder, AI Engineer