Sie sind hier

Hat die Google Duplex KI gerade den Turing Test bestanden?

00
0
Erstellt von Michael Katzlberger on 14/05/2018

Hat die Google Duplex KI gerade den Turing Test bestanden?

Der Turing Test stammt aus dem Jahr 1950, benannt nach dem britischen Mathematiker Alan Turing. Mit ihm soll festgestellt werden, ob eine Maschine - sprich ein Computer - das Denkvermögen eines Menschen hat. Für den Test führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt einen Chat mit zwei ihm unbekannten Gesprächspartnern. Ein Gesprächspartner ist ein echter Mensch, der andere eine Maschine. Wenn der Fragesteller nach intensivem Chat nicht genau sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing Test bestanden, und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen zugesprochen.

Der Turing Test ist nicht unumstritten, so gibt es mittlerweile Alternativen wie den den Metzinger-Test, bei dem eine KI mit eigenen Argumenten in die Diskussion um künstliches Bewusstsein eingreifen und überzeugen muss und den Lovelace-Test, bei dem eine KI Kreativität beweisen muss. Seit Jahrzehnten gibt es immer wieder Diskussionen darüber, ob das Bestehen des Turing Tests einen sinnvollen Durchbruch für die KI Forschung bedeuten würde oder nicht. 

Was mich bei der google I/O 2018 von Googles CEO Sundar Pichai vorgestellte Google Duplex KI besonders beeindruckt hat, ist die exzellente Nachahmung der menschlichen Sprache. Der ursprüngliche Turing Test geht nämlich davon aus, dass jede Diskussion zwischen Computer und Forscher in reiner Textform stattfindet.

Pichai erklärt im YouTube Video (im Artikel unten zu sehen), dass das, was wir hören ein echter Anruf in einem Friseursalon war und die Teilnehmer des Experiments nicht wussten, dass sie von einer KI angerufen wurden. Das Gespräch ist atemberaubend und beunruhigend zugleich. Die Grenze zwischen Mensch und Maschine verschwimmt.

Wer von ihnen Siri, Alexa, Bixby, Cortana und co benutzt um einen Dialog zu führen weiß, dass man hier schnell an seine Grenzen stößt. Je nach Fragestellung können die Antwort-Zeiten sehr langsam sein, of erfasst die AI nicht einmal die Frage oder den Sprachbefehl korrekt. Die meisten KIs können maximal zwei aufeinanderfolgende Abfragen verarbeiten und benötigen praktisch alle ein Aktivierungswort wie „Alexa“ oder „Hey Siri“.

Der Google-Assistent, der Duplex ausführt lässt keines dieser Probleme hören. Zusätzlich hat Google verbale Ticks –  z.B. „mm hmms“ und „umms“ – eingebaut, die auch in natürlicher Umgebung auftreten. Das Ergebnis zeigt eine fantastisch menschliche Stimme, die vollständig von einem Computer erzeugt wird.

Duplex ist eine Weiterentwicklung des Google assistant, den man auf bestimmte Gesprächssituationen trainiert hat. Derzeit kann das Google System nur für eine begrenzte Anzahl von Telefongesprächen nutzen. Für die Abfrage von Öffnungszeiten, Friseurtermine oder Tischreservierungen in Restaurants.

Die I/O Show wirft natürlich eine Menge ethische Fragen auf, auf die auch Google noch nicht alle Antworten hat. Das gibt Technokritikern und Verschwörungstheoretikern genug Stoff für die nächsten Monate.

Bei TUNNEL23 haben wir WaveNet von Google, mit dem man Stimmen über ein künstliches neuronales Netzwerk emulieren kann bereits getestet, mit beeindruckenden Ergebnissen.

Duplex ein überzeugender Beweis dafür, dass wir uns in riesigen Schritten auf echte Gesprächs KIs zubewegen, wie man sie z.B. aus dem Film HER kennt. Alan Turing wäre stolz auf diese Ingenieursleistung, da bin ich mir sicher.