Chatbots wie Siri, Alexa, Cortana & Co sind derzeit sowohl Sinnbild als auch Vorreiter digitaler Vernetzung. Sie fungieren als Informationsbeschaffer, Datenportiers, digitale Butler und Berater. Durch smarte Produkte haben Chatbots zunehmend Einfluss auf den Wirkungsraum der fassbaren Realität. Durch die Implementierung künstlicher Intelligenz lösen sich Chatbots vom bloßen Algorithmus und werden lernfähig. Evolution ist denkbar. In Zukunft wird nicht die technische Machbarkeit ihren Erfolg bestimmen. Vielmehr werden die Grenzen der Entwicklung, Nutzung und Verbreitung dadurch gezogen, welche Befugnisse der Mensch ihnen einräumt und wer die Verantwortung für die Folgen ihrer Entscheidungen übernimmt.
Um Auswirkungen durch künstliche Intelligenz gesteuerter Bots besser beurteilen zu können, bedarf es möglicherweise der Erklärung drei relevanter Begriffe: Turing-Test, Künstliche Intelligenz und Social Bots.
Turing-Test
Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Der aus der Anfangszeit des Informatik-Teilbereichs Künstliche Intelligenz stammende und seither legendäre Test trug dazu bei, den alten Mythos von der denkenden Maschine für das Computerzeitalter neu zu beleben.
Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden, und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen unterstellt.
Es ist eine Reihe von Argumenten vorgebracht worden, die den Turing-Test als ungeeignet zur Feststellung von Intelligenz ansehen:
»Der Turing-Test prüfe nur auf Funktionalität, nicht auf das Vorhandensein von Intentionalität oder eines Bewusstseins. Dieses Argument wurde unter anderem von John Searle in seinem Gedankenexperiment des Chinesischen Zimmers ausgearbeitet. Turing war sich dieser Problematik bereits bei der Formulierung seines Tests bewusst, war allerdings der Ansicht, dass dieser auch als Nachweis für ein Bewusstsein gelten könne. Searle lehnt dies hingegen ab.«
(Quelle: Wikipedia, Stand 04.01.2018)
KI – Künstliche Intelligenz
Als Geburtsstunde des Begriffs Künstlichen Intelligenz gilt heute das Dartmouth Summer Research Project on Artificial Intelligence im Jahre 1956, in dessen Antrag auf Förderung formuliert worden ist, »that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.«
(Quelle: Stanford University, Stand 04.01.2018)
Automatisierung, der Umgang mit Sprache, Neuronale Netze und Kreativität sind Themen des Antrags. Deep Learning wird bereits unter dem Stichwort Self-lmprovement angedacht.
Das Forschungsfeld der Künstliche Intelligenz beschäftigt sich mit der Simulation, Nachahmung und Automatisierung des menschlichen Geistes durch Maschinen/Computer/Programme. Es stellt sich die Frage, wie intelligent, autonom, menschenähnlich oder selbstbewusst ein Computer werden kann? Auf Teilgebieten schlägt sich der Computer bereits besser als der Mensch: Der Schachcomputer Deep Blue von IBM schlägt 1996 den Schachweltmeister Garri Kasparow, Watson besiegt 2011 seine zwei menschlichen Konkurrenten in der Quizsendung Jeopardy! und Googles AlphaGo schlägt 2016 den amtierenden Weltmeister Lee Sedol am Go-Brett. Was auf den ersten Blick banal klingt, ist angesichts der behandelten Komplexität beachtlich und war zur Geburtsstunde der Künstlichen Intelligenz noch undenkbar.
Social Bots
»Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren.«
(Quelle: Springer Gabler Verlag (Hrsg.), Gabler Wirtschaftslexikon, Stichwort: Social Bots, online im Internet: https://wirtschaftslexikon.gabler.de/definition/social-bots-54247 (Stand: 04.01.2018)
Google Hangouts (ehemals Google Talk) soll Callcenter revolutionieren. Chatbots sollen die Regel werden und Menschen nur noch einspringen, wenn die Chatbots nicht mehr weiter wissen.
Social Bots auf Abwegen
Solange Social Bots als solche erkenntlich sind, stellt dies kein Problem dar. Der Trend geht aber dahin, dass sich Social Bots als Menschen (mit Namen, Profil, Vita) ausgeben und nach gesetzten Parametern Informationen analysieren, generieren und verbreiten. Je besser ihre AI und Sprachfähigkeit und Textsicherheit funktioniert, desto schwerer ist es, ihre wahre, maschinelle Identität zu entschlüsseln. Social Bots können sich klonen, in unterschiedliche Rollen schlüpfen und Aufträge ausführen. Sie verarbeiten Informationen und reagieren entsprechend der Programmierung und gesetzten Intention.
Chatbots können so als Multiplikatoren im Informationsmanagement verwendet werden, deren Macht und Einfluss nicht zu unterschätzen ist. Wie ein Heer rücken sie aus, bewaffnet mit gezielten Informationen, die durch AI immer anders aber mit der gleichen Intention und Botschaft verbreitet werden können.
Entscheidungsmacht
Noch behelfen sich Sprachassistenten mit Ausreden (»Ich verstehe deine Frage nicht.«) oder Verweis auf andere Instanzen, damit sie keine Entscheidungen treffen müssen, die nicht durch den Benutzer freigegeben worden sind oder sich rechtlich schwierig gestalten. Jeder kann den momentanen Entwicklungsstand selbst mit einfachen Fragen überprüfen: z. B. nach Suizid, Gefahrenabwehr, Gefühlen oder Handlungsanweisungen, die über einen Anruf oder Kalendereintrag hinausgehen. Dies wird vom Nutzer aber als mangelnde Kompetenz ausgelegt und führt in Folge zu Frustrationen bzw. eingeschränkter Nutzung, was wiederum von den Herstellern entsprechender Devices nicht gewünscht ist. Um ihre Marktmacht auszubauen, arbeiten die Hersteller an immer genaueren und entscheidungsmächtigeren Chatbots. Dies erscheint auch folgerichtig, weil nur Chatbots mit erweiterter Entscheidungsmacht wirklich eine Hilfe für den Nutzer darstellen und nicht im Status bloßer Spielerei verweilen. Die Entwicklungsrichtung ist absehbar.
Offene Fragen
- Gibt es definierbare und einstellbare Parameter, die Folgen von Handlungen bestimmen und eingrenzen?
- Ist der Nutzer von Chatbots für alle Entscheidungen und Folgen verantwortlich und haftbar?
- Oder ist der Hersteller/Bereitsteller des Chatbots für alle Entscheidungen und Folgen verantwortlich und haftbar?
- Wer ist für unsachgemäßen Gebrauch und dessen Folgen verantwortlich?
- Bedarf es einer »Aufsichtspflicht« durch den Besitzer/Nutzer von smarten Geräten?
- Werden wir in Zukunft Versicherungen abschließen, die uns aus der Haftung für falsche Entscheidungen von Chatbots entbinden?
- Wird (wie beim Aktienhandel) ein Risikomanagement (solide -> ausgewogen -> offensiv -> spekulativ -> hochriskant) notwendig?
- Kann oder soll es so etwas wie Risikoausschluss von unvorhersehbare Katastrophen oder unwahrscheinlichen Zufällen für Chatbots geben?
- Wie könnte eine angepasste Ethik des Digitalen (über den reinen Utilitarismus hinausgehend) aussehen?
Ausblick
Je mehr Künstliche Intelligenz entscheidender Bestandteil von Chatbots und digitaler Vernetzung wird, desto mehr wandert das Dilemma in Richtung Technologie. In naher Zukunft werden immer mehr Entscheidungen von Maschinen selbst(ständig) getroffen. Der Mensch wählt nur noch Parameter im Sinne von Voreinstellungen. Es ist dann mehr oder weniger nicht unser Dilemma – auch wenn wir die Folgen spüren. Je mehr Verantwortung wir abgeben, desto stärker greifen andere Mechanismen, die erst noch von uns entwickelt werden müssen, da sie sich sonst anhand Deep Learning & Co selbst formen und ihr Code nicht mehr einsehbar und steuerbar ist.
An English translation of this text you can find here.