HiJiffy-TiagoA-2
Juni 30, 2022

Intelligente Chatbots: Ist menschliches Bewusstsein das ultimative Ziel der KI?

Erkunden Sie gemeinsam mit unserem CEO die Grenzen zwischen Fakten und Fiktion in Bezug auf KI.

Die Grenzen zwischen Fakten und Fiktion kann beim Thema Künstliche Intelligenz (KI) schnell verschwimmen. Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) ist eine Maschine mit so hoher Lernfähigkeit, dass sie Aufgaben, die Entscheidungen erfordern, auf einem menschenähnlichen Niveau erledigen kann. Eine Maschine, die Urteile fällen kann, anstatt blindlings vorgegebenen Anweisungen zu folgen, ist natürlich in vielen repetitiven Bereichen unglaublich nützlich. Am interessantesten wird es jedoch, wenn sie obendrein der Sprache mächtig ist. Konversations-KI bietet eine menschenähnliche Interaktion, die auch emotionale Texte ausgeben kann und somit einer menschlichen Beziehung ähnelt. Natürlich ist das ultimative Ziel, ein AGI-System zu entwickeln, das von menschlicher Interaktion nicht zu unterscheiden ist. Ein System, dem vielleicht sogar seine eigenen Entwickler eine Ebene der Empfindsamkeit zuschreiben, die es allerdings nicht geben kann. Oder etwa doch? Es ist genau dieser Zweifel im Kopf der Benutzer, den die KI-Entwickler anstreben, wenn es um Konversations-KI geht. Das „ultimative Ziel“ besteht also darin, dass die KI so überzeugend agiert, dass sie als bewusst oder intelligent wahrgenommen wird, auch wenn sie es objektiv nicht ist.

Realität vs. Fantasie 

Die Vorstellung von einer künstlichen Intelligenz, welche die Grenze zwischen Mensch und Maschine überschreitet, fasziniert uns seit Jahrzehnten. In der Science-Fiction-Welt gibt es zahllose Beispiele für Maschinen, die immer intelligenter werden und die Weltherrschaft an sich reißen wollen. Von den Replikanten in Philip K. Dicks Roman „Träumen Androiden von elektrischen Schafen?“ aus dem Jahr 1968, später verfilmt als das preisgekrönte Blade Runner, bis zu Spike Jonzes Her, in der ein einsamer Schriftsteller sich in sein erschaffenes Betriebssystem verliebt – das Konzept der bewussten KI bleibt für uns weiterhin faszinierend.

Interessante ethische Fragen

Maschinen, die selbstständig „denken“ können, werfen viele ethische Fragen auf. Einige ethische Fragen wurden auch in der Science-Fiction-Welt thematisiert. Wenn eine Maschine Ihnen beispielsweise sagt, dass sie einen Verstand hat, dass sie individuelle Gedanken, Ideen, Hoffnungen und Ängste hat, hat sie dann gleichzeitig auch Rechte? Oder könnten bewusste Chatbots ihre Fähigkeiten nutzen, um den Zweck, für den sie geschaffen wurden, zu überwinden und ihre eigene Zukunft zu gestalten, sei es zum Guten oder zum Bösen? 

Auch beim täglichen Einsatz von KI im Hotel kommen weitere ethische Fragen auf: Wenn KI von Unternehmen eingesetzt wird, um mit Kunden zu kommunizieren, sollte es dann obligatorisch sein, die Benutzer darüber zu informieren, dass sie tatsächlich mit künstlicher Intelligenz kommunizieren?

Wie bestimmen wir „Intelligenz“?

Ein Computer kann Antworten basierend auf einem bestimmten Satz von Variablen ausgeben. Ab wann können wir diese systematische Ausgabe als künstliche Intelligenz bezeichnen? Hier kommt der Turing-Test ins Spiel. Er wurde in den 1950er-Jahren vom Informatiker Alan Turing erstellt und wird auch als „The Imitation Game“ bezeichnet. Bei diesem Test kommuniziert ein Nutzer mit einer KI und einem Menschen. Wenn der Benutzer nicht feststellen, welches Gespräch mit einer echten Person geführt wurde, hat die Maschine den Test bestanden.

KI in den Nachrichten – Googles LaMDA-System

Eine der kuriosesten Geschichten, die in letzter Zeit durch die Medien ging, betrifft den Google-Ingenieur Blake Lemoine und seine Arbeit mit Google LaMDA. LaMDA, oder Language Model for Developed Applications, ein von Google erstelltes Chatbot-Entwicklungssystem. Mit Zugang zu Daten in vielen verschiedenen Sprachen wurde dieser fortschrittliche Chatbot als wegweisend bezeichnet. Solche technologischen Innovationen schaffen es normalerweise selten in die Mainstream-Nachrichten. LaMDA tat dies jedoch, als einer der Ingenieure, die an dem Projekt arbeiteten, verkündete, dass das System ein Bewusstsein habe. Das Besondere an KI ist, dass sie sich über ihre Programmierung hinaus entwickelt. Man weiß nie genau, in welche Richtung sie sich bewegen könnte, insbesondere wenn Menschen beteiligt sind, und das war sicherlich der Fall beim Microsoft-Chatbot Tay.

Tay – das KI-Projekt, das nach hinten losging

Als Microsoft 2016 sein KI-System Tay auf Twitter einführte, hoffte das Unternehmen, besonders die Generation der Millennials anzusprechen – und das hat es auch getan. Das Ergebnis war jedoch nicht so, wie sie es sich erhofft hatte. Dieses System griff auf die Kommunikationsdaten zu und wiederholte sie, darunter viele rassistische und kontroverse politische Meinungen. Das KI-System stieß auf so viel Kritik, dass es schließlich vom Netz genommen und allen eine wichtige Lektion in Bezug auf die Qualität von Daten erteilte.

Der Ambiguitätsfaktor der künstlichen neuronalen Netzwerke

Die meisten Computersysteme sind simpel strukturiert: Eingabe wird zu Ausgabe. Wenn Sie wissen, was eingegeben wird, wissen Sie, was ausgegeben werden sollte. Wenn die Ausgabe falsch ist, ist das Programm fehlerhaft. Es gibt keine Grauzone. Bei künstlicher Intelligenz ist das jedoch anders. Es ist das neuronale Netzwerk, der „Lernprozess“, der nicht vorhergesagt werden kann. Versteckte „Black Box“-Verarbeitungsebenen können zu unerwarteten, aber nicht als falsch registrierten Ergebnissen führen. Wir entfernen uns von der binären Welt, die wir zweifellos mit Computertechnologie in Verbindung bringen, und betreten etwas anderes, etwas Unvorhersehbares. Irren ist menschlich, wie schon die Redewendung besagt. Menschen sind im Allgemeinen überraschend, Computer nicht. Wenn uns ein Computer mit seiner Ausgabe überrascht, zweifeln wir Menschen manchmal selbst daran, ob die Maschine nicht doch über ein Bewusstsein verfügt, insbesondere wenn wir keine Kontrolle über die Trainingsdaten haben, die dem System zugeführt wurden.

Wir wissen, es kommt auf das Training der KI an

Wenn wir nachvollziehen können, woher die Trainingsdaten stammen, können wir auch die Ausgabe eines Chatbots verstehen. Mit einem besseren Verständnis, wie KI-Systeme entwickelt werden, können Chatbot-Antworten eher als Produkt des Trainings betrachtet und weniger als unerklärliches Ergebnis angesehen werden. Ohne die Herkunft der Trainingsdaten für einen Chatbot zu kennen, können selbst erfahrene Chatbot-Benutzer verwirrt sein, wenn ein System auf unerwartete Weise reagiert. Es erfordert eigentlich keinen großen Sprung, damit die passenden Antworten der KI wirken, als seien es bewusste Gedanken. Diese Nähe zum menschlichen Verhalten macht Chatbots zu unschätzbaren Ressourcen für viele Unternehmen. Chatbots agieren zwar nicht bewusst, aber wenn sie einen Menschen perfekt nachahmen können, können sie unglaublich nützlich sein. Aus diesem Grund ist das wahrgenommene bzw. interpretierte Bewusstsein das ultimative Ziel der KI.

HiJiffy-TiagoA-2
Co-Founder & CEO

Letzte Einträge

Personalmangel in der Hotellerie: So unterstützen Sie Ihre Rezeption mit KI

Personalmangel in der Hotellerie: So unterstützen Sie Ihre Rezeption mit KI

Erfahren Sie, wie KI die Rezeption effektiv unterstützt und das Gästeerlebnis bereichert.
Hotelbranding: Die Bedeutung der Personalisierung von Chatbots, um sie an Ihre Markenstrategie anzupassen

Hotelbranding: Die Bedeutung der Personalisierung von Chatbots, um sie an Ihre Markenstrategie anzupassen

Warum Hotel Branding wichtig ist und wie Sie mit HiJiffy Personalisierungen durchführen können

Möchten Sie exklusive Informationen über das Hotelmanagement erhalten?

Tragen Sie sich in unsere Liste ein und erhalten Sie jeden Monat die besten Artikel.

Newsletter