Kann man KI vertrauen?

Kann man KI vertrauen?

In den letzten Tagen gab es eine überwältigende Menge an Artikeln, Interviews und anderen Arten der Medienberichterstattung über den Google-Ingenieur Blake Lemoine. Denn Lemoine gab bekannt, dass das auf künstlicher Intelligenz (KI) basierende große Sprachmodell LaMDA bei der Kommunikation mit Benutzern über „Wahrnehmungsfähigkeiten“ verfüge, sogar „wie ein sieben- oder achtjähriges Kind“.

Abbildung|Google-Ingenieur Blake Lemoine (Quelle: The Washington Post)

Nachdem ich ein Dutzend verschiedener Perspektiven zu diesem Thema gelesen habe, muss ich sagen, dass der Medienrummel um die aktuelle KI-Technologie (ein wenig) enttäuschend geworden ist. Es wurde viel darüber diskutiert, warum tiefe neuronale Netzwerke nicht „empfindungsfähig“ oder „bewusst“ sind. Dies stellt eine Verbesserung gegenüber der Zeit vor wenigen Jahren dar, als die Medien noch Sensationsberichte darüber produzierten, dass KI-Systeme ihre eigene Sprache erfunden, sämtliche menschlichen Arbeitsplätze übernommen und sich auf dem Weg zu einer künstlichen allgemeinen Intelligenz (AGI) befänden.

Die Tatsache, dass über „Wahrnehmung“ und „Bewusstsein“ diskutiert wird, unterstreicht jedoch auch einen wichtigen Punkt: Obwohl die heutigen großen Sprachmodelle immer überzeugender werden, weisen Wissenschaftler immer wieder darauf hin, dass sie die eine oder andere grundlegende Schwäche aufweisen. Das Thema „KI täuscht Menschen“ wird seit dem ELIZA-Chatbot in den 1960er Jahren diskutiert, aber die heutigen großen Sprachmodelle befinden sich wirklich auf einem anderen Niveau. Wenn man nicht weiß, wie Sprachmodelle funktionieren, können Lemoines Gespräche mit LaMDA surreal erscheinen – obwohl sie sorgfältig ausgewählt und bearbeitet sind.

Allerdings sind „Wahrnehmung“ und „Bewusstsein“ nicht die besten Diskussionsthemen zu großen Sprachmodellen und aktuellen KI-Technologien. Eine wichtigere Diskussion sollte sich um die menschliche Kompatibilität und das Vertrauen drehen, insbesondere da diese Technologien zunehmend in alltägliche Anwendungen der Menschen integriert werden.

Große Sprachmodelle kennen die „menschliche Sprache“ nicht

In der vergangenen Woche haben wir viel darüber diskutiert, wie neuronale Netzwerke und große Sprachmodelle funktionieren. In diesem Beitrag gebe ich einen verkleinerten Überblick über die aktuelle Situation und beginne mit der menschlichen Sprache.

Für den Menschen ist Sprache ein Mittel zur Kommunikation der komplexen, mehrdimensionalen Aktivitäten, die in unserem Gehirn stattfinden. Wenn sich beispielsweise zwei Brüder unterhalten und einer von ihnen „Mama“ sagt, wird das Wort mit zahlreichen Aktivitäten in verschiedenen Teilen des Gehirns in Verbindung gebracht, darunter Erinnerungen an Mamas Stimme, Gesicht, Gefühle und verschiedene Erlebnisse aus der fernen Vergangenheit bis hin zu den jüngsten Erlebnissen. Tatsächlich kann die Art und Weise, wie sie es in ihrem Gehirn darstellen, jedoch je nach ihren individuellen Erfahrungen sehr unterschiedlich sein. Das Wort „Mama“ bietet jedoch eine prägnante, repräsentative Annäherung, die ihnen hilft, sich auf dasselbe Konzept zu einigen.

Der Unterschied zwischen Erfahrung und Erinnerung wird noch größer, wenn Sie im Gespräch mit einer fremden Person das Wort „Mama“ verwenden. Dennoch haben Sie auf Grundlage Ihrer gemeinsamen Vorstellungen einen Konsens erzielt.

Stellen Sie sich Sprache als einen Algorithmus vor, der dabei hilft, die riesigen Informationsmengen in Ihrem Gehirn an eine andere Person zu übermitteln. Die Entwicklung der Sprache ist eng mit unseren Erfahrungen in der Welt verknüpft, von physischen Interaktionen in unserer Umgebung bis hin zu sozialen Interaktionen mit anderen Menschen.

Sprache baut auf unseren gemeinsamen Erfahrungen in der Welt auf. Kinder kennen die Schwerkraft, Dimensionen, die physikalische Beschaffenheit von Gegenständen sowie menschliche und soziale Konzepte wie Schmerz, Trauer, Angst, Familie und Freundschaft, noch bevor sie ihr erstes Wort sagen. Ohne diese Erfahrungen hätte die Sprache keine Bedeutung. Aus diesem Grund werden in der Sprache häufig der gesunde Menschenverstand und die Informationen der Gesprächspartner ignoriert. Andererseits bestimmt das Ausmaß, in dem Sie Erfahrungen und Erinnerungen teilen, die Tiefe Ihrer Verbindung zu einer anderen Person.

(Quelle: Pixabay)

Im Gegensatz dazu verfügen große Sprachmodelle über keine physische und soziale Erfahrung. Sie werden einfach anhand von Milliarden von Wörtern trainiert und lernen, auf Aufforderungen zu reagieren, indem sie die nächste Wortfolge vorhersagen. Mit diesem Ansatz wurden in den letzten Jahren, insbesondere nach der Einführung der Transformer-Architektur, großartige Ergebnisse erzielt.

Wie also treffen Transformatoren überzeugende Vorhersagen? Sie wandeln Text zunächst in „Token“ und „Einbettungen“ um, mathematische Darstellungen von Wörtern in einem mehrdimensionalen Raum. Die Einbettungen werden dann verarbeitet, um weitere Dimensionen hinzuzufügen, beispielsweise die Beziehungen zwischen Wörtern in der Textsequenz und ihre Rolle in Sätzen und Absätzen. Mit genügend Beispielen können diese Einbettungen eine gute Annäherung daran erstellen, wie Wörter in einer Sequenz erscheinen sollten. Die Transformer-Architektur ist besonders beliebt, weil sie skalierbar ist: Ihre Genauigkeit verbessert sich, je größer sie wird und je mehr Daten sie empfängt, und sie kann größtenteils durch unüberwachtes Lernen trainiert werden.

Der grundlegende Unterschied bleibt jedoch bestehen. Neuronale Netzwerke verarbeiten Sprache, indem sie sie in Einbettungen umwandeln. Und für den Menschen ist Sprache eine Einbettung von Gedanken, Gefühlen, Erinnerungen, körperlichen Erfahrungen und vielen anderen Dingen über das Gehirn, die wir noch entdecken müssen.

Daher sind sie trotz der großen Fortschritte bei Transformatoren, großen Sprachmodellen, tiefen neuronalen Netzwerken usw. noch weit von der menschlichen Sprache entfernt.

Kann man KI vertrauen?

Derzeit wird in der Branche viel darüber diskutiert, ob wir KI-Systemen Eigenschaften wie Empfindungsvermögen, Bewusstsein und Persönlichkeit zuschreiben sollten. Das Problem bei diesen Diskussionen besteht darin, dass sie sich auf vage definierte Konzepte konzentrieren, die für verschiedene Menschen unterschiedliche Bedeutungen haben.

Ein Funktionalist könnte beispielsweise argumentieren, dass neuronale Netzwerke und große Sprachmodelle über Bewusstsein verfügen, weil sie mehr oder weniger die gleichen Verhaltensweisen zeigen, die wir von Menschen erwarten, auch wenn sie auf unterschiedlichen Grundlagen beruhen. Andere wiederum sind möglicherweise anderer Meinung und glauben, dass organische Materie für das Bewusstsein notwendig sei und neuronale Netzwerke niemals ein Bewusstsein haben könnten.

Eine praktischere Frage ist jedoch, wie „kompatibel“ aktuelle neuronale Netzwerke mit dem menschlichen Denken sind und ob Menschen ihnen in wichtigen Anwendungsszenarien vertrauen können. Dies ist ein wichtiges Thema, da große Sprachmodelle meist von Unternehmen kommerziell genutzt werden.

Beispielsweise könnten Schimpansen mit ausreichend Training Autofahren lernen. Aber würden Sie es ohne Bedenken fahren lassen, wenn Fußgänger gerade die Straße überqueren wollen? Das würden Sie nicht tun, denn Sie wissen, dass Schimpansen, egal wie intelligent sie sind, nicht auf die gleiche Weise denken wie Menschen und nicht zu Aufgaben in der Lage sind, die ihre persönliche Sicherheit betreffen.

Ebenso ist ein Papagei in der Lage, ein paar Sätze zu lernen, aber würden Sie ihn als Ihren Kundendienstmitarbeiter einsetzen? Wahrscheinlich nicht.

(Quelle: Pixabay)

Auch bei Menschen können kognitive Beeinträchtigungen dazu führen, dass manche Bevölkerungsgruppen nicht für die Ausübung von Berufen und Aufgaben geeignet sind, die zwischenmenschliche Fähigkeiten erfordern oder die menschliche Sicherheit betreffen. In vielen Fällen können diese Personen fließend lesen, schreiben und sprechen und in längeren Gesprächen eine konsistente und logische Ausdrucksweise wahren. Wir stellen weder ihr Empfindungsvermögen noch ihr Bewusstsein noch ihre Persönlichkeit in Frage. Wir wissen jedoch, dass ihre Entscheidungen aufgrund ihrer Krankheit in manchen Dingen inkonsistent und unvorhersehbar sein können.

Entscheidend ist, ob Sie darauf vertrauen können, dass sie wie normale Menschen denken und Entscheidungen treffen. In vielen Fällen vertrauen wir Menschen in Machtpositionen, weil ihre Sinnessysteme, ihr gesunder Menschenverstand, ihre Gefühle, Ziele und Belohnungen grundsätzlich mit unseren eigenen übereinstimmen, selbst wenn sie unsere Sprache nicht sprechen.

Kommen wir also auf die jüngsten Ereignisse zurück: Was wissen wir über LaMDA? Erstens nimmt es die Welt anders wahr als wir. Sein sprachliches „Wissen“ basiert nicht auf denselben Erfahrungen wie unseres. Ihr allgemeiner Menschenverstand steht auf wackeligen Beinen, da es keine Garantie dafür gibt, dass ein umfangreicher Text alles abdeckt, was wir in der Sprache übersehen haben.

Wie sehr können Sie angesichts dieser Inkompatibilität LaMDA und anderen großen Sprachmodellen vertrauen, egal wie gut sie bei der Textausgabe sind? Ein freundlicher, unterhaltsamer Chatbot ist wahrscheinlich keine schlechte Idee, solange er das Gespräch nicht auf sensible Themen lenkt. Suchmaschinen sind auch ein gutes Anwendungsgebiet für große Sprachmodelle (Google verwendet in den letzten Jahren BERT in der Suche). Aber können Sie ihnen sensible Aufgaben wie offene Kundenservice-Chatbots oder Bankberater anvertrauen? Auch wenn sie anhand großer Mengen relevanter Gesprächstranskripte geschult oder optimiert wurden.

Meiner Meinung nach brauchen wir anwendungsspezifische Benchmarks, um die Konsistenz großer Sprachmodelle und ihre Kompatibilität mit dem menschlichen Menschenverstand in verschiedenen Bereichen zu testen. Bei realen Anwendungen sollte es immer klar definierte Grenzen dafür geben, wo die Konversation eines großen Sprachmodells beendet und an einen menschlichen Bediener übergeben werden soll.

Seien Sie vorsichtig mit KI

Tatsächlich wird menschliche Intelligenz genutzt, um die richtigen Probleme zu finden und KI wird eingesetzt, um sie auf die effizienteste Art und Weise zu lösen.

Wir haben immer wieder gesehen, dass Computer Abkürzungen zur Lösung komplexer Probleme finden können, ohne dass menschliche kognitive Fähigkeiten erforderlich sind, und sie waren bei Dame, Schach, Go, Programmierwettbewerben, der Proteinfaltung und anderen klar definierten Problemen erfolgreich.

Natürliche Sprache unterscheidet sich in mancher Hinsicht von allen anderen Problemen, die KI gelöst hat, aber sie weist auch Ähnlichkeiten auf.

Einerseits haben Transformatoren und große Sprachmodelle gezeigt, dass sie die Welt nicht erkunden und ihre Grundregeln verstehen müssen, bevor sie sich die Sprache aneignen, um wie Menschen auf einer gemeinsamen Wissensbasis mit anderen zu interagieren. Sie können direkt beeindruckende Ergebnisse erzielen. Andererseits fehlt ihnen die Erfahrung, die der Mensch im Prozess des Sprachenlernens sammelt.

Obwohl große Sprachmodelle für klar definierte sprachbezogene Probleme gut geeignet sind, ist ihre Kompatibilität mit der menschlichen Sprachverarbeitung sehr begrenzt. Daher müssen wir weiterhin vorsichtig genug sein, wenn wir ihnen vertrauen.

Quellen:

https://bdtechtalks.com/2022/06/20/lamda-large-lingual-models-sentient-ai/

https://www.reddit.com/r/artificial/comments/vgl1so/sentience_is_the_wrong_discussion_to_have_on_ai/

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

<<:  In Tibet sind äußerst seltene Elfenblitze aufgetaucht. So sieht die magische Welt aus!

>>:  Wird der Fuji in Japan ausbrechen? Hat es Auswirkungen auf unser Land?

Artikel empfehlen

Welche Geschwindigkeit ist zum Abnehmen auf dem Laufband am besten?

Es gibt viele Möglichkeiten, Gewicht zu verlieren...

Kann Joggen das Oberschenkelfett reduzieren?

Heutzutage betrachten viele Menschen Laufen als d...

Ist es wirklich gut, regelmäßig Treppen zu steigen?

Es gibt viele Möglichkeiten, im Alltag Sport zu t...

Geschäftsgeheimnisse der APP Packaging Party

Niedrige Schwelle, keine Kosten und hohe Einnahme...

Was sind die Vorteile von Step-Aerobic?

Step-Aerobic ist derzeit eine sehr beliebte Metho...

Die stärkste Frucht Indiens ist eigentlich ein Baum

Wenn man durch die von Vieh übersäten Straßen Ind...

Warum gelten kleine rote Zwergsterne für Wissenschaftler als Wiege des Lebens?

Sterne sind der Hauptbestandteil sichtbarer Mater...

So läuft man schneller

Für viele Menschen gehört das Trainieren mittlerw...

Was tun, wenn ein Sportler eine Knieverletzung hat?

Durch falsches Training können Krankheitssymptome...