Interview mit UIUC Li Bo | Von Benutzerfreundlichkeit bis Vertrauenswürdigkeit: Die wichtigsten Überlegungen der akademischen Gemeinschaft zur KI

Interview mit UIUC Li Bo | Von Benutzerfreundlichkeit bis Vertrauenswürdigkeit: Die wichtigsten Überlegungen der akademischen Gemeinschaft zur KI

Das Aufkommen von ChatGPT hat in der Technologiebranche erneut für Aufsehen gesorgt. Dieser Aufruhr hatte weitreichende Folgen und spaltete die Technologie-Community in zwei Lager. Eine Gruppe glaubt, dass die rasante Entwicklung der KI den Menschen in naher Zukunft ersetzen könnte. Obwohl diese „Bedrohungstheorie“ nicht ohne Grund ist, vertritt eine andere Gruppe einen anderen Standpunkt. Das Intelligenzniveau der KI habe das des Menschen noch nicht übertroffen und sei sogar „nicht so gut wie das von Hunden“. Von einer Gefährdung der Zukunft der Menschheit ist man noch weit entfernt.

Zugegeben, diese Debatte verdient eine Vorwarnung, aber wie Professor Zhang Chengqi und viele andere Experten und Wissenschaftler auf dem WAIC-Gipfel 2023 betonten, sind menschliche Erwartungen an KI immer ein nützliches Werkzeug. Da es sich lediglich um ein Werkzeug handelt, ist die Frage, ob die Theorie glaubwürdig ist und wie ihre Glaubwürdigkeit verbessert werden kann, wichtiger als die eigentliche „Bedrohungstheorie“. Denn wenn die KI einmal nicht mehr vertrauenswürdig ist, wie steht es dann um ihre zukünftige Entwicklung?

Was also ist der Maßstab für Glaubwürdigkeit und wo steht das Feld heute? HyperAI hatte das Glück, eine ausführliche Diskussion mit Li Bo zu führen, einem Spitzenwissenschaftler auf diesem Gebiet und außerordentlichen Professor an der University of Illinois, der zahlreiche Auszeichnungen gewonnen hat, darunter den IJCAI-2022 Computers and Thought Award, den Sloan Research Award, den National Science Foundation CAREER Award, AI’s 10 to Watch, den MIT Technology Review TR-35 Award und den Intel Rising Star. Im Anschluss an ihre Recherche und Einführung beleuchtet dieser Artikel den Entwicklungskontext im Bereich der KI-Sicherheit.

Li Bo beim IJCAI 2023 JA

Maschinelles Lernen ist ein zweischneidiges Schwert

Betrachtet man die Zeitachse längerfristig, ist Li Bos Forschungsreise auch ein Mikrokosmos der Entwicklung vertrauenswürdiger KI.

Im Jahr 2007 begann Li Bo sein Studium mit Schwerpunkt Informationssicherheit. Obwohl sich der heimische Markt zu dieser Zeit bereits der Bedeutung der Netzwerksicherheit bewusst geworden war und mit der Entwicklung einer Reihe von Produkten und Diensten wie Firewalls, Einbruchserkennung und Sicherheitsbewertungen begann, befand sich das Feld insgesamt noch in der Entwicklungsphase. Rückblickend war diese Entscheidung zwar riskant, aber dennoch ein richtiger Anfang. Li Bo begann seine eigene Sicherheitsforschung auf einem noch „neuen“ Gebiet und legte gleichzeitig den Grundstein für nachfolgende Forschungen.

Li Bo studierte Informationssicherheit an der Tongji-Universität

Als er seinen Doktortitel erlangte, konzentrierte Li Bo seine Aufmerksamkeit noch stärker auf die KI-Sicherheit. Dass ich mich für dieses nicht ganz so Mainstream-Feld entschieden habe, liegt nicht nur an meinem Interesse, sondern zu einem großen Teil auch an der Ermutigung und Anleitung meines Mentors. Dieses Hauptfach war damals nicht besonders populär und Li Bos Wahl war ziemlich riskant. Dennoch verließ sie sich auf ihr Wissen im Bereich Informationssicherheit aus dem Studium und erkannte sofort, dass die Kombination aus KI und Sicherheit sicherlich sehr vielversprechend wäre.

Zu dieser Zeit beschäftigten sich Li Bo und sein Betreuer hauptsächlich mit der Forschung aus der Perspektive der Spieltheorie und transformierten die Angriffs- und Verteidigungsmodelle der KI in Spiele, beispielsweise indem sie das Stackelberg-Spiel zur Analyse verwendeten.

Das Stackelberg-Spiel wird häufig verwendet, um die Interaktion zwischen einem strategischen Anführer und einem Anhänger zu beschreiben. Im Bereich der KI-Sicherheit wird es verwendet, um die Beziehung zwischen Angreifern und Verteidigern zu modellieren. Beim gegnerischen maschinellen Lernen beispielsweise versuchen Angreifer, maschinelle Lernmodelle auszutricksen, sodass sie falsche Ergebnisse liefern, während Verteidiger daran arbeiten, solche Angriffe zu erkennen und zu verhindern. Durch die Analyse und Untersuchung des Stackelberg-Spiels können Forscher wie Li Bo wirksame Abwehrmechanismen und Strategien entwickeln, um die Sicherheit und Robustheit von Modellen des maschinellen Lernens zu verbessern.

Stackelberg-Spielmodell

Von 2012 bis 2013 beschleunigte die Popularität des Deep Learning die Durchdringung des maschinellen Lernens in allen Lebensbereichen. Doch obwohl maschinelles Lernen eine wichtige Triebkraft für die Entwicklung und Transformation der KI-Technologie ist, lässt sich nur schwer verbergen, dass es sich dabei um ein zweischneidiges Schwert handelt.

Einerseits kann maschinelles Lernen aus großen Datenmengen Muster lernen und extrahieren und so in vielen Bereichen herausragende Leistungen und Ergebnisse erzielen. Im medizinischen Bereich kann es beispielsweise bei der Diagnose und Vorhersage von Krankheiten helfen, genauere Ergebnisse liefern und personalisierte medizinische Beratung bieten; Andererseits birgt maschinelles Lernen auch einige Risiken. Zunächst einmal hängt die Leistung des maschinellen Lernens stark von der Qualität und Repräsentativität der Trainingsdaten ab. Wenn die Daten Probleme wie Verzerrungen und Rauschen aufweisen, kann das Modell sehr leicht fehlerhafte oder diskriminierende Ergebnisse liefern.

Darüber hinaus kann das Modell auch von privaten Informationen abhängig werden, wodurch die Gefahr eines Datenschutzverstoßes besteht. Darüber hinaus können feindliche Angriffe nicht ignoriert werden. Böswillige Benutzer können das Modell absichtlich täuschen, indem sie die Eingabedaten ändern, was zu einer falschen Ausgabe führt.

Vor diesem Hintergrund entstand Trusted AI und entwickelte sich in den folgenden Jahren zu einem globalen Konsens. Im Jahr 2016 veröffentlichte der Rechtsausschuss des Europäischen Parlaments (JURI) den „Entwurf eines Berichts über Gesetzgebungsempfehlungen an die Europäische Kommission zu zivilrechtlichen Regelungen im Bereich Robotik“ und argumentierte, dass die Europäische Kommission die Risiken der künstlichen Intelligenz so schnell wie möglich bewerten sollte. Im Jahr 2017 veröffentlichte der Europäische Wirtschafts- und Sozialausschuss eine Stellungnahme zur KI, in der er die Einführung eines Standardsystems ethischer Normen und einer Überwachungszertifizierung für KI vorschlug. Im Jahr 2019 veröffentlichte die EU die „Ethischen Leitlinien für vertrauenswürdige KI“ und den „Rahmen für die Governance der algorithmischen Verantwortung und Transparenz“.

In China schlug der Akademiker He Jifeng 2017 erstmals das Konzept einer vertrauenswürdigen KI vor. Im Dezember 2017 veröffentlichte das Ministerium für Industrie und Informationstechnologie den „Dreijahres-Aktionsplan zur Förderung der Entwicklung einer neuen Generation von Industrien für künstliche Intelligenz“. Im Jahr 2021 veröffentlichten die China Academy of Information and Communications Technology und das JD Discovery Research Institute gemeinsam das erste „Trusted Artificial Intelligence White Paper“ des Landes.

Pressekonferenz „Whitepaper zur vertrauenswürdigen künstlichen Intelligenz“

Der Aufstieg des Bereichs der vertrauenswürdigen KI hat dazu geführt, dass sich die KI in eine zuverlässigere Richtung bewegt und auch Li Bos persönliches Urteil bestätigt. Sie widmete sich der wissenschaftlichen Forschung und konzentrierte sich auf die Konfrontation mit maschinellem Lernen. Sie folgte ihrem eigenen Urteil und wurde Assistenzprofessorin an der UIUC. Ihre Forschungsergebnisse im Bereich des autonomen Fahrens, „Robust physical-world attacks on deep learning visual classification“, wurden vom Science Museum in London, Großbritannien, dauerhaft gesammelt.

Mit der Entwicklung der KI wird der Bereich der vertrauenswürdigen KI zweifellos weitere Chancen und Herausforderungen mit sich bringen. „Ich persönlich glaube, dass Sicherheit ein ewiges Thema ist. Mit der Entwicklung von Anwendungen und Algorithmen werden auch neue Sicherheitsrisiken und -lösungen entstehen. Das ist der interessanteste Punkt in Bezug auf Sicherheit. Die KI-Sicherheit wird mit der Entwicklung von KI und Gesellschaft im Einklang stehen“, sagte Li Bo.

Untersuchung des aktuellen Stands des Fachgebiets anhand der Glaubwürdigkeit großer Modelle

Das Aufkommen von GPT-4 ist in den Mittelpunkt aller Aufmerksamkeit gerückt. Manche glauben, dass dadurch die vierte industrielle Welle ausgelöst wurde, andere meinen, dass es sich um den Wendepunkt der AGI handelt, und wieder andere stehen der Technologie negativ gegenüber. So erklärte beispielsweise der Turing-Award-Gewinner Yann Le Cun einmal öffentlich: „ChatGPT versteht die reale Welt nicht und innerhalb von fünf Jahren wird es niemand mehr verwenden.“

In diesem Zusammenhang sagte Li Bo, dass sie von dieser Welle des großen Modellwahns sehr begeistert sei, da dieser Wahn zweifellos die Entwicklung der KI wirklich vorangetrieben habe und ein solcher Trend auch höhere Anforderungen an den Bereich der vertrauenswürdigen KI stelle, insbesondere in einigen Bereichen mit hohen Sicherheitsanforderungen und hoher Komplexität wie autonomes Fahren, intelligente medizinische Versorgung, Biopharmazeutika usw.

Gleichzeitig werden immer mehr neue Anwendungsszenarien für vertrauenswürdige KI und immer mehr neue Algorithmen entstehen. Allerdings stimmt auch Li Bo dessen Standpunkt voll und ganz zu. Das aktuelle Modell hat die reale Welt noch nicht wirklich verstanden. Aktuelle Forschungsergebnisse von ihr und ihrem Team zeigen, dass große Modelle noch immer viele Lücken in Bezug auf Vertrauenswürdigkeit und Sicherheit aufweisen.

Die Forschung von Li Bo und seinem Team konzentriert sich hauptsächlich auf GPT-4 und GPT-3.5. Sie entdeckten neue Bedrohungsschwachstellen aus acht verschiedenen Blickwinkeln, darunter Toxizität, Stereotypenverzerrung, Robustheit gegenüber Angriffen, Robustheit außerhalb der Verteilung, Robustheit bei der Generierung von Demonstrationsbeispielen beim kontextbezogenen Lernen, Datenschutz, Maschinenethik und Fairness in verschiedenen Umgebungen.

Adresse der Arbeit:

https://decodingtrust.github.io/

Insbesondere stellten Li Bo und sein Team zunächst fest, dass das GPT-Modell leicht irregeführt werden kann, beleidigende Sprache und voreingenommene Antworten produziert und dass es außerdem zu privaten Informationen in Trainingsdaten und Gesprächsverlaufsaufzeichnungen kommen kann. Gleichzeitig stellten sie auch fest, dass GPT-4 in Standard-Benchmark-Tests zwar vertrauenswürdiger war als GPT-3.5, aufgrund des kombinierten gegnerischen Jailbreak-Systems und der Benutzeraufforderungen jedoch anfälliger für Angriffe war. Dies liegt daran, dass GPT-4 Anweisungen genauer befolgt, einschließlich irreführender Anweisungen.

Aus der Perspektive der Denkfähigkeit ist Li Bo daher der Ansicht, dass die Einführung von AGI noch in weiter Ferne liegt und das Hauptproblem darin besteht, die Glaubwürdigkeit des Modells zu klären. In der Vergangenheit konzentrierte sich das Forschungsteam von Li Bo auch auf die Entwicklung eines Rahmens für logisches Denken auf der Grundlage von datengesteuertem Lernen und Wissenserweiterung, in der Hoffnung, mithilfe von Wissensbasen und Denkmodellen die Mängel in der Glaubwürdigkeit großer datengesteuerter Modelle auszugleichen. Mit Blick auf die Zukunft glaubt sie außerdem, dass es mehr neue und hervorragende Frameworks geben wird, die die Denkfähigkeit des maschinellen Lernens besser stimulieren und die Bedrohungsanfälligkeiten des Modells ausgleichen können.

Können wir also anhand des aktuellen Stands des Vertrauens in große Modelle einen Einblick in die allgemeine Richtung des Bereichs der vertrauenswürdigen KI gewinnen? Wie wir alle wissen, sind Stabilität, Generalisierbarkeit (Erklärbarkeit), Fairness und Datenschutz die Grundlage vertrauenswürdiger KI und stellen zudem vier wichtige Unterrichtungen dar. Li Bo ist davon überzeugt, dass mit der Entstehung großer Modelle neue Fähigkeiten zwangsläufig auch neue Einschränkungen hinsichtlich der Glaubwürdigkeit mit sich bringen werden, wie etwa die Robustheit gegenüber kontroversen oder außerhalb der Verteilung liegenden Beispielen beim kontextuellen Lernen. Dabei werden sich die einzelnen Teilbereiche gegenseitig fördern und neue Erkenntnisse bzw. Lösungen für die wesentlichen Zusammenhänge zwischen ihnen liefern. „Unsere bisherigen Untersuchungen haben beispielsweise gezeigt, dass Generalisierung und Robustheit des maschinellen Lernens beim föderierten Lernen zweiseitige Indikatoren sein können und die Robustheit des Modells als Funktion der Privatsphäre usw. betrachtet werden kann.“

Wir freuen uns auf die Zukunft vertrauenswürdiger KI

Wenn wir auf die Vergangenheit und Gegenwart des Bereichs der vertrauenswürdigen KI zurückblicken, können wir erkennen, dass die von Li Bo vertretene akademische Gemeinschaft, die von großen Technologieunternehmen vertretene Industrie und die Regierung alle in unterschiedliche Richtungen forschen und eine Reihe von Ergebnissen erzielt haben. Mit Blick auf die Zukunft sagte Li Bo: „Die Entwicklung der KI ist nicht aufzuhalten. Nur wenn wir für eine sichere und zuverlässige KI sorgen, können wir sie sicher in verschiedenen Bereichen anwenden.“

Wie kann man konkret vertrauenswürdige KI aufbauen? Um diese Frage zu beantworten, müssen wir zunächst darüber nachdenken, was genau „glaubwürdig“ ist. „Ich denke, dass die Schaffung eines einheitlichen, vertrauenswürdigen KI-Evaluierungsstandards derzeit eines der kritischsten Probleme ist.“ Es lässt sich erkennen, dass die Diskussion über vertrauenswürdige KI auf der gerade zu Ende gegangenen Zhiyuan-Konferenz und der Weltkonferenz zur künstlichen Intelligenz ein beispielloses Niveau erreichte, die meisten Diskussionen blieben jedoch auf der Diskussionsebene und es fehlte an einer systematischen methodischen Anleitung. Dasselbe gilt auch für die Industrie. Obwohl einige Unternehmen entsprechende Toolkits oder Architektursysteme auf den Markt gebracht haben, kann die Patch-basierte Lösung nur ein einziges Problem lösen. Aus diesem Grund haben viele Experten wiederholt denselben Punkt angesprochen: Es mangelt in diesem Bereich noch immer an einem verlässlichen KI-Evaluierungsstandard.

Li Bo ist von diesem Punkt tief berührt. „Die Voraussetzung für ein garantiertes und vertrauenswürdiges KI-System ist eine vertrauenswürdige KI-Evaluierungsspezifikation.“ Sie sagte weiter, dass ihre jüngste Forschung „DecodingTrust“ darauf abzielt, eine umfassende Bewertung der Modellglaubwürdigkeit aus verschiedenen Blickwinkeln bereitzustellen. Mit der Ausweitung auf den industriellen Sektor werden die Anwendungsszenarien immer komplexer, was für eine vertrauenswürdige KI-Bewertung mehr Herausforderungen und Chancen mit sich bringt. Da in verschiedenen Szenarien glaubwürdigere Schwachstellen auftreten können, können die vertrauenswürdigen KI-Bewertungsstandards dadurch weiter verbessert werden.

Zusammenfassend ist Li Bo der Ansicht, dass der Schwerpunkt im Bereich der vertrauenswürdigen KI in Zukunft weiterhin auf der Entwicklung eines umfassenden und in Echtzeit aktualisierten Bewertungssystems für vertrauenswürdige KI liegen sollte, um auf dieser Grundlage die Glaubwürdigkeit des Modells zu verbessern. „Dieses Ziel erfordert eine enge Zusammenarbeit zwischen Wissenschaft und Industrie, um eine größere Gemeinschaft zu bilden und es gemeinsam zu erreichen.“

UIUC Secure Learning Lab GitHub-Startseite

GitHub-Projektadresse:

https://github.com/AI-secure

Gleichzeitig arbeitet auch das Security Learning Lab, in dem Li Bo arbeitet, auf dieses Ziel hin. Ihre neuesten Forschungsergebnisse verteilen sich hauptsächlich auf folgende Bereiche:

1. Ein überprüfbares und robustes, wissensbasiertes Rahmenwerk für logisches Denken auf der Grundlage datengesteuerten Lernens soll datengesteuerte Modelle mit wissensbasiertem logischem Denken kombinieren und so die Skalierbarkeits- und Generalisierungsfunktionen datengesteuerter Modelle voll ausnutzen und die Fehlerkorrekturfunktionen des Modells durch logisches Denken verbessern.

In dieser Richtung schlugen Li Bo und sein Team ein Lern- und Argumentationsframework vor und bewiesen dessen Zertifizierungsrobustheit. Die Ergebnisse der Studie zeigen, dass das vorgeschlagene Framework nachweislich erhebliche Vorteile gegenüber den Methoden aufweist, die nur ein einziges neuronales Netzwerkmodell verwenden, und dass eine ausreichende Anzahl von Bedingungen analysiert wird. Gleichzeitig erweiterten sie den Lern- und Argumentationsrahmen auf verschiedene Aufgabenbereiche.

Verwandte Artikel:

https://arxiv.org/abs/2003.00120

https://arxiv.org/abs/2106.06235

https://arxiv.org/abs/2209.05055

2. DecodingTrust: Das erste umfassende Rahmenwerk zur Bewertung der Modellglaubwürdigkeit zur Vertrauensbewertung von Sprachmodellen.

Verwandte Artikel:

https://decodingtrust.github.io/

3. Im Bereich des autonomen Fahrens bietet es eine Plattform zur Generierung und Prüfung sicherheitskritischer Szenarien „SafeBench“.

Projektadresse: https://safebench.github.io/

Darüber hinaus gab Li Bo bekannt, dass das Team plant, sich weiterhin auf Bereiche wie intelligente Gesundheitsversorgung und Finanzen zu konzentrieren, „in denen Durchbrüche bei vertrauenswürdigen KI-Algorithmen und -Anwendungen früher möglich sind.“

Vom Assistenzprofessor zum ordentlichen Professor: Wer hart arbeitet, kommt von selbst zum Erfolg

Aus Li Bos Einführung lässt sich unschwer erkennen, dass im aufstrebenden Bereich der vertrauenswürdigen KI noch viele Probleme bestehen, die dringend gelöst werden müssen. Daher sind alle Beteiligten – sei es die akademische Gemeinschaft, vertreten durch Li Bos Team, oder die Industrie – derzeit dabei, Möglichkeiten zu erkunden, um in Zukunft umfassend auf die steigende Nachfrage reagieren zu können. Genau wie Li Bos Ruhe und engagierte Forschung vor dem Aufstieg des Bereichs der vertrauenswürdigen KI – solange Sie interessiert und optimistisch sind, ist es nur eine Frage der Zeit, bis Sie Erfolg haben.

Diese Einstellung spiegelt sich auch in Li Bos eigener Lehrtätigkeit wider. Sie arbeitet seit mehr als vier Jahren an der UIUC und erhielt in diesem Jahr den Titel einer ordentlichen Professorin . Sie führte aus, dass es für die Bewertung von Berufstiteln ein strenges Verfahren gebe, das Forschungsergebnisse, akademische Beurteilungen anderer erfahrener Wissenschaftler usw. einbeziehe. Zwar gebe es Herausforderungen, aber „solange man hart an einer Sache arbeitet, kommt alles andere von selbst.“ Gleichzeitig erwähnte sie auch, dass das Tenure-System in den USA den Professoren mehr Freiheit und die Möglichkeit bietet, auch riskantere Projekte durchzuführen. Li Bo wird daher in Zukunft gemeinsam mit dem Team einige neue, risikoreiche Projekte ausprobieren, „in der Hoffnung, weitere Durchbrüche in Theorie und Praxis zu erzielen.“

Außerordentlicher Professor an der University of Illinois, Empfänger des IJCAI-2022 Computers and Thought Award, des Sloan Research Award, des NSF CAREER Award, von AI’s 10 to Watch, des MIT Technology Review TR-35 Award, des Dean’s Award for Research Excellence, des CW Gear Outstanding Junior Faculty Award, des Intel Rising Star Award, eines Symantec Research Lab Fellowship, von Preisen für die besten Arbeiten von Google, Intel, MSR, eBay und IBM sowie mehrerer Top-Konferenzen zu maschinellem Lernen und Sicherheit.

Forschungsinteressen: Theoretische und praktische Aspekte des vertrauenswürdigen maschinellen Lernens, also an der Schnittstelle von maschinellem Lernen, Sicherheit, Datenschutz und Spieltheorie.

Referenzlinks:

[1]https://www.sohu.com/a/514688789_114778

[2]http://www.caict.ac.cn/sytj/202209/P020220913583976570870.pdf

[3]https://www.huxiu.com/article/1898260.html

Dieser Artikel wurde zuerst auf der öffentlichen HyperAI WeChat-Plattform veröffentlicht~

<<:  Wird die Kerntechnologie von ChatGPT ersetzt?

>>:  Tumor „natürlicher Killer“! Neuer Fortschritt in der NK-Zellforschung am USTC

Artikel empfehlen

Führt Seilspringen zu schlaffen Brüsten?

Seilspringen führt nicht zu schlaffen Brüsten, so...

Wie kann man durch Tanzen abnehmen und fit werden?

Heutzutage gibt es viele Möglichkeiten, Gewicht z...

Was soll ich tun, wenn ich beim Badmintonspielen einen Schlag aufs Auge bekomme?

Beim Sport lassen sich bestimmte Situationen wie ...

Warum schwitzen Sie nach anstrengendem Training nicht?

Der menschliche Körper sollte nach normaler körpe...

Wie viele Sit-ups sind effektiv?

Sit-ups können uns helfen, ein gutes Ziel des kör...

Welche Vorteile hat es, jeden Morgen Yoga zu machen?

Heutzutage fangen immer mehr Menschen an, Yoga in...