Originaltitel: „Moment der Wahrheit: Wird Wikipedia sich selbst zerstören, während es dabei hilft, die KI weiter zu verbessern? 》 © Tech Crunch Leviathan Press: Ich verwende derzeit ChatGPT Version 3.5. Wie der Wiki-Editor am Anfang dieses Artikels habe ich festgestellt, dass ChatGPT oft voller Unsinn ist ... Es werden nicht nur oft ernsthaft falsche Tatsachen erfunden, sondern wenn man auf seine Fehler hinweist, ändert es sofort seine Antwort, obwohl die zweite Antwort oft immer noch falsch ist. Für einen Redakteur ist das zweifellos eine sehr unangenehme Erfahrung – hier zeigt Wikipedia seinen Unterschied zur künstlichen Intelligenz. Zwar können manche Einträge bei wiederholter Bearbeitung naturgemäß kontrovers diskutiert werden, doch sind die Sachaussagen gemäß dem „NPVO“-Prinzip deutlich zuverlässiger als bei ChatGPT. Als ein Wikipedia-Redakteur ChatGPT 3 Anfang 2021 zum ersten Mal ausprobierte, stellte er fest, dass das Sprachmodell voller Fehler war – es erfand nach Belieben Fakten und zitierte Artikel nach dem Zufallsprinzip. Gleichzeitig erkannte er aber auch das große Potenzial dieses Tools und war fest davon überzeugt, dass es in naher Zukunft seine geliebte Wikipedia ersetzen würde. Der Herausgeber hat hierzu einen Artikel mit dem Titel „Tod der Wikipedia“ geschrieben. © Mashable Jetzt, zwei Jahre später, wurde ChatGPT auf Version 4 aktualisiert; Auch Wikipedia feierte im Januar dieses Jahres seinen 22. Geburtstag. Welche Art von Beziehung besteht also derzeit zwischen den beiden? Der Journalist und Autor Jon Gernter ist dieser Frage in seinem Artikel in der New York Times ausführlich nachgegangen: „Der Moment der Wahrheit: Wird Wikipedia sich selbst zerstören, indem es intelligenten Chatbots hilft, ihre Leistung zu verbessern?“ 》(Moment der Wahrheit: Kann Wikipedia technischen KI-Chatbots dabei helfen, ihre Fakten richtig darzustellen – ohne sich dabei selbst zu zerstören?) Wenn wir auf die Geschichte von Wikipedia zurückblicken, scheinen wir in das goldene Zeitalter des Internets zurückgekehrt zu sein: Damals konnte jeder, sofern er über eine Internetverbindung verfügte, das gesamte menschliche Wissen kostenlos erlernen und teilen. Heute gibt es auf Wikipedia mehr als 61 Millionen Artikel in 334 verschiedenen Sprachen. Sie steht seit langem auf der Liste der meistbesuchten Websites und im Gegensatz zu Google, YouTube und Facebook, die ebenfalls auf der Liste stehen, lehnt Wikipedia seit jeher jegliche Werbung ab und finanziert sich ausschließlich durch Spenden. Darüber hinaus erhalten alle Mitwirkenden keine Vergütung – und diese Gruppe garantiert 345 Bearbeitungen pro Minute. © Wikipedia Heute ist Wikipedia nicht mehr nur eine elektronische Enzyklopädie, sondern ein Wissensnetzwerk, das die gesamte digitale Welt miteinander verbindet und den Menschen eine zuverlässige Informationsquelle bietet. Das meiste Wissen, das wir bei Google/Bing/Alexa/Siri suchen und lernen, stammt aus Wikipedia, und auch YouTube nutzt Wikipedia, um Gerüchten entgegenzuwirken. Intelligente Chatbots bilden da natürlich keine Ausnahme. Wikipedia spielt in ihrem Schulungsprozess eine entscheidende, vielleicht sogar die wichtigste Rolle. Nicholas Vincent, ein Forscher an der Simon Fraser University, glaubt, dass es ohne Wikipedia keine starke künstliche Intelligenz geben kann, glaubt aber auch, dass die Popularität großer Sprachmodelle wie ChatGPT zum Untergang von Wikipedia führen könnte. Auf einer Konferenz im März dieses Jahres wurde über die Bedrohung diskutiert, die künstliche Intelligenz für Wikipedia darstellt. Die Redakteure haben gemischte Gefühle: Sie glauben, dass künstliche Intelligenz dazu beitragen kann, dass sich Wikipedia schnell weiterentwickelt, sie befürchten aber auch, dass die Leute bei der Beantwortung von Fragen zunehmend ChatGPT anstelle von Wikipedia bevorzugen werden – im Vergleich zu den etwas altmodischen und steifen Einträgen von Wikipedia sind die Antworten von ChatGPT offensichtlich verständlicher und natürlicher. Auf Grundlage der Ergebnisse der Konferenzdiskussionen herrschte Konsens darüber, dass „wir in einer Welt leben wollen, in der alles Wissen von Menschen produziert und konstruiert wird.“ Aber ist es jetzt nicht ein bisschen zu spät? Tatsächlich diskutierten die Community der Wikimedia Foundation und ihre Freiwilligen bereits im Jahr 2017 darüber, wie man die Entwicklung vorantreiben und bis 2030 eine dauerhafte Bewahrung und Weitergabe des weltweiten Wissens erreichen könnte. Damals bemerkten sie, wie sich durch die Entstehung künstlicher Intelligenz die Art und Weise veränderte, wie Wissen gesammelt, kombiniert und integriert wird. Herausforderungen, denen Wikipedia bei seiner Entwicklung begegnet ist Zusätzlich zu Wikipedia absorbieren die heutigen großen Sprachmodelle auch umfassende Informationen aus der Google-Patentdatenbank, Regierungsdokumenten, Fragen und Antworten auf Reddit, Online-Bibliotheken und riesigen Mengen an Online-Nachrichten. Jesse Dodge, Informatiker am Allen Institute for AI in Seattle, ist jedoch der Ansicht , dass der Beitrag von Wikipedia beispiellos ist, nicht nur, weil er 3 bis 5 Prozent der gesamten Datenmenge ausmacht, die zum Trainieren großer Sprachmodelle verwendet wird, sondern auch, weil es sich um eine der größten und am sorgfältigsten geprüften Datenbanken handelt. © Erik Carter Heute führen Wikipedia-Redakteure eine hitzige Diskussion über die Beziehung zwischen KI und Wikipedia, die in gewisser Weise ihrer Diskussion über die Beziehung zwischen Google und Wikipedia vor 10 Jahren ähnelt. Die damalige Schlussfolgerung lautete, dass Google und Wikipedia für beide Seiten von Vorteil sind und harmonisch koexistieren: Wikipedia macht Google zu einer besseren Suchmaschine und Wikipedia erhält außerdem viel Verkehr von Google. Natürlich hat die Aufrechterhaltung einer engen Beziehung zu Google und anderen Suchmaschinen auch einige existenzielle Krisen für Wikipedia mit sich gebracht: Was wäre, wenn Sie Google fragen würden, was der Russland-Ukraine-Krieg ist? Es zitiert und fasst den Inhalt von Wikipedia-Artikeln kurz zusammen, und Leser ziehen die Antworten von Google häufig der Lektüre des Wikipedia-Artikels mit mehr als 10.000 Wörtern und 400 Fußnoten vor. Darüber hinaus führt dies dazu, dass der Durchschnittsbürger sein Verständnis unserer Welt zu stark vereinfacht. Zudem wird dies die Fähigkeit von Wikipedia beeinträchtigen, eine jüngere Generation von Inhaltsbeitragenden zu rekrutieren. Eine Studie aus dem Jahr 2017[1] zeigte, dass die Besuche bei Wikipedia tatsächlich zurückgingen. Darüber hinaus hat das Aufkommen intelligenter Chatbots diesen Prozess beschleunigt. Aaron Halfaker, Leiter der Forschungsgruppe für maschinelles Lernen der Wikimedia Foundation, sagte, dass Suchmaschinen zwar kurze Antworten lieferten, aber zumindest Quellenlinks posteten, um den Nutzern zu helfen, zur Wikipedia-Seite zurückzukehren. Während große Sprachmodelle Informationen lediglich in eine fließende Sprache integrieren, ohne Zitate oder Beweise, und die Menschen keine Möglichkeit haben, die Quelle der Antwort zu erfahren. Dies macht die KI zu einem härteren Gegner für Wikipedia – sie ist potenziell schädlicher und schwieriger zu konkurrieren. Wikipedias eigene Mängel und Lösungen Natürlich ist Wikipedia alles andere als perfekt: So sind beispielsweise 80 % der 40.000 aktiven englischsprachigen Redakteure Männer und 75 % weiße Amerikaner, was zu einer gewissen Voreingenommenheit der Wikipedia-Inhalte hinsichtlich Geschlecht und Rasse führt. Zweitens ist die Glaubwürdigkeit von Wikipedia-Artikeln nicht stabil: Amy Bruckman, Professorin am Georgia Institute of Technology, glaubt, dass bei Wikipedia die Qualität eines langen Artikels, der von Tausenden von Menschen bearbeitet wurde, ziemlich garantiert ist, während einige kurze Artikel wahrscheinlich falsch oder sogar völliger Müll sind. © Wikipedia Dies erfordert von den Redakteuren einen langwierigen Kampf gegen Irrtümer: Erfahrene Redakteure bearbeiten Artikel so, dass sie Inhalte enthalten, denen jede faktische Grundlage fehlt oder die nicht überprüft werden können. Darüber hinaus verlangt der Redaktionskodex von den Inhaltsredakteuren, dass sie einen „NPVO“ (Neutral Point of View) wahren. Probleme und Lösungen mit KI-Tools Im Gegensatz dazu ist der Weg zur Wahrheit für intelligente Chatbots noch schwieriger und gefährlicher [2]: ChatGPT erfindet nach Belieben Fakten und zitiert willkürlich nicht vorhandene Literatur (der Begriff heißt „Halluzination“ – Falschinformation). es würde einen komplexen Sachverhalt, wie etwa die Analyse des Krieges zwischen Russland und der Ukraine, übermäßig vereinfachen; es werden auch zufällige medizinische Ratschläge gegeben ... Im April dieses Jahres testeten Wissenschaftler der Stanford University vier Suchmaschinen mit integrierten KI-Tools: Bing Chat, NeevaAI, Perplexity AI und YouAI. Dabei stellten sie fest, dass nur etwa die Hälfte der von ihnen generierten Antworten einer faktenbasierten Überprüfung standhielt[3]. © MobileSyrup Warum ist das so? Der Grund ist einfach: Das Ziel eines Chatbots besteht nicht darin, nach absoluter Wahrheit oder Genauigkeit zu suchen, sondern zu versuchen, auf der Grundlage des gegebenen Kontexts und der Wahrscheinlichkeit vernünftige Antworten zu produzieren[4]. Diese Auswahl kann auf statistischen Daten und Sprachmodellen basieren und ist daher möglicherweise nicht 100 % genau. Sollte die Genauigkeit der Antworten nicht das Hauptziel von Unternehmen sein, die intelligente Chatbots entwickeln und trainieren? Für die Öffentlichkeit ist dies eine fast unbestreitbare Frage. Doch der Informatikerin und ehemaligen Google-Forscherin Margaret Mitchell zufolge sind die Unternehmen in der gegenwärtigen Phase des harten kommerziellen Wettbewerbs stärker daran interessiert, ihre KI-Produkte so schnell wie möglich der Öffentlichkeit vorzustellen, als authentisch und zuverlässig zu sein. (Mitchell wurde übrigens entlassen, weil er Googles Kurs in diesem Bereich kritisierte.) Dennoch ist Mitchell überzeugt, dass die Aussichten rosig sind, und sie hat erhebliche Verbesserungen bei der Genauigkeit beobachtet, wenn Modelle mit qualitativ hochwertigen Informationen trainiert werden. Die aktuelle Datentrainingsmethode für KI-Produkte ist jedoch „Laissez-faire“, d. h., dem Modell werden so viele Informationen wie möglich zugeführt, unabhängig davon, ob diese gut oder schlecht sind. Dabei wird davon ausgegangen, dass die Qualität der Ausgabeinformationen umso höher ist, je mehr Informationen eingegeben werden. und nicht umgekehrt – geben Sie alle hochwertigen Informationen ein, um hochwertige Informationen zu erhalten. Darüber hinaus trägt der Wettbewerb auf dem Markt auch dazu bei, dass intelligente Chatbots sich verbessern. OpenAI unterhält beispielsweise Partnerschaften mit vielen kommerziellen Unternehmen, die großen Wert auf die Genauigkeit der Antworten legen. Darüber hinaus arbeitet das von Google entwickelte künstliche Intelligenzsystem eng mit Experten im medizinischen Bereich zusammen, um die Diagnose und Behandlung von Krankheiten zu erforschen. © Die Cymes Im Vergleich zu früheren Versionen hat ChatGPT 4 erhebliche Fortschritte bei der Bereitstellung von Antworten mit „sachlichem Inhalt“ gemacht, es ist jedoch noch ein weiter Weg, bis es komplexe, vielschichtige historische Fragen präzise beantworten kann. Bei solchen intelligenten Chatbots besteht immer eine Spannung zwischen Genauigkeit, Kreativität und Flüssigkeit. Das Ziel der Entwicklung besteht nicht nur darin, ihnen das „Wiedergeben“ und Aufnehmen von Wissen zu ermöglichen, sondern auch darin, die Wissensmuster zu durchschauen und den Benutzern diese in leicht verständlicher Sprache mitzuteilen. Der aktuelle Stand der Zusammenarbeit zwischen den beiden Ende Juni probierte der Reporter das von der Wikimedia Foundation für ChatGPT entwickelte Plug-in aus. ChatGPT4 verfügt derzeit über alle Kenntnisse bis zum Ende seiner Schulung: September 2021; und über dieses Plug-in erhält er Zugriff auf alle aktuellen Informationen: So können die Nutzer gleichzeitig vom Komfort beider Tools profitieren: Das Wissen aus Wikipedia ist präzise und aktuell, und der intelligente Chatbot kann es in flüssiger und natürlicher Sprache ausgeben. Gleichzeitig listet ChatGPT auch die Informationsquelle auf – die Wikipedia-Seite. Wikipedia integriert außerdem einige KI-Modelle, um neuen Benutzern besser zu helfen oder sie bei der Bearbeitung zu unterstützen. Doch derzeit sträubt sich die Wikipedia-Community noch recht stark gegen Artikel, die vollständig von künstlicher Intelligenz bearbeitet werden. und die Redakteure sind auch sehr besorgt, dass die Bemühungen menschlicher Redakteure bei der Überprüfung der Inhalte vergeblich sein und letztlich scheitern werden, wenn sie einem mächtigen und schlaflosen Gegner gegenüberstehen, der über eine künstliche Intelligenz verfügt, die in der Lage ist, in kürzester Zeit riesige Mengen an Inhalten zu generieren. Ausgehend von der aktuellen Situation ist jeder Schritt, der der künstlichen Intelligenz entgegensteht, irrational. Ein sehr wahrscheinliches Szenario ist, dass Organisationen wie Wikipedia sich an die durch künstliche Intelligenz geschaffene Zukunft anpassen müssen, um zu überleben, anstatt zu versuchen, sie zu beeinflussen oder gar zu stoppen. © Analytics Insight Natürlich glauben auch viele der befragten Wissenschaftler und Wikipedia-Redakteure, dass der Weg zur KI-Dominanz kein einfacher sein wird und mit vielen Hindernissen verbunden sein wird: Der erste ist sozialer Natur: Das Europäische Parlament arbeitet derzeit an einer Reihe von Gesetzen und Verordnungen zur Regulierung der Nutzung von Produkten künstlicher Intelligenz: So sollen beispielsweise Technologieunternehmen dazu verpflichtet werden, durch künstliche Intelligenz generierte Inhalte kenntlich zu machen; die zum Training künstlicher Intelligenz verwendeten Daten offenzulegen; und die Quelle der Informationen anzugeben und keine anderen Websites oder Datenbankressourcen ohne Genehmigung zu verwenden. Der zweite ist technischer Natur. Tatsächlich wurde in dem Artikel gleich zu Beginn betont, dass große Sprachmodelle ohne die riesigen Datenmengen, die von Wikipedia und der Reddit-Community bereitgestellt werden, überhaupt nicht trainiert werden können. Unternehmen, die im Bereich der künstlichen Intelligenz forschen und entwickeln, sind sich der Bedeutung dieser Datenbanken durchaus bewusst, was Websites wie Wikipedia einige Verhandlungsmasse verschafft. Darüber hinaus veröffentlichte Ende Mai dieses Jahres eine Gruppe von KI-Forschern gemeinsam ein Papier[5], in dem untersucht wurde, ob sich neue KI-Systeme allein auf Grundlage des durch KI-Modelle generierten Wissens entwickeln können, ohne dass für das Training von Menschen erstellte Datenbanken verwendet werden müssen. Die Forscher stellten fest, dass dies zu einem Systemzusammenbruch führen kann, der als „Modellkollaps“ bezeichnet wird: Mithilfe von KI synthetisierte Daten können zu Verwirrung führen, da sie ungenau oder unrealistisch sein können, was sich wiederum negativ auf die Trainingsdatensätze der nächsten Modellgeneration auswirken und deren Verständnis der realen Welt verzerren kann. Das Wikipedia-Plugin kann dies verhindern. Wenn die Wikipedia in Zukunft jedoch mit Artikeln gefüllt wird, die durch künstliche Intelligenz generiert werden, tritt das gleiche Problem auf: Die neue Generation von Sprachmodellen verfällt in einen Zustand widersprüchlicher Zirkelschlüsse. Letztendlich zeigt diese Forschung, dass durch Interaktionen zwischen realen Personen generierte Daten für die zukünftige Entwicklung großer Sprachmodelle von unschätzbarem Wert sind, was für Wikipedia-Redakteure aufregende Neuigkeiten sind. Zumindest für eine Weile wird künstliche Intelligenz noch uns Menschen brauchen, um vertrauenswürdig und nützlich zu sein. Allerdings handelt es sich dabei um ein theoretisches Konzept namens „Alignment“, das davon ausgeht, dass künstliche Intelligenz im besten Interesse der Menschheit ist. Dafür zu sorgen, dass KI und Mensch auf derselben Seite stehen, ist sowohl eine große Herausforderung als auch die Hauptaufgabe bei der Entwicklung von KI. Der Vorteil echter Menschen besteht darin, dass sie aufgrund ihrer Natur gewisse Voraussetzungen für die Bildung von Allianzen mitbringen: So deckt sich beispielsweise die Motivation mancher Menschen, hochwertige Bildungsressourcen zu teilen, zufällig mit den Bedürfnissen anderer. Schließlich interviewte der Autor Jade, eine englischsprachige Wikipedia-Redakteurin, die erwähnte, dass Wissensaustausch ihr Lebensmotto sei: Sie verbringe 10 bis 20 Stunden pro Woche mit der Bearbeitung von Wikipedia. Derzeit arbeitet sie an der Bearbeitung eines Eintrags über den amerikanischen Bürgerkrieg, der jährlich über 4,84 Millionen Mal gelesen wird. Ihr Ziel ist es, den Artikel so lange zu verbessern, bis er die Wikipedia-Zertifizierung „Hervorgehoben“ erhält – eine äußerst seltene Zertifizierung. Nur 0,1 % des Inhalts der englischen Wikipedia-Version haben Anspruch auf diese Anerkennung. Zum Schluss fragte der Reporter Jade, ob sie glaube, dass künstliche Intelligenz ihren Job vollständig ersetzen würde. Jade antwortete, sie sei Optimistin und glaube, dass Roboter die Menschen bei der Bearbeitung von Wikipedia zumindest in diesem Jahrhundert nicht vollständig ersetzen würden. Der Reporter selbst ist sich jedoch nicht so sicher. Schließlich ist ihm aufgrund seiner eigenen Chaterfahrung mit ChatGPT aufgefallen, dass die künstliche Intelligenz zwar hinsichtlich Genauigkeit und Detailgenauigkeit des Informationsaustauschs nicht perfekt genug ist, die Erfahrung mit der Mensch-Computer-Interaktion jedoch ausreicht, um ihn zu reizen. Alles ist so einfach. (Der Originaltext wurde bearbeitet) Quellen: [1]ojs.aaai.org/index.php/ICWSM/article/view/14883/14733 [2]www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html [3]arxiv.org/pdf/2304.09848.pdf [4]www.nytimes.com/2022/04/15/magazine/ai-language.html [5]arxiv.org/pdf/2305.17493.pdf Von Jon Gertner Zusammengestellt von Pumpkin King Korrekturlesen/tim Originalartikel/www.nytimes.com/2023/07/18/magazine/wikipedia-ai-chatgpt.html Dieser Artikel basiert auf der Creative Commons License (BY-NC) und wurde von Jon Gertner auf Leviathan veröffentlicht. Der Artikel spiegelt nur die Ansichten des Autors wider und stellt nicht unbedingt die Position von Leviathan dar |
Wichtige Ereignisse auf der Erde hängen oft mit i...
Was ist Lärm? Was auch immer Sie denken, es ist s...
Heute mögen wir alle Extremsportarten sehr. Am An...
Dies ist der 4712. Artikel von Da Yi Xiao Hu Bei ...
Das Arbeits- und Lebenstempo in der heutigen Gese...
Die Gesundheitswissenschaft fordert jeden Mensche...
In Seoul, Südkorea, spielten Lee Sedol und seine ...
Heute sprechen wir über Eier, die fast jeder im A...
Vom 24. bis zum 27. wird eine Welle rekordverdäch...
Schlaf ist ein wichtiger und unverzichtbarer Teil...
Ich glaube, dass jeder mit Tai Chi vertraut ist u...
Wenn es um Botulinumtoxin geht, bringen es viele ...
Übelkeit und Würgen sind relativ häufige Symptome...
Menschen haben viele schlechte Angewohnheiten im ...