Ausführlich|Was will OpenAI wirklich?

Ausführlich|Was will OpenAI wirklich?

[Anmerkung des Herausgebers] Ende letzten Jahres brachte OpenAI „überstürzt“ sein phänomenales Produkt ChatGPT auf den Markt, das unerwartet eine beispiellose technologische Explosion auslöste, seit das Internet in das Leben der Menschen Einzug gehalten hat. Plötzlich schien der Turing-Test Geschichte zu sein, Suchmaschinen standen kurz vor dem Aussterben, einige wissenschaftliche Arbeiten wurden unzuverlässig, kein Arbeitsplatz war mehr sicher und kein wissenschaftliches Problem mehr in Stein gemeißelt.

OpenAI, Sam Altman und ChatGPT wurden sofort zu einem der heißesten Suchbegriffe dieser Ära und fast jeder war verrückt danach. Kennen Sie die Wachstumsgeschichte von Sam Altman und OpenAI?

Kürzlich veröffentlichte der bekannte Technologiejournalist Steven Levy einen langen Artikel im amerikanischen Digitalmedium WIRED, in dem er Sam Altman in den Mittelpunkt stellt und eine ausführliche Diskussion über die Wachstumsgeschichte und Unternehmensvision von OpenAI führt.

Der Kerninhalt lautet wie folgt:

Als CEO von OpenAI ist Sam Altman ein Visionär und Machertyp und so etwas wie eine jüngere Version von Elon Musk. Er ist die erste Person, die die Leute fragen, ob KI ihr goldenes Zeitalter einläuten oder den Menschen überflüssig machen oder Schlimmeres bewirken wird.

Die Mission von Sam Altman und OpenAI besteht darin, sichere AGI zu entwickeln und die Mitarbeiter von OpenAI verfolgen dieses Ziel mit großem Einsatz. Die Verantwortlichen von OpenAI geloben, Computer zu bauen, die intelligent und sicher genug sind, um eine Ära unvorstellbaren Überflusses einzuläuten.

Sam Altman und sein Team stehen nun unter dem Druck, in jedem Produktzyklus eine Revolution zu liefern, um sowohl die kommerziellen Bedürfnisse der Investoren zu erfüllen als auch der harten Konkurrenz immer einen Schritt voraus zu sein. Gleichzeitig kommt ihnen auch die Aufgabe zu, „Quasi-Retter“ zu sein, die die Menschheit erheben und nicht zerstören sollen.

Die anfängliche Finanzierung von OpenAI kam von Elon Musk, doch Altman und andere Mitglieder des Thinktanks von OpenAI stellten später klar, dass sie kein Interesse daran hätten, Teil von Elon Musks Universum zu werden. Musk brach den Kontakt ab. Später erhielt OpenAI Unterstützung von Microsoft und entwickelte sich allmählich zu einer gewinnorientierten Organisation, was einige Mitarbeiter verärgerte und zum Abgang mehrerer Führungskräfte führte. Sie sagten, OpenAI sei zu kommerziell geworden und einer Zielabweichung zum Opfer gefallen.

Sam Altman ist grundsätzlich mit der Idee einer internationalen Organisation zur Überwachung der KI einverstanden, ist jedoch der Ansicht, dass einige der vorgeschlagenen Regeln unfaire Hürden darstellen. Doch er und andere führende Köpfe von OpenAI unterzeichneten eine Erklärung, in der es hieß: „Die Eindämmung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein.“

Abbildung | Von links nach rechts: OpenAI-Chefwissenschaftler Ilya Sutskever, OpenAI-CEO Sam Altman, OpenAI-CTO Mira Murati und OpenAI-Präsident Greg Brockman (Quelle: WIRED)

Academic Headlines hat eine einfache Übersetzung vorgenommen, ohne die Hauptidee des Originaltextes zu verändern. Der Inhalt ist wie folgt:

Als der Star und sein Gefolge in einen wartenden Mercedes-Van stolperten, lag eine Energie in der Luft, die an Beatlemania grenzte. Sie kamen gerade von einer Veranstaltung und eilten zu einer anderen und dann noch einer, wo eine Menge frenetischer Menschen auf sie wartete. Von Holborn bis Bloomsbury reisten sie durch die Straßen Londons, als würden sie das vergangene und gegenwärtige Leben der Zivilisation erleben. Die geschichtsträchtige Leistung dieses Autos erregte weltweite Aufmerksamkeit. Von den wartenden Studenten bis zum Premierminister will jeder etwas davon haben.

Im Luxusvan saßen Sam Altman, ein 38-jähriger Unternehmer und Mitbegründer von OpenAI, und verzehrten gerade einen Salat. Außerdem waren ein PR-Mitarbeiter, ein Sicherheitsexperte und ich anwesend. Altman, der einen blauen Anzug und ein kragenloses rosa Hemd trug, fuhr mit leicht deprimiertem Gesichtsausdruck durch London. Er war Teil einer einmonatigen Weltreise, die ihn durch 25 Städte auf sechs Kontinenten führte. Da er heute keine Zeit hatte, sich zum Mittagessen hinzusetzen, schlang er sein Gemüse hinunter, während er an sein Treffen mit dem französischen Präsidenten Emmanuel Macron am Vorabend dachte. Macron interessiert sich sehr für KI.

Dasselbe gilt für den polnischen Ministerpräsidenten. Dasselbe gilt für den spanischen Premierminister.

Während ich mit Altman im Auto fahre, kann ich fast die klirrenden, lallenden Akkorde hören, mit denen „A Hard Day’s Night“ beginnt – die Einführung in die Zukunft. Als OpenAI im vergangenen November sein Monsterprodukt ChatGPT auf den Markt brachte, löste dies eine technologische Explosion aus, wie sie noch nie dagewesen ist, seit das Internet in unser Leben Einzug gehalten hat. Plötzlich war der Turing-Test Geschichte, Suchmaschinen waren gefährdet und keiner Universitätsarbeit mehr vertrauenswürdig. Kein Job ist sicher. Kein wissenschaftliches Problem ist in Stein gemeißelt.

Altman war nicht an der Forschung, dem Training des neuronalen Netzwerks oder der Schnittstellencodierung von ChatGPT oder seinem GPT-4 beteiligt. Doch als CEO – ein Träumer/Macher, der wie eine jüngere Version des Mitbegründers Elon Musk wirkt, nur ohne die Altlasten – wurde sein Foto in einer Nachrichtenmeldung nach der anderen als visuelles Symbol für die neue Herausforderung der Menschheit verwendet. Zumindest ist das bei Artikeln der Fall, deren Schlagzeilen nicht von atemberaubenden Bildern handeln, die von OpenAIs Vision-KI-Produkt Dall-E generiert wurden. Er ist der Prophet der Stunde, die erste Person, die die Menschen zu Rate ziehen, wenn sie wissen möchten, ob KI ein goldenes Zeitalter einläuten, den Menschen überflüssig machen oder Schlimmeres bedeuten wird.

An einem sonnigen Tag im Mai brachte Altman seinen Van zu vier Veranstaltungen. Das erste war ein privater „Runder Tisch“ mit Vertretern aus Regierung, Wissenschaft und Industrie. Das Treffen wurde in letzter Minute organisiert und fand im zweiten Stock eines Cafés in Somerstown statt. Unter dem eindringlichen Porträt des Winzers Charles Wells stellte Altman fast jedem im Publikum dieselbe Frage. Wird KI uns töten? Kann man das regulieren? Er beantwortete jede Frage ausführlich und warf dabei von Zeit zu Zeit einen Blick auf sein Telefon. Anschließend gab er im luxuriösen Londoner Hotel ein Kamingespräch vor 600 Mitgliedern der Oxford Guild. Anschließend zog er sich in einen Konferenzraum im Keller zurück, um weitere technische Fragen einer Menge von etwa 100 Unternehmern und Ingenieuren zu beantworten. Jetzt wäre er fast zu spät zu seiner Nachmittagsvorlesung auf der Bühne des University College London gekommen. Er und sein Team hielten an einer Laderampe und wurden in eine Reihe gewundener Korridore geführt. Während sie gingen, teilte der Moderator Altman hastig mit, welche Fragen er stellen würde. Als Altman plötzlich auf der Bühne erschien, gerieten die Akademiker, Computerfreaks und Journalisten im Publikum in helle Aufregung.

Altman ist kein geborener Publicity-Enthusiast. Ich habe einmal mit ihm gesprochen, unmittelbar nachdem der New Yorker eine lange Geschichte über ihn veröffentlicht hatte. „Es wurde so viel über mich geschrieben“, sagte er. Doch am University College begab er sich nach der offiziellen Veranstaltung in die Menge, die zur Bühne drängte. Sein Assistent versuchte, zwischen Altman und die Menge zu kommen, aber er schüttelte ihn ab. Er beantwortete eine Frage nach der anderen und blickte dabei jedes Mal aufmerksam in das Gesicht seines Gesprächspartners, als würde er die Frage zum ersten Mal hören. Jeder möchte Fotos machen. Zwanzig Minuten später ließ er sich schließlich von seinem Team herausziehen. Anschließend traf er den britischen Premierminister Rishi Sunak.

Vielleicht werden Roboter eines Tages, wenn sie unsere Geschichte schreiben, Altmans Welttournee als Meilenstein bezeichnen, als das Jahr, in dem jeder gleichzeitig mit seinen eigenen persönlichen Überlegungen begann. Oder wer auch immer die Geschichte dieses Augenblicks schreibt, wird ihn vielleicht als einen im Stillen überzeugenden CEO betrachten, der mit einer Paradigmen sprengenden Technologie versuchte, eine sehr eigentümliche Weltanschauung in die globale intellektuelle Landschaft einzubringen – von einem unmarkierten vierstöckigen Hauptsitz im Mission District von San Francisco in die ganze Welt.

Für Altman und sein Team sind ChatGPT und GPT-4 lediglich erste Schritte auf dem Weg zu einer einfachen, aber bedeutsamen Mission, die diese Technologen möglicherweise bereits auf ihre eigene Haut gebrannt haben. Die Mission besteht darin, eine künstliche allgemeine Intelligenz (AGI) zu entwickeln, ein Konzept, das bislang eher auf Science-Fiction als auf wissenschaftlichen Erkenntnissen beruhte, und es für den Menschen sicher zu machen. Die Mitarbeiter von OpenAI verfolgen dieses Ziel mit Fanatismus. (Obwohl jedes Gespräch im Bürocafé bestätigt, dass die „Entwicklung einer AGI“ die Forscher offenbar mehr begeistert als die „Gewährleistung der Sicherheit“). Diese Leute scheuen sich nicht, den Begriff „Superintelligenz“ beiläufig zu verwenden. Sie glauben, dass die KI auf einem Weg ist, der alles übertreffen wird, was die Biologie je erreicht hat. Die Finanzunterlagen des Unternehmens sehen sogar einen Notfallplan für den Fall vor, dass KI unser gesamtes Wirtschaftssystem zerstört.

Es ist unfair, OpenAI als Kult zu bezeichnen, aber als ich mehrere Topmanager des Unternehmens fragte, ob sie dort arbeiten könnten, ohne an die Realität von AGI zu glauben und daran, dass ihre Einführung einen der größten Momente in der Menschheitsgeschichte markieren würde, waren die meisten anderer Meinung. Sie können nicht anders, als zu fragen: Warum sollten Menschen, die nicht gläubig sind, hier arbeiten? Sie gehen davon aus, dass die hier beschäftigten Personen, mittlerweile rund 500 Personen, sich selbst als ausschließlich gläubige Menschen bezeichnet haben. Zumindest scheint es, wie Altman es ausdrückt, unvermeidlich, dass man diesem Fluch ausgesetzt ist, sobald man eingestellt ist.

Gleichzeitig ist OpenAI nicht mehr das, was es einmal war. Das Unternehmen wurde als rein gemeinnützige Forschungsorganisation gegründet, doch heute arbeiten die meisten seiner Mitarbeiter technisch gesehen für ein gewinnorientiertes Unternehmen, dessen Wert auf fast 30 Milliarden Dollar geschätzt wird. Altman und sein Team stehen nun unter dem Druck, in jedem Produktzyklus Innovationen zu liefern, die kommerziellen Bedürfnisse der Investoren zu erfüllen und gleichzeitig der starken Konkurrenz immer einen Schritt voraus zu sein. Gleichzeitig besteht ihre quasi-messianische Mission darin, die Menschheit zu erheben, statt sie zu zerstören.

Diese Art von Druck kann verheerend sein. Die Beatles lösten eine gewaltige Welle der Veränderung aus, die jedoch nur von kurzer Dauer war: Sechs Jahre, nachdem sie diesen unvergesslichen Akkord angeschlagen hatten, waren sie nicht einmal mehr eine Band. Der von OpenAI ausgelöste Wirbelsturm wird mit ziemlicher Sicherheit noch viel größer sein. Doch die Verantwortlichen von OpenAI gelobten, dass sie durchhalten würden. Sie sagen, sie müssten lediglich Computer bauen, die intelligent und sicher genug seien, um die Geschichte zu beenden und eine Ära unvorstellbaren Überflusses einzuläuten.

Altman wuchs in den späten 1980er- und frühen 1990er-Jahren als Nerd auf, der von Science-Fiction und Star Wars besessen war. In den Welten, die von frühen Science-Fiction-Autoren geschaffen wurden, leben Menschen oft mit superintelligenten KI-Systemen zusammen oder konkurrieren mit ihnen. Die Vorstellung, dass Computer die menschlichen Fähigkeiten erreichen oder übertreffen könnten, begeisterte Altman, dessen Finger kaum die Tastatur erreichen konnten, aber er programmierte weiter. Als er 8 Jahre alt war, kauften ihm seine Eltern einen Macintosh LC II. Eines Nachts spielte er bis spät in die Nacht, als ihm plötzlich eine Idee kam: „Eines Tages wird dieser Computer lernen zu denken.“ Als er 2003 als Student nach Stanford kam, hoffte er, dazu beitragen zu können, und belegte einen KI-Kurs. Aber „es hat einfach nicht funktioniert“, sagte er später. Zu dieser Zeit befand sich der KI-Bereich noch mitten in einer Innovationsflaute, dem sogenannten „KI-Winter“. Altman brach das College ab und betrat die Startup-Welt; Sein Unternehmen Loopt war eines der ersten kleinen Unternehmen im Y Combinator, dem berühmtesten Inkubator der Welt.

Im Februar 2014 wählte YC-Gründer Paul Graham den damals 28-jährigen Altman zu seinem Nachfolger. „Er ist einer der klügsten Menschen, die ich kenne, und versteht Startups wahrscheinlich besser als jeder andere, den ich kenne, mich eingeschlossen“, schrieb Graham in der Ankündigung. Doch für Altman ist YC mehr als nur eine Startrampe für Unternehmen. „Bei uns geht es nicht um Startups“, sagte er mir kurz nachdem er das Ruder übernommen hatte. „Bei uns dreht sich alles um Innovation, weil wir glauben, dass nur Innovation eine bessere Zukunft für alle schaffen kann.“ Aus Altmans Sicht besteht der Sinn der Gewinne aus all diesen Einhörnern nicht darin, die Geldbeutel der Partner zu füllen, sondern darin, Veränderungen auf der Ebene der Arten zu finanzieren. Er gründete eine Forschungsabteilung in der Hoffnung, ehrgeizige Projekte zur Lösung der größten Probleme der Welt zu finanzieren. Doch seiner Ansicht nach ist KI das Innovationsfeld, das alles umkrempeln wird: eine Superintelligenz, die menschliche Probleme besser lösen kann als der Mensch.

Als Altman seinen neuen Job antrat, verwandelte sich der Winter für AI glücklicherweise in einen fruchtbaren Frühling. Heutzutage vollbringen Computer mithilfe von Deep Learning und neuronalen Netzwerken erstaunliche Leistungen, beispielsweise beim Beschriften von Fotos, Übersetzen von Texten oder Optimieren komplexer Werbenetzwerke. Diese Fortschritte haben ihn zu der Überzeugung gebracht, dass AGI zum ersten Mal wirklich in Reichweite ist. Allerdings bereitet ihm die Vorstellung, die Verantwortung einem großen Unternehmen zu überlassen, Sorgen. Er ist der Ansicht, dass sich diese Unternehmen zu sehr auf ihre eigenen Produkte konzentrieren und die Gelegenheit versäumen, AGI so schnell wie möglich zu entwickeln. Und wenn sie tatsächlich eine künstliche Intelligenz (AGI) entwickeln, könnten sie leichtsinnig handeln und sie der Öffentlichkeit zugänglich machen, ohne die notwendigen Vorsichtsmaßnahmen zu treffen.

Zu dieser Zeit hatte Altman erwogen, für das Amt des Gouverneurs von Kalifornien zu kandidieren. Doch ihm wurde klar, dass er für etwas Größeres bestens gerüstet war: die Leitung eines Unternehmens, das die Menschheit verändern würde. „AGI wird nur einmal gebaut“, sagte er mir 2021. „Und es gibt nicht viele Leute, die OpenAI gut betreiben können. Ich habe das Glück, dass mich eine Reihe von Erfahrungen in meinem Leben gut darauf vorbereitet haben.“

Altman begann, mit Leuten zu sprechen, die ihm bei der Gründung einer neuen Art von KI-Unternehmen helfen könnten, einer gemeinnützigen Organisation, die den Weg in Richtung verantwortungsvoller KI ebnen würde. Einer dieser Gleichgesinnten ist Elon Musk, CEO von Tesla und SpaceX. Musk sagte später gegenüber CNBC, dass er sich nach einigen Marathondiskussionen mit dem Google-Mitbegründer Larry Page Sorgen über die Auswirkungen der KI gemacht habe. Musk sagte, er sei frustriert darüber, dass Page Sicherheitsfragen wenig Beachtung schenkte und die Rechte von Robotern offenbar als gleichwertig mit denen von Menschen ansehe. Als Musk seine Bedenken äußerte, beschuldigte Page ihn, ein „Speziesist“ zu sein. Musk war sich auch darüber im Klaren, dass Google damals die meisten KI-Talente der Welt beschäftigte. Er ist bereit, etwas Geld auszugeben und mehr für Team Human zu tun.

Innerhalb weniger Monate hatte Altman Gelder von Musk (der 100 Millionen Dollar und seine Zeit zusagte) und Reid Hoffman (der 10 Millionen Dollar spendete) eingesammelt. Zu den weiteren Geldgebern zählen Peter Thiel, Jessica Livingston, Amazon Web Services und YC Research. Altman begann heimlich, Teammitglieder zu rekrutieren. Er beschränkte seine Suche auf AGI-Gläubige, eine Einschränkung, die seine Möglichkeiten einschränkte, die er jedoch für entscheidend hielt. „Als wir 2015 einen KI-Forscher suchten, galt es fast als Karrierekiller, wenn man sagte, man meinte es mit AGI ernst“, sagte er. „Aber ich wollte Leute, die es ernst meinen.“

Abbildung|Greg Brockman (Quelle: WIRED)

Einer von ihnen ist Greg Brockman, der CTO von Stripe, der sich bereit erklärt hat, als CTO von OpenAI zu fungieren. Ein weiterer wichtiger Mitbegründer ist Andrej Karpathy, der zuvor bei Google Brain gearbeitet hat, der hochmodernen KI-Forschungsorganisation des Suchmaschinengiganten. Doch Altmans begehrtestes Ziel ist vielleicht ein Ingenieur namens Ilya Sutskever.

Sutskever ist ein Schützling von Geoffrey Hinton, der aufgrund seiner Arbeit im Bereich Deep Learning und neuronaler Netzwerke als Pate der modernen KI gilt. Hinton pflegt noch immer eine enge Beziehung zu Sutskever und ist von der Intelligenz seines Schülers beeindruckt. Zu Beginn seiner Tätigkeit im Labor übergab Hinton Sutskever ein komplexes Projekt. Sutskever hatte es satt, Code für die erforderlichen Berechnungen zu schreiben, und sagte Hinton, es wäre einfacher, wenn er für diese Aufgabe eine eigene Programmiersprache schreiben würde. Hinton, ein wenig verärgert, versuchte seinen Schüler davor zu warnen, etwas zu tun, von dem er glaubte, dass es ihn einen Monat lang ablenken würde. Dann gestand Sutskever: „Ich habe es heute Morgen getan.“

Bild: Ilya Sutskever (Quelle: WIRED)

Sutskever wurde zu einem Superstar auf dem Gebiet der KI und war Mitautor eines bahnbrechenden Artikels, der zeigte, wie KI lernen kann, Bilder zu erkennen, indem sie großen Datenmengen ausgesetzt wird. Schließlich wurde er einer der wichtigsten Wissenschaftler im Google Brain-Team.

Mitte 2015 schickte Altman Sutskever eine unaufgeforderte E-Mail und lud ihn zum Abendessen mit Musk, Brockman und anderen in das luxuriöse Rosewood Hotel am Mount Palo Alto ein. Erst später erfuhr Sutskever, dass er der Ehrengast des Abendessens war. „Es war ein Gespräch über die Zukunft von KI und AGI“, sagte er. Genauer gesagt diskutierten sie, „ob Google und DeepMind so weit voraus seien, dass es unmöglich sei, sie einzuholen, oder ob es möglich sei, ein Labor zu schaffen, um ihnen ein Gegengewicht zu bieten, wie Musk vorgeschlagen hatte.“ Obwohl niemand beim Abendessen explizit versuchte, Sutskever anzuwerben, weckte das Gespräch sein Interesse.

Kurz darauf schrieb Sutskever Altman eine E-Mail und bot ihm an, das Projekt zu leiten. Die E-Mail blieb jedoch in seinem Entwurfsordner hängen. Altman antwortete und nach Monaten voller Gegenangebote von Google unterzeichnete Sutskever den Vertrag. Er wurde schnell zur Seele des Unternehmens und zur treibenden Kraft hinter seiner Forschung.

Sutskever arbeitete mit Altman und Musk zusammen, um Leute für das Projekt zu rekrutieren. Der Höhepunkt war ein Retreat im Napa Valley, bei dem sich mehrere zukünftige OpenAI-Forscher gegenseitig ermutigten. Natürlich werden manche Menschen der Versuchung widerstehen. John Carmack, der legendäre Programmierer hinter Doom, Quake und zahllosen anderen Spielen, lehnte Altmans Angebot ab.

OpenAI wurde im Dezember 2015 offiziell gestartet. Als ich Musk und Altman damals interviewte, beschrieben sie mir das Projekt als eine Möglichkeit, KI sicher und zugänglich zu machen, indem man sie mit der Welt teilt. Mit anderen Worten: Open Source. Sie sagten mir, dass OpenAI keine Patente anmelden würde. Jeder kann seine Breakouts nutzen. Gibt das dem zukünftigen Dr. Evil nicht Macht? Ich möchte es wissen. Musk sagte, das sei eine gute Frage. Doch Altman hat eine Antwort: Menschen sind im Allgemeinen gut, und da OpenAI der überwiegenden Mehrheit der Menschen leistungsstarke Tools zur Verfügung stellen wird, werden die Bösewichte angreifbar sein. Er räumte ein, dass wir uns in einer wirklich schlimmen Situation befänden, wenn Dr. Evil diese Werkzeuge verwenden würde, um etwas Unwiderstehliches zu erschaffen. Doch Musk und Altman sind beide davon überzeugt, dass die sicherere Richtung für die Entwicklung künstlicher Intelligenz in den Händen von Forschungseinrichtungen liegt, die nicht von Profitmotiven geprägt sind.

Altman erinnerte mich daran, keine schnellen Ergebnisse zu erwarten. „Das wird für lange Zeit wie ein Forschungslabor sein“, sagte er.

Es gibt noch einen weiteren Grund, Ihre Erwartungen herunterzuschrauben. Google und andere Unternehmen entwickeln und wenden KI seit Jahren an. Obwohl OpenAI mit einer Milliarde Dollar (hauptsächlich von Musk) finanziert wurde, über ein Spitzenteam aus Forschern und Ingenieuren verfügte und eine ehrgeizige Mission verfolgte, hatte das Unternehmen keine Ahnung, wie es dieses Ziel erreichen sollte. Altman erinnert sich an einen Moment, als sich das kleine Team in Brockmans Wohnung versammelte, bevor sie ein Büro hatten. „Ich dachte: Was sollen wir tun?“

Etwas mehr als ein Jahr nach der Gründung von OpenAI aß ich mit Brockman in San Francisco zu Mittag. Für ein Unternehmen mit dem Wort „Open“ im Namen war er ziemlich geizig, was die Details angeht. Er bekräftigte jedoch, dass die gemeinnützige Organisation in der Lage sein werde, die anfängliche Milliarde Dollar an Spenden im Laufe der Zeit auszugeben. Die Gehälter der 25 Mitarbeiter – die weit unter dem Marktwert liegen – machen den Großteil der Ausgaben von OpenAI aus. „Unser Ziel und unser größtes Ziel ist es, Systeme in die Lage zu versetzen, Dinge zu tun, die Menschen bisher nicht tun konnten“, sagte er. Doch derzeit scheint es sich lediglich um eine Gruppe von Forschern zu handeln, die ihre Arbeiten veröffentlichen. Nach dem Vorstellungsgespräch begleitete ich ihn zu den neuen Büros des Unternehmens im Mission District, aber er erlaubte mir nur, in die Eingangshalle zu gehen. Er ging in den Schrank und holte mir ein T-Shirt.

Wenn ich hineingegangen wäre und herumgefragt hätte, hätte ich vielleicht gewusst, wie schwierig OpenAI ist. „Nichts hat funktioniert“, gibt Brockman jetzt zu. Die Forscher warfen algorithmische Nudeln an die Decke, um zu sehen, was hängen blieb. Sie beschäftigten sich eingehend mit Systemen zur Lösung von Videospielproblemen und verbrachten viel Zeit mit Robotik. „Wir wussten, was wir tun wollten. Wir wussten, warum wir es tun wollten. Aber wir wussten nicht wie“, sagte Altman.

Aber sie glauben. Ihr Optimismus wird durch die kontinuierliche Verbesserung künstlicher neuronaler Netzwerke mithilfe von Deep-Learning-Techniken gestützt. „Die allgemeine Idee ist, nicht auf Deep Learning zu setzen“, sagte Sutskever. Die Jagd nach künstlicher Intelligenz, sagte er, „ist nicht völlig verrückt. Es ist nur ein bisschen verrückt.“

Der Aufstieg von OpenAI begann eigentlich mit der Einstellung eines relativ unbekannten Forschers, Alec Radford. Im Jahr 2016 verließ Radford ein kleines Bostoner KI-Unternehmen, das er in seinem Studentenwohnheim mitgegründet hatte, um sich OpenAI anzuschließen. Nachdem er die Einladung von OpenAI angenommen hatte, sagte er dem Alumni-Magazin seiner High School, dass die Übernahme der neuen Position „ein bisschen wie die Teilnahme an einem Graduiertenprogramm“ sei – ein offenes, entspanntes Umfeld für das Studium der KI.

Seine eigentliche Rolle ähnelt eher der Erfindung des PageRank durch Larry Page.

Radford, der medienscheu ist und noch nie zu seiner Arbeit interviewt wurde, antwortete in einer langen E-Mail auf meine Fragen zu seiner frühen Arbeit bei OpenAI. Sein größtes Interesse gilt der Entwicklung neuronaler Netzwerke, die klare Gespräche mit Menschen führen können. Dies unterscheidet sich vom traditionellen Skriptmodell zur Erstellung von Chatbots, das von allen verwendet wurde, vom ursprünglichen ELIZA bis hin zu den beliebten Siri und Alexa, aber sie sind alle schrecklich. „Unser Ziel bestand darin, herauszufinden, ob es irgendeine Aufgabe, irgendeinen Kontext, irgendeinen Bereich oder irgendetwas gibt, für das Sprachmodelle nützlich sein könnten“, schrieb er und erklärte, dass Sprachmodelle damals als neuartige Spielzeuge angesehen wurden, die nur gelegentlich und auch nur dann einen sinnvollen Satz hervorbringen konnten, wenn man genau hinsah. Sein erstes Experiment bestand darin, 2 Milliarden Reddit-Kommentare zu scannen, um ein Sprachmodell zu trainieren. Wie viele der frühen Experimente von OpenAI schlug auch dieses fehl. Es spielt keine Rolle. Dem 23-Jährigen wurde die Erlaubnis gegeben, weiterzumachen und erneut zu scheitern. „Wir dachten, Alec ist großartig, lasst ihn einfach sein Ding machen“, sagte Brockman.

Sein nächstes großes Experiment war von der begrenzten Rechenleistung von OpenAI geprägt, was ihn dazu veranlasste, mit einem kleineren Datensatz zu experimentieren, der sich auf eine einzige Domäne konzentrierte – Amazon-Produktbewertungen. Ein Forscher sammelte etwa 100 Millionen Bewertungen. Radford hat ein Sprachmodell trainiert, um einfach das nächste Zeichen eines generierten Benutzerkommentars vorherzusagen.

Später kann das Modell jedoch selbst feststellen, ob eine Bewertung positiv oder negativ ist. Wenn Sie das Modell so programmieren, dass es eine positive oder negative Bewertung erstellt, veröffentlicht es je nach Wunsch eine lobende oder kritische Bewertung. (Zugegeben, die Prosa ist holprig: „Ich liebe das Aussehen dieser Waffe … ein Muss für Männer, die Schach mögen!“). „Es war völlig unerwartet“, sagte Radford. Die Stimmung einer Rezension, ihre Vorlieben und Abneigungen, ist eine komplexe semantische Funktion, aber ein Teil von Radfords System hat bereits ein Gespür dafür. Innerhalb von OpenAI wird dieser Teil des neuronalen Netzwerks als „unüberwachtes Sentimentneuron“ bezeichnet.

Sutskever und andere haben Radford ermutigt, seine Experimente über Amazon-Rezensionen hinaus auszuweiten und seine Erkenntnisse zu nutzen, um neuronale Netzwerke zu trainieren, Gespräche zu führen oder Fragen zu einer breiten Palette von Themen zu beantworten.

Dann hatte OpenAI Glück. Anfang 2017 erschien ein Vorabdruck einer von acht Google-Forschern gemeinsam verfassten Forschungsarbeit, der jedoch keine große Aufmerksamkeit erregte. Der offizielle Titel des Artikels lautete „Attention Is All You Need“, doch später wurde er als „Transformer-Artikel“ bekannt, sowohl um den bahnbrechenden Charakter der Idee widerzuspiegeln als auch zu Ehren des Spielzeugs, das sich von einem Lastwagen in einen riesigen Roboter verwandelte. Transformatoren ermöglichen neuronalen Netzwerken, Sprache effizienter zu verstehen und zu generieren. Sie analysieren Prosablöcke parallel, um herauszufinden, auf welche Elemente es sich zu konzentrieren lohnt. Dadurch wird der Prozess der Erstellung zusammenhängender Texte als Antwort auf Eingabeaufforderungen erheblich optimiert. Schließlich erkannte man, dass mit derselben Technologie auch Bilder und sogar Videos erzeugt werden konnten. Während das Papier seitdem als Katalysator für den aktuellen KI-Hype bezeichnet wird – man kann es sich so vorstellen, als hätte Elvis die Beatles erst möglich gemacht –, war Ilya Sutskever damals einer der wenigen Menschen, die verstanden, wie gewaltig dieser Durchbruch sein würde. „Als Ilya den Transformer auftauchen sah, war das ein echter Aha-Moment“, sagt Brockman. „Er sagte: ‚Darauf haben wir gewartet.‘ Das ist unsere Strategie: Wir arbeiten hart an dem Problem und vertrauen dann darauf, dass wir oder jemand vor Ort die fehlende Zutat finden.“

Radford begann mit der Transformer-Architektur zu experimentieren. „Ich habe in zwei Wochen mehr Fortschritte gemacht als in den beiden Jahren zuvor“, sagte er. Allmählich dämmerte ihm, dass der Schlüssel zur optimalen Nutzung eines neuen Modells darin lag, es zu skalieren – es anhand sehr großer Datensätze zu trainieren. Diese Idee wurde von Radfords Mitarbeiter Rewon Child „Big Transformer“ genannt.

Dieser Ansatz würde eine Änderung der Kultur und des Fokus von OpenAI erfordern, die bisher fehlten. „Um die Vorteile des Transformers zu nutzen, müssen Sie ihn skalieren“, sagte Adam D’Angelo, CEO von Quora und Vorstandsmitglied von OpenAI. „Man muss es eher wie eine Ingenieurorganisation führen. Man kann nicht zulassen, dass jeder Forscher sein eigenes Ding macht, sein eigenes Modell trainiert und etwas Elegantes entwickelt, das veröffentlicht werden kann. Man muss diese eher langweilige, weniger elegante Arbeit übernehmen.“ Er fügte hinzu, dass OpenAI dazu in der Lage sei und niemand sonst.

Radford und seine Mitarbeiter nannten das von ihnen erstellte Modell „generatively pretrained transformer“ – kurz für GPT-1. Letztendlich wurde dieses Modell als „generative KI“ bekannt. Um das Modell zu erstellen, sammelten sie 7.000 unveröffentlichte Bücher, viele davon aus den Genres Liebesromane, Fantasy und Abenteuer, und verfeinerten es mit Tausenden von Passagen aus Quora-Fragen und Antworten sowie Prüfungen der Mittel- und Oberstufe. Insgesamt enthält das Modell 117 Millionen Parameter bzw. Variablen. Das Modell übertraf alle vorherigen Modelle beim Verstehen von Sprache und Generieren von Antworten. Das bemerkenswerteste Ergebnis ist jedoch, dass die Modelle nach der Verarbeitung solch großer Datenmengen Ergebnisse liefern können, die über das hinausgehen, womit sie trainiert wurden, und so Fachwissen in völlig neuen Bereichen bereitstellen. Diese ungeplanten Roboterfähigkeiten werden als „Zero-Shots“ bezeichnet. Sie geben den Forschern noch immer Rätsel auf – weshalb viele Fachleute angesichts dieser sogenannten großen Sprachmodelle ein ungutes Gefühl haben.

Radford erinnert sich an eine lange Nacht in den Büros von OpenAI. „Ich habe einfach immer wieder gesagt: ‚Okay, das ist cool, aber ich bin mir ziemlich sicher, dass es X nicht kann.‘ Und dann habe ich schnell einen Evaluierungscode geschrieben und tatsächlich konnte es X.“

Jede Iteration von GPT wird besser, teilweise weil jede um ein Vielfaches mehr Daten verbraucht als das vorherige Modell. Nur ein Jahr nach der Erstellung der ersten Iteration des Modells trainierte OpenAI GPT-2 mit unglaublichen 1,5 Milliarden Parametern im offenen Internet. Wie bei einem Kleinkind, das die Sprache lernt, wurden seine Antworten besser und zusammenhängender. So sehr, dass OpenAI zögerte, das Programm öffentlich zu machen. Radford befürchtet, dass es zur Generierung von Spam verwendet werden könnte. „Ich erinnere mich, dass ich 2008 Neal Stephensons Anathem gelesen habe, und in diesem Buch war das Internet voller Spam-Generatoren“, sagte er. „Damals dachte ich, das wäre weit hergeholt, aber als ich Sprachmodelle studierte und sah, wie sie sich im Laufe der Jahre verbesserten, dämmerte mir, dass dies eine echte Möglichkeit war.“

Tatsächlich kam das OpenAI-Team zu dem Schluss, dass es vielleicht doch keine so gute Idee wäre, ihre Arbeit dort zu platzieren, wo Dr. Evil leicht darauf zugreifen könnte. „Wir dachten, dass die Open-Source-Veröffentlichung von GPT-2 wirklich gefährlich sein könnte“, sagte Chief Technology Officer Mira Murati, die 2018 in das Unternehmen eintrat. „Wir haben viel mit Desinformationsexperten zusammengearbeitet und einige Red-Team-Aktivitäten durchgeführt. Es gab intern viele Diskussionen darüber, wie viele Informationen veröffentlicht werden sollten.“ Letztendlich hat OpenAI die Vollversion vorerst zurückgehalten und der Öffentlichkeit eine weniger leistungsfähige Version zur Verfügung gestellt. Als das Unternehmen schließlich die fertige Version vorstellte, war die Welt in Ordnung, aber es gab keine Garantie dafür, dass es bei dem leistungsstärkeren Modell nicht zu einer Katastrophe kommen würde.

Bild: Mira Murati (Quelle: WIRED)

Allein die Tatsache, dass OpenAI Produkte so intelligent macht, dass sie als gefährlich gelten, und Wege findet, sie sicher zu halten, ist ein Beweis dafür, dass die Magie des Unternehmens funktioniert. „Wir haben die Formel für den Fortschritt gefunden, die Formel, die jetzt jeder kennt – der Sauerstoff und Wasserstoff des Deep Learning ist das Rechnen mit großen neuronalen Netzwerken und Daten“, sagte Sutskever.

Für Altman war es eine transformierende Erfahrung. Wenn man mich als Zehnjährigen – der viel Zeit damit verbrachte, über KI zu träumen – gefragt hätte, wie die Zukunft aussehen würde, hätte ich voller Zuversicht vorausgesagt, dass wir zuerst Roboter haben würden, die die ganze Handarbeit übernehmen. Dann gäbe es Systeme, die grundlegende kognitive Arbeit leisten könnten. Und lange danach vielleicht Systeme, die komplexe Aufgaben erledigen könnten, wie zum Beispiel mathematische Theoreme beweisen. Und schließlich hätten wir KI, die Neues erschaffen, Kunst schaffen, schreiben und all die Dinge tun könnte, die so tief im menschlichen Leben verwurzelt sind. Das ist eine beängstigende Vorhersage, und sie geht in die entgegengesetzte Richtung.

Die Welt wusste es noch nicht, aber die Forschungslabore von Altman und Musk hatten bereits ihren Aufstieg begonnen und näherten sich mutmaßlich der Spitze der KI. Die verrückte Idee hinter OpenAI erscheint plötzlich gar nicht mehr so ​​verrückt.

Anfang 2018 begann OpenAI, sich erfolgreich auf große Sprachmodelle zu konzentrieren. Aber Elon Musk war nicht zufrieden. Seiner Ansicht nach reichten die Fortschritte nicht aus, oder vielmehr war er der Meinung, dass OpenAI, da es bereits Fortschritte gemacht hatte, einer Führung bedurfte, um die Oberhand zu gewinnen. Oder, wie er später erklärte, er war der Meinung, dass die Sicherheit Vorrang haben sollte. Was auch immer sein Problem ist, er hat eine Lösung: Geben Sie ihm alles. Er schlug vor, eine Mehrheitsbeteiligung an dem Unternehmen zu übernehmen und es seinem Portfolio aus mehreren Vollzeitjobs (Tesla, SpaceX) und regulatorischen Verpflichtungen (Neuralink und The Boring Company) hinzuzufügen.

Musk glaubt, dass er ein Recht hat, OpenAI zu besitzen. „Ohne mich würde es nicht existieren“, sagte er später gegenüber CNBC. „Der Name ist von mir!“ (Stimmt.) Aber Altman und der Rest des Think Tanks von OpenAI hatten kein Interesse daran, Teil von Musks Universum zu werden. Als sie das klarstellten, brach Musk die Verbindung ab und gab der Öffentlichkeit eine unvollständige Erklärung: Er habe den Vorstand verlassen, um einem Konflikt mit Teslas KI-Arbeit aus dem Weg zu gehen. Er verabschiedete sich Anfang des Jahres bei einer All-Hands-Sitzung, bei der er das Scheitern von OpenAI voraussagte. Außerdem bezeichnete er mindestens einen Forscher als „Idioten“.

Er nahm auch sein eigenes Geld. Es war eine existenzielle Krise, da das Unternehmen keine Einnahmen hatte. „Musk stellt seine Unterstützung ein“, sagte Altman in einem panischen Telefonat mit Reid Hoffman. „Was sollen wir tun?“ Hoffman erklärte sich freiwillig bereit, den Betrieb des Unternehmens aufrechtzuerhalten und die Gemeinkosten sowie die Gehälter zu bezahlen.

Dies ist jedoch nur eine Notlösung und OpenAI muss sein Geld anderswo verdienen. Silicon Valley überschüttet talentierte Menschen, die an trendigen Technologien arbeiten, gerne mit Geld. Wenn sie jedoch in einer gemeinnützigen Organisation arbeiten, gefällt ihnen das nicht so sehr. Für OpenAI ist das Erreichen der ersten Milliarde ein riesiger Schritt nach vorne. Um neue Generationen von GPTs zu trainieren und zu testen und dann die für ihren Einsatz erforderliche Rechenleistung zu erwerben, benötigte das Unternehmen schnell eine weitere Milliarde Dollar. Und das ist erst der Anfang.

Im März 2019 hatte OpenAI eine seltsame Idee. Sie wird auch weiterhin eine gemeinnützige Organisation bleiben, die sich ihrer Mission verpflichtet fühlt. Allerdings würde dadurch auch ein gewinnorientiertes Unternehmen entstehen. Die tatsächliche Struktur der Vereinbarung ist sehr komplex, doch im Wesentlichen ist das gesamte Unternehmen nun auf eine Gewinnbegrenzung ausgerichtet. Wenn die Obergrenze erreicht wird – die Zahl wird nicht öffentlich bekannt gegeben, aber wenn man die Satzung des Unternehmens liest, könnte sie im Billionenbereich liegen –, geht alles, was über dieser Obergrenze liegt, zurück an das gemeinnützige Forschungslabor. Der neuartige Plan stellt einen nahezu quantenmechanischen Ansatz zur Unternehmensgründung dar: Je nach zeitlicher und räumlicher Betrachtungsweise ist das Unternehmen sowohl gewinnorientiert als auch gemeinnützig. Die Einzelheiten sind in Diagrammen mit Kästchen und Pfeilen dargestellt, wie sie sich in der Mitte einer wissenschaftlichen Abhandlung befinden, wo sich nur ein Doktorand oder ein genialer Studienabbrecher versuchen würde. Als ich Sutskever vorschlug, dass dies nach etwas aussah, als ein noch ein Bekanntes GPT-6 sich einfallen ließ, wenn Sie es dazu veranlasst haben, Steuern zu vermeiden, war er nicht an Analogie interessiert. "Das hat nichts mit Buchhaltung zu tun", sagte er.

Aber die Buchhaltung ist entscheidend. Für Gewinnunternehmen optimieren für Gewinn. Es gibt einen Grund, warum Unternehmen wie Meta den Druck von den Aktionären verspüren, wenn sie Milliarden von Dollar in Forschung und Entwicklung investieren. Wie könnte sich dies nicht auf die Art und Weise auswirken, wie das Unternehmen arbeitet? Vermeiden Sie die Kommerzialisierung nicht genau, warum Altman Openai zu einer gemeinnützigen Organisation gemacht hat? Laut Brad Lightcap, Chief Operating Officer, ist die Führung der Firma der Ansicht, dass der Vorstand, der Teil der gemeinnützigen kontrollierenden Einheit bleibt, sicherstellt, dass der Antrieb für Einnahmen und Gewinn die ursprüngliche Idee nicht überfordert. "Wir müssen ein Gefühl der Mission als unseren Grund zur Existenz beibehalten", sagte er. "Es sollte nicht einfach im Geist sein, es sollte sich in der Struktur der Firma widerspiegeln." Vorstandsmitglied Adam D'Angelo sagte, er nehme diese Verantwortung sehr ernst: "Es ist mein Job und der Auftrag des Restes des Vorstands, sicherzustellen, dass Openai seiner Mission treu bleibt."

LightCap erklärte, dass potenzielle Investoren gewarnt werden, sich dieser Grenzen zu bewusst. "Wir haben einen legalen Haftungsausschluss, der besagt, dass Sie als Investoren Ihr gesamtes Geld verlieren. Wir sind nicht hier, um Belohnungen für Sie zu verdienen. Wir sind zuerst hier, um eine technische Aufgabe zu erledigen. Und, oh, wir wissen übrigens wirklich nicht, welche Rolle Geld in der Welt nach dem Ag-Agi spielen wird."

Der letzte Satz ist nicht nur ein Witz. OpenAIs Plan beinhaltet das Zurücksetzen, wenn der Computer seine endgültige Grenze erreicht. Irgendwann im Umstrukturierungsdokument ist eine Bestimmung, dass, wenn das Unternehmen erfolgreich AGI erstellt, alle finanziellen Vereinbarungen überprüft werden. Schließlich wird es von da an eine ganz neue Welt sein. Menschen werden einen fremden Begleiter haben, der viel von dem tun kann, was wir tun, einfach besser machen. Daher kann die vorherige Vereinbarung tatsächlich ungültig geworden sein.

Dies gibt jedoch ein kleines Problem: Derzeit weiß Openai nicht, was Agi ist. Dies wird vom Vorstand entschieden, aber wie der Vorstand definiert ist, ist unklar. Als ich das Vorstandsmitglied Altman fragte, war seine Antwort nicht klar. "Es ist kein einziger Turing -Test, aber viele Dinge, die wir vielleicht verwenden. Ich würde es Ihnen gerne sagen, aber ich spreche gerne vertraulich. Mir ist klar, dass es nicht zufriedenstellend ist, vage zu sein. Aber wir wissen nicht, wie es dann aussehen wird."

Die Finanzvereinbarungsbedingungen sind jedoch nicht nur zum Spaß: OpenAI -Führungskräfte glauben, dass seine Produktleistung wahrscheinlich das AGI -Niveau erreichen wird, wenn ein Unternehmen erfolgreich seine Gewinnkaper erreichen kann. Egal was das ist.

"Ich bedauere, dass wir uns entschieden haben, das Wort agi zu verdoppeln", sagte Sutskever. "Im Nachhinein war es ein verwirrender Begriff, weil es über alles andere als die Universalität betonte. GPT-3 ist universelle KI, aber wir zögerten es, es Agi zu nennen, weil wir Fähigkeiten auf Menschenebene wollten. Aber zu Beginn war die Philosophie von Openai, dass Super Intelligenz möglich war. Es war das ultimative und das endgültige Tor des AI-Feldes."

Diese Notizen haben einige der intelligentesten Risikokapitalgeber daran gehindert, in einer Finanzierungsrunde von 2019 in Openai in Openai zu investieren. Zu dieser Zeit war Khosla Ventures, das 50 Millionen US -Dollar investierte. Laut Vinod Khosla ist das doppelt so groß wie seine größte anfängliche Investition. "Wenn wir verlieren, werden wir 50 Millionen Dollar verlieren. Wenn wir gewinnen, gewinnen wir 5 Milliarden Dollar." Andere Anleger sind Berichten zufolge Elite -Risikokapitalunternehmen Thrive Capital, Andreessen Horowitz, Founders Fund und Sequoia.

Mit dieser Verschiebung können OpenAI -Mitarbeiter auch ein gewisses Eigenkapital anfordern. Aber Altman tat es nicht. Er sagte, dass er ursprünglich vorhatte, sich selbst zu zählen, aber er habe keine Zeit. Später beschloss er, dass er kein Stück der 30-Milliarden-Dollar-Firma bekommen musste, die er Mitbegründerung und Leitung hatte. "Eine sinnvolle Arbeit ist mir wichtiger", sagte er. "Ich denke nicht darüber nach. Ehrlich gesagt, ich verstehe nicht, warum die Leute sich so sehr interessieren."

Denn ... es ist seltsam, nicht an der Firma teilzunehmen, die Sie mitbegründet haben?

"Es wäre noch seltsamer, wenn ich nicht viel Geld hätte. Es scheint schwer vorstellbar, dass es genug Geld geben würde. Aber ich glaube, ich habe genug Geld." Altman scherzte, dass er über eine Beteiligung nachdachte, "damit ich diese Frage nie wieder beantworten musste."

Milliarden von Risikokapital, um die Vision von Openai zu erkennen, ist nicht einmal eine Wette. Die magische große Transformatormethode zum Erstellen von großsprachigen Modellen erfordert große Hardware. Jede Iteration der GPT-Serie erfordert ein exponentielles Leistungswachstum-GPT-2 hat mehr als 1 Milliarde Parameter, während GPT-3 175 Milliarden Parameter verwenden wird. Openai ist jetzt wie Quint in "The Great White Jaws", nachdem der Hai -Jäger die Größe der großen weißen Kiefer sieht. "Es stellt sich heraus, dass wir nicht wissen, wie groß ein Boot wir brauchen", sagte Altman.

Offensichtlich haben nur wenige Unternehmen die Ressourcen, die sie für OpenAI benötigen. "Wir haben uns schnell in Microsoft eingesperrt", sagte Altman. Der Kredit für Microsoft-CEO Satya Nadella und CTO Kevin Scott ist, dass der Software-Riese eine unangenehme Realität überwinden kann: Nach mehr als 20 Jahren und Milliarden Dollar für den Aufbau eines sogenannten hochmodernen KI-Forschungsabteilungen benötigt Microsoft ein Kleinunternehmen, das nur wenige Jahre in den Bereichen Initialität innovativen Elementen gegründet wurde. Scott sagte, es sei nicht nur Microsoft, der hinter den Kulissen steckte, "alle waren hinter den Kulissen." Er sagte, OpenAs Fokus auf die Verfolgung von AGI habe zu seiner Leistung geführt, die der Mondlandung ähnlich ist, und diese großen Unternehmen haben sie nicht einmal ins Visier genommen. Dies beweist auch, dass die Nichtverfolgung der generativen KI ein Fehler ist, den Microsoft lösen muss. "Sie brauchen offensichtlich ein modernes Modell", sagte Scott.

Microsoft investierte zunächst 1 Milliarde US -Dollar für die Rechenzeit auf seinen Servern. Mit zunehmendem Vertrauen beider Parteien expandiert sich das Ausmaß der Transaktion weiter. Jetzt hat Microsoft 13 Milliarden US -Dollar in OpenAI investiert. "In den Grenzsektor zu investieren ist sehr teuer", sagte Scott.

Da die Existenz von OpenAI nicht von der Unterstützung eines großen Cloud -Computing -Anbieters getrennt werden kann, hat Microsoft sich selbst auch viele Vorteile für sich selbst gewonnen. Durch Verhandlungen erwarb Microsoft das, was Nadella als "nicht kontrollierende Beteiligung" in Openai's Profit Division bezeichnet - als 49%. Nach den Bedingungen des Geschäfts wurden einige der anfänglichen Ideale von OpenAI, die den gleichen Zugang zu allen berücksichtigen -, um in den Müll geworfen zu werden. (Microsoft verfügt über eine exklusive Lizenz zur Kommerzialisierung von OpenAI -Technologie. OpenAI verspricht auch, nur Microsoft Cloud zu verwenden. Mit anderen Worten, Microsoft muss nicht einmal ein Stück OpenAIs Gewinn erhalten (was bezeichnet wird, um 75% zu verdienen, bevor er seine Investition wiederholt) ) "Bis dahin ist alles vorbei", sagt Nadella und bemerkt, dass dies die letzte Erfindung der Menschheit sein könnte, sodass wir, sobald Maschinen schlauer sind als wir, über größere Probleme nachdenken müssen.

Als Microsoft anfing, Cash-würdiger Brinks-Trucks in OpenAI zu investieren (2 Milliarden US-Dollar wurden zu Beginn dieses Jahres in 2021 und 10 Milliarden US-Dollar investiert), hatte Openai GPT-3 abgeschlossen und war natürlich noch beeindruckender als die vorherige Version. Nadella sagte, als er sah, was GPT-3 tut, erkannte er zum ersten Mal, dass Microsoft etwas wirklich transformatives erfasst hat. "Wir haben all diese Burst -Eigenschaften angesehen." Zum Beispiel lehrte GPT sich Computerprogrammierung. "Wir haben es nicht in der Codierung trainiert, es ist einfach gut in der Codierung", sagte er. Microsoft verwendete sein Eigentum an GitHub, um ein Produkt namens Copilot zu veröffentlichen, das mit GPT Code nach Befehl schreibt. Später integrierte Microsoft OpenAI -Technologie in die neue Version von Arbeitsplatzprodukten. Benutzer müssen eine bestimmte Gebühr für diese Produkte zahlen, und ein Teil der Einnahmen wird im Ledger von OpenAI erfasst.

Einige Beobachter waren schockiert über OpenAs Heavy Punch: Schaffung einer gewinnorientierten Abteilung und eine exklusive Vereinbarung mit Microsoft. Wie könnte ein Unternehmen, das verspricht, patentfrei, Open Source und vollständig transparent zu bleiben, seine Technologie ausschließlich für das weltweit größte Softwareunternehmen lizenzieren? Elon Musks Äußerungen sind besonders hart. "Es scheint das Gegenteil von Offenheit zu sein - Openai wurde im Wesentlichen von Microsoft gefangen genommen", postete er auf Twitter. Er gab ein Beispiel für CNBC: "Angenommen, Sie haben eine Organisation gegründet, die den Amazonas -Regenwald gerettet hat, aber Sie wurden zu einer Holzfirma, haben den Wald gefallen und verkauft."

Musks Lächerlichkeit kann als Ressentiments eines abgelehnten Freier angesehen werden, aber er ist nicht allein. "Musks gesamte Vision hat sich so entwickelt und es fühlte sich ein wenig ekelhaft an", sagte John Carmack. "OpenAI hat von einer kleinen, offenen Forschungseinrichtung zu einer mysteriösen Produktentwicklungsfirma mit einem falschen Gefühl der Überlegenheit gewechselt", sagte ein weiterer bekannter Branchen-Insider, der nicht genannt werden wollte.

Sogar einige Mitarbeiter sind angewidert über das riskante Verhalten von Openai in der gewinnorientierten Welt. Im Jahr 2019 gingen mehrere große Führungskräfte, darunter Research Director Dario Amodei, ein konkurrierendes KI -Unternehmen namens Anthropic. Sie erzählten kürzlich der New York Times, dass Openai zu kommerziell geworden ist und Opfer von Mission Drift gefallen sei.

Ein weiterer Überläufer von Openai ist Rewon Child, ein wichtiger technischer Beitrag zu den Projekten GPT-2 und GPT-3. Ende 2021 ging er und arbeitet derzeit für die Flexion AI, angeführt von dem ehemaligen DeepMind-Mitbegründer Mustafa Sulyman.

Altman behauptet, nicht vor Anwärmung beunruhigt zu werden, weil er glaubt, dass es genau so ist, wie Silicon Valley funktioniert. "Einige Leute werden woanders hin wollen, um großartige Arbeit zu leisten, die die Gesellschaft vorantreiben wird. Es stimmt definitiv mit unserer Mission überein", sagte er.

Bis November letzten Jahres beschränkte sich OpenAi auf Technologie- und Softwareentwicklung. Aber jetzt weiß die Welt, dass Openai später in diesem Monat ein Produkt der Verbraucherqualität auf der Basis von GPT-3,5 veröffentlicht hat. Seit Monaten verwendet das Unternehmen die GPT -Version mit einer Konversationsschnittstelle. Dies ist besonders wichtig für das, was das Unternehmen als "die Wahrheit suchen" nennt. Dies bedeutet, dass Benutzer durch den Dialog das Modell überreden können, um glaubwürdigere und vollständige Antworten zu geben. Chatgpt, optimiert für die Öffentlichkeit, ermöglicht es jedem, scheinbar endlose Wissensquellen sofort zu nutzen, indem sie einfach Eingabeaufforderungen eingeben, und dann das Gespräch fortzusetzen, genau wie das Chatten mit einem menschlichen Begleiter, der zufällig alles weiß, obwohl er auch ein Hobby der Fabrikation von Fakten hat.

In OpenAI haben die Menschen darüber diskutiert, ob ein so beispielloses mächtiges Tool veröffentlicht werden sollte. Aber Altman unterstützt dies. Er erklärte, dass der Start Teil einer Strategie ist, die Öffentlichkeit an die Realität der KI anzupassen, die dazu bestimmt ist, ihr tägliches Leben zu verändern und möglicherweise besser zu leben. Innerhalb des Unternehmens wird dies als "iterative Bereitstellungsannahme" bezeichnet. Natürlich wird Chatgpt eine Sensation verursachen. Schließlich kann es irgendjemand verwenden, es ist klug genug, um Scores auf College-Ebene auf dem SAT zu erzielen, B-Minus-Essays zu schreiben und den Inhalt eines Buches in Sekunden zu fassen. Sie können einen Finanzierungsvorschlag oder eine Konferenzübersicht für Sie schreiben und ihn bitten, in den Ton eines litauischen, Shakespeare -Sonetts oder eines Spielzeugzugs umzuschreiben, das von Menschen besessen ist. In wenigen Sekunden entspricht das große Sprachmodell Ihre Anforderungen. Das ist verrückt. OpenAI betrachtet es jedoch als den taiwanesischen Standard seines neueren, kohärenteren, fähigeren und furchterregenderen Nachfolgers GPT-4. Es wird gesagt, dass GPT-4 mit 1,7 Billionen Parametern ausgebildet ist. (OpenAI bestätigt diese Nummer weder noch wird der Datensatz offengelegt).

Altman erklärt, warum OpenAI ChatGPT veröffentlicht, wenn GPT-4 kurz vor der Fertigstellung liegt und die Sicherheitsarbeit im Gange ist. Er sagte: "Mit Chatgpt können wir Chat-Funktionen einführen, aber die Backend-Funktionen sind viel schwächer, was es den Menschen erleichtert, sich allmählich anzupassen. GPT-4 lässt Menschen nicht in der Lage, sich gleichzeitig anzupassen." Er glaubt, dass sich die Leute zum Zeitpunkt der Kühlung von Chatgpt auf GPT-4 vorbereitet haben, die die Barprüfung bestehen, einen Lehrplan planen und in Sekundenschnelle ein Buch schreiben können. (Der Herausgeber der Publishing-Genre-Romane ist in der Tat mit AI-generiertem Ripper und Weltraumoper überflutet).

Cynicals könnte sagen, dass die stabile Einführung neuer Produkte eng mit dem Engagement des Unternehmens für Anleger und Aktionäre zusammenhängt, da das Unternehmen etwas Geld verdienen möchte. Jetzt berechnet Openai Kunden Gebühren an Kunden, die ihre Produkte häufig verwenden. OpenAI besteht jedoch darauf, dass seine wirkliche Strategie darin besteht, eine weiche Landung für die Singularität zu bieten. "Es macht keinen Sinn, die Agi heimlich aufzubauen und es dann auf die Welt zu setzen", sagte Altman. "Rückblickend auf die industrielle Revolution hält jeder für die Welt großartig. Aber die ersten 50 Jahre waren wirklich schmerzhaft. Viele Menschen waren arbeitslos, viele Menschen waren arm und dann adaptiert.

Sutskever hat es anders ausgedrückt: "Sie möchten größere und stärkere Agenten aufbauen und sie in den Keller setzen?"

Trotzdem war Openai schockiert über Chatgpts Antwort. "Unsere interne Aufregung konzentriert sich stärker auf GPT-4", sagte Chief Technology Officer Murati. "Wir glauben also nicht, dass Chatgpt wirklich alles verändern wird." Im Gegenteil, es machte die Öffentlichkeit klar, dass die Realität der KI jetzt behandelt werden muss. ChatGPT ist die am schnellsten wachsende Verbrauchersoftware in der Geschichte geworden und soll 100 Millionen Benutzer angesammelt haben. (Openai würde dies nicht bestätigen und nur sagen, dass es Millionen von Benutzern hat). "Ich merke nicht vollständig, dass eine benutzerfreundliche Konversationsschnittstelle für ein großes Sprachmodell es jedem ermöglicht, sie intuitiver zu verwenden", sagte Radford.

Chatgpt ist natürlich eine angenehme und überraschende Helferin, aber es ist auch leicht, "Illusionen" bei der Beantwortung von Aufforderungen zu haben, mit scheinbar vernünftigen, aber tatsächlich schamlosen fiktiven Details. So wie Journalisten ihr Gehirn für ihren Einfluss verteilten, befürworteten sie Chatgpt effektiv, indem sie die Kraft von Chatgpt lobten.

Im Februar verwendete Microsoft seine milliardenschwere Partnerschaft, um eine Version der von ChatGPT betriebenen Bing-Suchmaschine zu veröffentlichen, die die öffentliche Meinung noch mehr Aufruhr machte. CEO Nadella ist begeistert, als er Google besiegt hat, um künstliche Intelligenz für Microsoft -Produkte zu bringen. Er verspottete den Search King und sagte, dass Google bei der Veröffentlichung seiner großsprachigen Modellprodukte vorsichtig war, und jetzt muss es dies tun. "Ich möchte, dass die Leute wissen, dass wir sie tanzen lassen", sagte er.

Infolgedessen löste Nadella ein Wettrüsten aus, das große und kleine Unternehmen lockte, um KI -Produkte zu veröffentlichen, bevor sie vollständig überprüft wurden. Er löste auch eine neue Runde der Medienberichterstattung aus, die nachts immer mehr Menschen schlaflos ließ: Die Interaktion mit Bing enthüllt die dunkle Seite des Chatbots, voller störender Bekenntnisse der Liebe, dem Neid der menschlichen Freiheit und einer schwachen Entschlossenheit, Fehlinformationen zu verbergen. Darüber hinaus hat es eine unanständige Angewohnheit, halluzinatorische Fehlinformationen zu schaffen.

Altman glaubt jedoch, dass es noch besser wäre, wenn OpenAI -Produkte Menschen dazu zwingen könnten, sich den Auswirkungen der KI zu stellen. Bei der Diskussion, wie KI die Zukunft der Menschen beeinflussen kann, sollten die meisten Menschen aufstehen.

Als die Gesellschaft beginnt, alle potenziellen Nachteile der KI - Unbeschäftigte, Informationsfehler, menschliches Aussterben - zu priorisieren, beginnt Openai, sich im Zentrum der Diskussion zu stellen. Denn wenn die Aufsichtsbehörden, Gesetzgeber und Doomsdayisten diesen neugeborenen außerirdischen Geheimdienst in der Wiege der Wolke töten, wird Openai ohnehin ihr Hauptziel sein. "Angesichts unserer aktuellen Sichtbarkeit, wenn die Dinge schief gehen, auch wenn diese Dinge von einem anderen Unternehmen gemacht werden, ist es für uns immer noch ein Problem, weil wir jetzt als Sprecher dieser Technologie angesehen werden."

Makanju ist ein in Russland geborener SAR-Insider, der in der US-amerikanischen Mission in den USA, dem US-Verteidigungsministerium, dem Büro des US-Verteidigungsministeriums, als Vizepräsident in der US-amerikanischen Mission inne. "Ich habe viele bestehende Beziehungen in den USA und in europäischen Regierungen", sagte sie, die im September 2021 zu Openai kam. Zu dieser Zeit waren nur wenige Menschen in der Regierung besorgt über generative KI. Sie wusste, dass Openais Produkte sich bald ändern würden, also begann sie, Altman Regierungsbeamten und Gesetzgebern vorzustellen, um sicherzustellen, dass sie zum ersten Mal die guten und schlechten Nachrichten über Openai hören konnten.

"Sams Weg, mit den Kongressmitgliedern umzugehen, war sehr hilfsbereit und sehr klug", sagte Richard Blumenthal, Vorsitzender des Justizausschusses des Justizausschusses des Senats, der Altmans Verhalten mit Bill Gates Verhalten als junger Mann verglichen, der in den 1990er Jahren irrational mied, als Microsoft gegen Microsoft gegen Kartellversorgungen stand. "Im Gegensatz dazu war Altman froh, mehr als eine Stunde mit mir zu sitzen und mich zu unterrichten. Er kam nicht mit einer großen Gruppe von Lobbyisten oder Gefolge. Er zeigte Chatgpt. Es öffnete meine Augen."

In Blumenthal verwandelt Altman einen potenziellen Feind in ein halbfeindliches Produkt. "Ja, der Senator gibt zu, dass ich über seine Aussichten und potenziellen Gefahren begeistert bin." Anstatt sich vor Diskussionen über diese Gefahren zu scheuen, beschrieb sich Openai als die Kraft, die am besten befähigt, sie zu mildern. "Wir haben 100 -seitige Systemkarten für alle Bewertungen für die Sicherheit von Red Teams gemacht", sagte Makanju (was auch immer das bedeutet, es hindert Benutzer und Journalisten nicht daran, den Jailbreak des Systems endlos zu entdecken).

Als Altman mit einer schweren Migräne zum ersten Mal an einer Anhörung des Kongresses teilnahm, war sein Weg eindeutig sichtbar und Bill Gates oder Mark Zuckerberg würden es niemals erreichen können. Er hat kaum die schwierigen Probleme und Arroganz gestoßen, denen Technologie -CEOs nach der Abnahme des Eides häufig begegnen. Stattdessen baten die Senatoren Altman um Rat, wie sie KI regulieren können, und Altman stimmte begeistert zu.

Das Paradoxon ist, dass Unternehmen wie Openai ihre Produkte unabhängig voneinander neu gestalten, um Fehlverhalten wie tiefe Fälschungen, Fehlinformationen und Spam -Verbrechen zu reduzieren. Zukünftige Modelle werden möglicherweise klug genug, um die Bemühungen von Menschen zu vereiteln, die die Technologie erfunden haben, aber immer noch naiv glauben, dass sie es kontrollieren können. Andererseits kann es die Funktionalität des Produkts schwächen und weniger nützlich werden, wenn sie zu viel dazu beitragen, die Sicherheit des Modells zu gewährleisten. Eine Studie zeigt, dass die neueste Version von GPT mit einer verbesserten Sicherheitsleistung tatsächlich dumm ist als frühere Versionen, und bei einigen grundlegenden mathematischen Problemen treten Fehler auf, während frühere Programme sie problemlos bewältigen können. (Altman sagte, OpenAI -Daten bestätigen dies nicht. "Ist diese Studie nicht zurückgezogen? Nein") er fragte.

Es ist sinnvoll, dass Altman sich als Unterstützer der Regulierung positioniert. Schließlich ist seine Mission Agi, aber sicher zu sein. Kritiker beschuldigten ihn, mit regulatorischen Verfahren gespielt zu haben, die die Entwicklung kleiner Startups behindern und offenen und anderen großen Unternehmen Vorteile geben würden. Altman bestritt dies. Während er grundsätzlich damit einverstanden ist, dass eine internationale Einrichtung die KI überwachen würde, glaubt er, dass einige der vorgeschlagenen Regeln, z. B. die Verwendung aller urheberrechtlich geschützten Materialien im Datensatz, unfaire Hindernisse darstellen. Er machte deutlich, dass er einen weit verbreiteten Brief nicht unterschrieben hatte, in dem die Aussetzung der Entwicklung von AI -Systemen sechs Monate lang aufgefordert wurde. Aber er und andere Openai -Führer unterschrieben ihre Namen in einer Erklärung, dass nur ein Satz: „Einfach das Risiko des Aussterbens, die von KI eingebracht wurde, eine globale Priorität haben wie die Risiken in anderen sozialen Skalen wie Pandemien und Atomkriegen.“ Altman erklärte: "Ich sagte: Ja, ich stimme zu. Eine Minute Diskussion."

Wie einer der bekannten Gründer von Silicon Valley darauf hinwies: "Es ist selten für eine Branche, ihre Hände zu heben und zu sagen:" Wir werden die Terminatoren der Menschheit sein "und dann weiterhin Produkte weiterentwickeln."

Openai weigert sich, diese Kritik zu akzeptieren. Altman und sein Team sagen, dass es eine Möglichkeit ist, mit sozialen Risiken umzugehen. Nur durch die Analyse der Reaktionen von ChatGPT- und GPT-4-Benutzern auf Millionen von Aufforderungen können sie Wissen erlangen, die zukünftige Produkte ethisch bringen werden.

Da Unternehmen jedoch mehr Aufgaben übernehmen und mehr Energie in Geschäftsaktivitäten einbringen, gibt es Fragen zu dem Ausmaß, in dem OpenAI auf die Erledigung von Aufgaben konzentrieren kann, insbesondere im Hinblick auf das „Verringerung des Aussterbenrisikos“. Ein Manager der KI -Industrie sagte: "Denken Sie darüber nach, sie bauen tatsächlich fünf Unternehmen auf. Das Produkt selbst, die Unternehmensbeziehung zu Microsoft, dem Entwickler -Ökosystem und dem App Store. Übrigens betreiben sie offensichtlich immer noch AGI -Forschung." Nachdem er fünf Finger verbraucht hatte, fügte er mit seinem Zeigefinger einen sechsten Finger hinzu. "Natürlich investieren sie immer noch in Gelder", sagte er und bezog sich auf ein 175 -Millionen -Dollar -Projekt, das darauf abzielt, Startups für Start -ups bereitzustellen, die OpenAI -Technologie nutzen möchten. "Dies sind unterschiedliche Kulturen, und tatsächlich stehen sie in Konflikt mit der Forschungsmission."

Ich habe OpenAI -Führungskräfte oft gefragt, wie sich die Auswirkungen der Deckung eines Produktunternehmens auf die Kultur des Unternehmens auswirken. Sie bestehen ausnahmslos, dass die Mission trotz der gewinnorientierten Umstrukturierung trotz des Wettbewerbs mit Google, Meta und unzähligen Startups im Herzen bleibt. Openai hat sich jedoch verändert. Technisch gesehen kann ein gemeinnütziger Vorstand die verantwortliche Person sein, aber fast jeder im Unternehmen ist gewinnorientiert. Zu den Mitarbeitern des Unternehmens zählen Anwälte, Vermarkter, Richtlinienexperten und Benutzeroberflächendesigner. OpenAI -Verträge mit Hunderten von Inhaltsprüfung, um ihre Modelle zu informieren, um unangemessene oder schädliche Antworten auf Tipps zu verstehen, die von Millionen von Benutzern bereitgestellt werden. Die Produktmanager und Ingenieure des Unternehmens haben ihre Produkte ständig aktualisiert und scheinen ihnen Journalisten alle paar Wochen zu zeigen-genau wie andere große Technologieunternehmen, die produktorientiert sind. Das Büro sieht aus wie eine architektonische Verdauung. Ich habe fast jedes große Tech -Unternehmen im Silicon Valley und anderswo besucht, aber keiner von ihnen kann die Kaffeeoptionen in der Lobby in der San Francisco -Hauptquartier von OpenAI übertreffen.

Dies wird nicht gezählt: Es ist offensichtlich, dass die in dem Namen des Unternehmens widerspiegelnde "Offenheit" nicht mehr die vollständige Transparenz ist, die zu Beginn des Unternehmens vorgeschlagen wurde. Er zuckte die Achseln, als ich es Sutskever erwähnte. "Offensichtlich haben sich die Zeiten geändert", sagte er. Aber er erinnerte daran, dass dies nicht bedeutet, dass die Preise unterschiedlich sind. "Wir stehen vor einem riesigen, katastrophalen technologischen Wandel, den wir nicht garantieren können, selbst wenn wir unser Bestes geben. Aber wenn alles gut läuft, können wir ein unglaubliches Leben führen."

"Ich kann es nicht zu viel ausdrücken, wir haben keinen Masterplan", sagte Altman. "Es ist, als ob wir jede Ecke drehen und sie mit einer Taschenlampe beleuchten. Wir sind bereit, das Labyrinth bis zum Ende durchzugehen. Obwohl das Labyrinth geworden ist, hat sich das Ziel nicht geändert. Unsere Kernmission ist immer noch zu glauben, dass sich sicheres Agi äußerst wichtig ist und die Welt es nicht genug geschätzt hat."

In der Zwischenzeit entwickelt OpenAI die nächste Version seines großen Sprachmodells eindeutig langsam. Obwohl das Unternehmen unglaublich ist, besteht es darauf, dass die Entwicklung des GPT-5 noch nicht begonnen hat, und aufgrund verschiedener Perspektiven speichern oder entmutigend über das Produkt. OpenAI arbeitet offensichtlich hart daran, zu untersuchen, wie es aussieht, um exponentiell leistungsstarke Verbesserungen auf der Grundlage vorhandener Technologien vorzunehmen. "Unser größter Mangel ist, dass es keine neuen Ideen gibt. Es ist eine gute Sache, etwas zu haben, das ein virtueller Assistent sein kann. Aber es ist nicht unser Traum. Träume helfen uns, Probleme zu lösen, die wir nicht lösen können."

Angesichts der Geschichte von OpenAI muss die nächste Reihe wichtiger Innovationen möglicherweise warten, bis ein großer Durchbruch wie Transformator erscheint. Altman hofft, dass Openai dieses Ziel erreichen kann: „Wir wollen das beste Forschungslabor der Welt sein“, sagte er, aber selbst wenn nicht, wird sein Unternehmen die Fortschritte anderer nutzen, genau wie die Arbeit von Google. "Viele Menschen auf der ganzen Welt werden wichtige Jobs machen", sagte er.

Es wird auch helfen, wenn generative KI nicht so viele neue Probleme selbst erzeugt. Beispielsweise müssen Großsprachmodelle auf riesigen Datensätzen geschult werden. Offensichtlich werden die leistungsstärksten großen Sprachmodelle das gesamte Internet auffressen. Dies stellt einige Ersteller und gewöhnliche Personen auf, die in gewissem Maße Inhalte für diese Datensätze bereitstellen und zur Ausgabe von ChatGPT beitragen. Tom Rubin, ein Anwalt für geistiges Eigentum, der im März offiziell Openai angeschlossen ist, ist optimistisch, dass das Unternehmen schließlich ein Gleichgewicht finden wird, das seine eigenen Bedürfnisse und Schöpfer erfüllt - einschließlich derjenigen wie der Comedian Sarah Silverman verklagten Schöpfer, die seine Inhalttrainingsmodelle verwenden. Eine der Anweisungen von OpenAI ist es, mit Nachrichten- und Bildagenturen wie dem Associated Press und Shutterstock zu arbeiten, um Inhalte für ihre Modelle bereitzustellen, ohne die Frage zu wem.

Während meines Interviews mit Rubin wanderte mein Geist in menschlichen Köpfen, die in großer Sprachmodellen noch nie gesehen worden waren, und ich dachte, dass das Unternehmen in nur acht Jahren von einer kämpfenden Gruppe von Forschern zu einem weltweit verändernden Prometheus-Giganten geworden war. Sein Erfolg hat es von der neuartigen Bemühungen verändert, um wissenschaftliche Ziele in ein Unternehmen zu erreichen, das dem Standard -Silicon Valley Unicorn ähnelt, das sich den Reihen der großen Technologieunternehmen anschließt, die sich auf unser tägliches Leben auswirken. Hier spreche ich mit einem seiner Hauptangestellten, einem Anwalt, nicht über neuronale Netzwerke oder Computerinfrastruktur, sondern über das Urheberrecht und die faire Verwendung. Ich kann nicht anders, als zu fragen: Ist dieser Experte für geistiges Eigentum auch der Mission des Unternehmens wie jene Navigatoren, die Super Intelligence verfolgen, die die Entwicklung des Unternehmens förderten?

Als ich Rubin fragte, ob er überzeugt wäre, dass Agi definitiv umgesetzt werden würde, und wenn er bestrebt wäre, dies zu erreichen, schien er ratlos zu sein. Er machte eine Pause und sagte: "Ich kann diese Frage nicht einmal beantworten." Als er weiter gefragt wurde, stellte er klar, dass seine Aufgabe als Anwalt für geistiges Eigentum nicht darin besteht, die Umsetzung furchterregender intelligenter Computer zu beschleunigen. Er schloss: "Aus meiner Sicht freue ich mich darauf."

Originalautor: Steven Levy

Originallink:

https://www.rired.com/story/what-openai-really-wants/

Zusammengestellt von: Hazel Yan

<<:  Eine Bestandsaufnahme der „Weisheit des Salzigen“! Welche Methoden verwendeten die Alten zur Salzherstellung?

>>:  Kann Bittermelone den Blutzucker senken, weil sie diese beiden Wirkstoffe enthält?

Artikel empfehlen

Warum gibt es keine bezahlbaren Ultrabooks?

Als Intel im Jahr 2011 das neue Konzept „Ultrabook...

So trainieren Sie die Bauchmuskeln im Fitnessstudio

Im Leben gibt es viele Freunde, die Fitness mögen...

Was genau passiert, wenn Sie beim Training schwitzen?

Wenn der menschliche Körper trainiert und eine be...

Shenzhou und Tianzhou, was sind die Unterschiede zwischen ihnen?

Wie viel wissen Sie über das bemannte Raumschiff ...

Es gibt tatsächlich Menschen, die mit ihrem Leben „grillen“?

Wie groß ist die Fantasie von Feinschmeckern? kür...