Dieser Artikel ist der zweite Teil des Artikels zum 120. Geburtstag von Neumanns. Im ersten Teil stellte der berühmte Mathematiker Ulam hauptsächlich von Neumanns Arbeiten in der Mathematik vor, insbesondere in die mathematische Logik, Mengenlehre, Hilbert-Räume und Operatortheorie. und im zweiten Teil werden seine Beiträge zur theoretischen Physik, Spieltheorie, numerischen Berechnung, Computertheorie und zum Manhattan-Projekt vorgestellt. Von Neumann führte tiefgehende Untersuchungen in einem so breiten Spektrum von Bereichen durch, dass man sich unweigerlich fragt: Gibt es einen roten Faden in seiner Forschung? Vielleicht können wir anhand seiner Behandlung praktischer Probleme seine tieferen Ziele und Ideale als Problemlöser erkennen und verstehen, warum er zum Vater des modernen Computers werden könnte. Von Stanisław Ulam Übersetzung | Yuanyuan Theoretische Physik Professor Léon Van Hove beschreibt seine Arbeit in der theoretischen Physik in Von Neumanns Beiträgen zur Quantentheorie. In dem bereits erwähnten Fragebogen der National Academy of Sciences wählte von Neumann die mathematischen Grundlagen der Quantentheorie und den Ergodensatz als seine wichtigsten wissenschaftlichen Beiträge (zusammen mit der zuvor besprochenen Operatortheorie). Diese Wahl oder vielmehr Einschränkung mag den meisten Mathematikern seltsam erscheinen, ist aber psychologisch interessant. Dies scheint darauf hinzudeuten, dass es vielleicht einer seiner größten Wünsche und stärksten Beweggründe war, die Rolle der Mathematik auf der konzeptionellen Ebene in der theoretischen Physik wiederherzustellen. Seit dem Ende des Ersten Weltkriegs ist die Trennung zwischen abstrakter mathematischer Forschung und dem Mainstream-Denken in der theoretischen Physik nicht mehr zu leugnen. Von Neumann äußerte oft die Sorge, dass die Mathematik möglicherweise nicht in der Lage sei, mit dem exponentiellen Wachstum der Probleme und Ideen in der Physik Schritt zu halten. Ich erinnere mich, dass ich in einem Gespräch die Sorge äußerte, es könne sich um eine Art malthusianische1 Divergenz handeln: Physik und Technologie würden mit einer geometrischen Rate wachsen, während die Mathematik mit einer arithmetischen Rate wachse. Er sagte, dass dies tatsächlich der Fall sein könnte. In den darauffolgenden Diskussionen klammerten wir uns jedoch beide an die Hoffnung, dass die mathematischen Methoden in den exakten Wissenschaften noch lange ihren konzeptionellen Einfluss behalten würden! Artikel [7]2 wurde von Neumann, Hilbert und Lothar Nordheim3 gemeinsam verfasst. Es basiert laut Vorwort auf Vorlesungen Hilberts über neue Entwicklungen in der Quantentheorie aus dem Winter 1926 und wurde mit Hilfe Nordheims fertiggestellt. Laut der Einleitung stammen die wichtigen mathematischen Teile und Diskussionen dieses Papiers von von Neumann. Der erklärte Zweck dieses Dokuments besteht darin, Wahrscheinlichkeitsbeziehungen anstelle der strengen funktionalen Beziehungen der klassischen Mechanik einzuführen. Darüber hinaus werden die Ideen von Jordan und Dirac auf wesentlich einfachere und zugänglichere Weise präsentiert. Auch heute, 30 Jahre später, können die historische Bedeutung und Wirkung von von Neumanns Arbeit und seiner nachfolgenden Arbeit daran kaum überschätzt werden. Hilberts großes Programm der Axiomatisierung fand hier eine weitere wichtige Anwendung, nämlich den Isomorphismus zwischen physikalischen Theorien und den entsprechenden mathematischen Systemen. In der Einleitung des Artikels wird deutlich gemacht, dass es schwierig ist, eine Theorie zu verstehen, wenn ihre Formalisierung und ihre physikalische Interpretation nicht klar und vollständig getrennt sind. Diese Trennung ist der Zweck dieses Dokuments, obwohl anerkannt wird, dass eine vollständige Axiomatisierung derzeit nicht möglich ist. Wir können hier hinzufügen, dass diese vollständige Axiomatisierung der relativistisch invarianten Quantentheorie mit ihrer Anwendung auf nukleare Phänomene noch erreicht werden muss. 4 Dieser Aufsatz skizziert die Operatorrechnung entsprechend physikalischer Observablen und erörtert die Eigenschaften hermitescher Operatoren. Zusammen bilden sie das Vorwort zu den „Mathematical Principles of Quantum Mechanics“ (Mathematical Principles of Quantum Mechanics). Von Neumanns klare und präzise Ideen zur Rolle der statistischen Mechanik in der Quantentheorie und dem Messproblem finden sich in seiner Arbeit [10]5. Sein berühmtes Werk „Mathematical Foundations of Quantum Mechanics“ (Mathematical Foundations of Quantum Mechanics) enthält eine detaillierte Diskussion der axiomatischen Behandlung, der Messtheorie und der Statistik. Mindestens zwei mathematische Beiträge sind in der Geschichte der Quantenmechanik wichtig: Diracs mathematische Behandlung genügt nicht immer den Anforderungen mathematischer Genauigkeit. Beispielsweise wird angenommen, dass jeder selbstadjungierte Operator diagonalisiert werden kann, was dazu zwingt, Diracs berühmte „anomale“ Funktionen für Operatoren einzuführen, für die dies nicht möglich ist. Wie von Neumann es ausdrückte, schien es a priori so, dass die Quantentheorie eine neue Form der Analyse unendlich vieler Variablen erforderte, ebenso wie die Newtonsche Mechanik (damals) eine paradoxe Infinitesimalrechnung erforderte. Von Neumanns Arbeit zeigte, dass dies nicht der Fall war. Das heißt, die Transformationstheorie könnte auf eine explizite mathematische Grundlage gestellt werden, und zwar nicht durch die detaillierte Befolgung von Diracs Methode, sondern durch die Weiterentwicklung von Hilberts Spektraltheorie der Operatoren. Dies gelang ihm insbesondere durch seine Arbeiten zu unbegrenzten Operatoren, die über die klassische Theorie von Hilbert, Frigyes Riesz und Schmidt u. a. hinausgingen. Der zweite Beitrag bildet den Hauptteil der Kapitel 5 und 6 seines Buches. Es hängt mit den Problemen der Messung und Reversibilität in der Quantentheorie zusammen. Fast von Anfang an, als die Ideen von Heisenberg, Schrödinger, Dirac und Born ihren ersten sensationellen Erfolg erzielten, stellte man Fragen zur Rolle des Indeterminismus in der Theorie und schlug vor, ihn durch die Postulierung möglicher „versteckter“ Parameter (latenter Variablen) zu erklären, die, wenn sie in der Zukunft entdeckt würden, zu einer deterministischeren Beschreibung der Theorie führen würden. Von Neumann zeigte, dass die von der Theorie beschriebenen statistischen Merkmale nicht auf den unbekannten Zustand des Beobachters zurückzuführen waren, der die Messungen durchführte. Das System von Beobachtetem und Beobachter führt zu einer unbestimmten Beziehung, selbst wenn man den genauen Zustand des Beobachters akzeptiert. Dies erweist sich als eine Folge von a priori Annahmen über die allgemeine Natur der Verknüpfung physikalischer Größen mit Operatoren im Hilbert-Raum. 6 Diese Arbeit ist definitiv der erste und wichtigste Beitrag, der die Ideen der neuen Quantentheorie in einer Form präsentiert, die sowohl mathematikerfreundlich als auch technisch interessant ist. Weil es versucht, eine rationale Darstellung von Theorien zu liefern, die ursprünglich von Physikern entwickelt wurden – sie stützten sich auf Intuitionen, die nicht jeder verstand; es hat auch einen großen pädagogischen Wert. Obwohl nicht mit Sicherheit gesagt werden kann, ob diese Arbeit neue physikalische Ideen für die später entdeckten, rätselhafteren physikalischen Phänomene lieferte – schließlich war die Quantentheorie, die Schrödinger, Heisenberg, Dirac und andere in jenen Jahren konstruierten –, immerhin nur ein unvollständiges theoretisches Gerüst –, lieferte von Neumann immerhin eine logisch und mathematisch klare Grundlage für ihre rigorose Behandlung. Analysis, Numerische Berechnung und Fluiddynamik In einer frühen Arbeit [33]7 bewies von Neumann Radós fundamentales Lemma in der Variationsrechnung durch eine einfache geometrische Konstruktion. (Das Lemma besagt, dass eine Funktion z = f(x, y) die Lipschitz-Bedingung für ein konstantes Δ erfüllt, wenn es keine Ebene mit einem maximalen Neigungswinkel Δ gibt, der größer ist als der, der die Grenze der durch die gegebene Funktion definierten Oberfläche an drei oder mehr Punkten schneidet.) Dieses Papier ist auch insofern interessant, als dass seine Beweismethode direkte geometrische Visualisierungen beinhaltet, was in den veröffentlichten Arbeiten von Neumanns selten ist. Die Arbeit [41]9 ist eine der bemerkenswertesten Errungenschaften der mathematischen Analysis im letzten Vierteljahrhundert. Es lieferte das erste exakte mathematische Ergebnis auf dem gesamten Gebiet: eine rigorose Behandlung der Ergodenhypothese in der statistischen Mechanik. Von Neumann wurde von Bernard Koopman10 inspiriert, der entdeckt hatte, dass es möglich war, das Studium dynamischer Systeme nach Hamilton auf das Studium von Operatoren im Hilbert-Raum zu reduzieren. Mithilfe von Koopmans Darstellung bewies von Neumann den sogenannten schwachen Ergodensatz, der besagt, dass der Mittelwert einer Funktion iterierter, maßerhaltender Transformationen auf einem Maßraum im Maß konvergiert. Dieser Satz wurde bald von GD Birkhoff in einer Form bekräftigt, die fast überall konvergiert und damit die erste strenge mathematische Grundlage für die klassische statistische Mechanik lieferte. Die nachfolgenden Entwicklungen auf diesem Gebiet und die vielen Verallgemeinerungen dieser Ergebnisse sind bekannt und werden hier nicht beschrieben. Dieser Erfolg war wiederum auf von Neumanns Beherrschung analytisch inspirierter Techniken der Mengenlehre zurückzuführen, kombiniert mit seiner ursprünglichen Arbeit über Operatoren im Hildesheim-Raum. Es gibt einen weiteren Bereich der mathematischen Physik, der mithilfe moderner Analysis im allgemeinen Sinne ebenfalls mit großer Präzision untersucht werden kann. Auch hier wurden zu Beginn große Fortschritte erzielt, aber die Geschichte ist natürlich noch nicht zu Ende; die mathematische Behandlung der Grundlagen der statistischen Mechanik reicht für die klassische Dynamik bei weitem nicht aus! Die Kenntnis des Ergodensatzes und der Existenz metrisch transitiver Transformationen11 ist zwar gut und schön, aber diese Fakten bilden nur die Grundlage des Themas. Von Neumann äußerte in Gesprächen oft die Ansicht, dass zukünftige Fortschritte auf diesem Gebiet von Theoremen wie diesen abhängen würden – Theoremen, die eine zufriedenstellende mathematische Behandlung nachfolgender Teile des Themas ermöglichen würden. Die Boltzmann-Gleichung erforderte eine vollständige mathematische Theorie und die Geschwindigkeit, mit der sich ein System dem Gleichgewicht nähert, erforderte präzise Theoreme. Von Neumanns Arbeit [86]14, die vielleicht weniger berühmt ist als sie verdient, zeigt von Neumanns zunehmendes Interesse an Approximationsproblemen und numerischen Berechnungen. Meiner Meinung nach hat es einen erheblichen pädagogischen Wert. Er untersuchte die Eigenschaften einer endlichen Anzahl von N×N-Matrizen bei großem N und das Verhalten des Raums, der aus allen linearen Operationen im N-dimensionalen komplexen euklidischen Raum besteht. Der Artikel ist unkompliziert und in der Einleitung wird deutlich darauf hingewiesen, dass diese asymptotische Methode zur Untersuchung des Grenzfalls (d. h. unendlichdimensionaler unitärer Raum, d. h. Hilbert-Raum) im Vergleich zu den üblichen Methoden ungerechtfertigt vernachlässigt wurde. (Diese Aussage ist seltsamerweise fast das Gegenteil der Ansicht, die er in der Einleitung zu seinem Buch „Mathematical Foundations of Quantum Mechanics“ zum Ausdruck bringt.) Zusammenfassend wird in diesem Artikel die folgende Frage erörtert: Welche Matrizen der Ordnung N verhalten sich oder verhalten sich annähernd wie Matrizen der Ordnung m, wobei m klein im Vergleich zu N und ein Faktor von N ist? Das Konzept des ungefähren Verhaltens wird unter einer gegebenen Metrik oder Pseudometrie im Matrixraum exakt. Ich möchte hinzufügen, dass die grundlegenden argumentativen Merkmale dieses Artikels lobenswert sind und in seiner Untersuchung von Hilbert-Räumen nicht immer deutlich werden. Von Neumanns Ideen wurden in einem gemeinsam mit Valentine Bargmann und Deane Montgomery verfassten Artikel fortgeführt[91]15. Der Artikel enthält verschiedene Methoden zur Lösung linearer Gleichungssysteme und man erkennt, dass von Neumann begonnen hatte, die Möglichkeit in Betracht zu ziehen, für Berechnungen die damals bereits verfügbaren elektronischen Maschinen zu verwenden. Die Kriegsjahre erforderten schnelle Schätzungen und Näherungsergebnisse für angewandte analytische Probleme, die oft nicht so „sauber“ waren. Das heißt, es ist mathematisch „inhomogen“ und beinhaltet neben dem Hauptprozess des zu berechnenden physikalischen Phänomens viele externe Störungen, deren Auswirkungen nicht ignoriert oder gar in den zusätzlichen Variablen getrennt werden können. Diese Situation tritt bei heutigen technischen Problemen häufig auf und zwingt die Leute dazu, zumindest in der Anfangsphase numerische Methoden zu verwenden, nicht weil sie hochpräzise Ergebnisse benötigen, sondern nur, um eine qualitative Analyse zu erreichen! Von Neumanns Interesse an der numerischen Analyse hatte zu diesem Zeitpunkt bereits stark zugenommen, und er war sich dieser Tatsache bewusst, die für mathematische Puristen vielleicht etwas traurig ist. In einem gemeinsam mit HH Goldstine [94]16 verfassten Artikel untersuchten sie das Problem der numerischen Inversion von Matrizen höherer Ordnung und versuchten, genaue Fehlerabschätzungen vorzunehmen. Dabei kamen sie zu interessanten Ergebnissen hinsichtlich der erreichbaren Genauigkeit bei der Inversion von Matrizen der Ordnung ~150. Die Schätzungen werden „unter normalen Umständen“ ermittelt. („Im Allgemeinen“ bedeutet, dass diese Schätzungen unter glaubwürdigen statistischen Annahmen für alle Fälle außer einer kleinen Anzahl von Fällen mit geringer Wahrscheinlichkeit zutreffen.) Die Notwendigkeit, Probleme in Mathematik, Physik und Ingenieurwissenschaften schnell zu lokalisieren und zu lösen, führte zur Entwicklung schneller elektronischer Computer. Als Nebeneffekt erhalten die Leute die Möglichkeit, einer Arbeit nachzugehen, die ihnen mehr Spaß macht! Bis zu einem gewissen Grad befriedigt es die Neugier der Leute hinsichtlich einiger interessanter Ganzzahlfolgen. Das einfachste Beispiel ist die Häufigkeit einer bestimmten Zahlenfolge innerhalb von Zehntausenden von Dezimalstellen (unendlich und nicht wiederholend) von e und π. Eine solche Berechnung, die auf einer Maschine am Institute for Advanced Study durchgeführt wurde, ergab die Kubikwurzel von 2 als die ersten 2000 Partialquotienten in ihrer Kettenbruchentwicklung. Johnny war immer an solchen experimentellen Arbeiten interessiert, egal wie einfach das Problem war. Während einer Diskussion dieser Probleme in Los Alamos fragte er nach „interessanten“ Zahlen, deren Kettenbruchformen berechnet werden könnten. Gegeben ist eine irrationale Größe y vierter Ordnung, die durch die Gleichung y=1/(x+y) gegeben ist, wobei x=1/(1+x). Bei seiner Erweiterung können einige seltsame Muster auftreten. Es gab Pläne, viele andere Zahlen zu berechnen, aber ich weiß nicht, ob dieses kleine Projekt jemals tatsächlich durchgeführt wurde. Spieltheorie Die Spieltheorie stellt ein neues Kapitel in der sich heute rasch entwickelnden Mathematik dar und wurde im Wesentlichen von Neumann entwickelt. Seine grundlegenden Arbeiten auf diesem Gebiet werden in einem Artikel von AW Tucker und HW Kuhn in derselben Ausgabe der Zeitschrift vorgestellt18. „Es genügt zu sagen, dass diese Studien sein reichhaltigstes und einflussreichstes Werk widerspiegeln. Im Jahr 1921 schlug Émile Borel in einer Notiz in Comptes-Rendus erstmals ein mathematisches Schema für die Spielstrategie zweier Spieler vor. Die eigentliche Begründung dieser Disziplin geht vermutlich auf die Arbeit von Neumanns[17]19 zurück. In dieser Arbeit bewies von Neumann den grundlegenden „Minimax“-Satz und formulierte ein allgemeines Schema für Spiele zwischen n Spielern (n ≥ 2). Neben ihrer Bedeutung und Anwendung für praktische Spiele in Bereichen wie der Wirtschaftswissenschaft haben diese Lösungen auch eine große Zahl neuartiger kombinatorischer Probleme im rein mathematischen Sinne hervorgebracht. Der Satz, dass Min Max = Max Min, sowie ein Korollar zur Existenz von Sattelpunkten für Funktionen mit mehreren Variablen sind in seiner Arbeit von 1937 [72]20 enthalten. Es wird gezeigt, dass sie eine Verallgemeinerung des Fixpunktsatzes von Brouwer und der folgenden geometrischen Tatsache darstellen: Seien S und T zwei geschlossene Teilmengen; Nehmen wir an, dass für jedes Element x von S die Menge Q(x)={y:(x, y)∈V} eine nichtleere konvexe abgeschlossene Menge ist; Ähnlich verhält es sich, wenn für jedes Element y in T die Menge P(y)={x:(x, y)∈W} eine nichtleere konvexe abgeschlossene Menge ist. Dann haben die Mengen V und W mindestens einen gemeinsamen Punkt. Dieses Theorem, das später von Shizuo Kakutani, John Nash, George W. Brown und anderen weiterentwickelt wurde, spielte eine zentrale Rolle beim Beweis der Existenz „guter Strategien“. Die Spieltheorie, einschließlich der aktuellen Untersuchung unendlicher Spiele (erstmals um 1930 von Stanisław Mazur in Polen vorgeschlagen), boomt. Ein einziger Blick auf die in den drei Bänden von Contributions to Game Theory [102;113;114]21 enthaltenen Arbeiten genügt, um den Reichtum des Denkens auf diesem Gebiet zu verdeutlichen – die Vielfalt der genialen Aussagen im rein mathematischen Sinne und die wachsende Zahl wichtiger Anwendungen; Es gibt auch viele einfach formulierte, aber ungelöste Probleme. Wirtschaft In ihrem klassischen Aufsatz „Theorie der Spiele und des ökonomischen Verhaltens“[90]22 legten Oskar Morgenstern und John von Neumann die Spieltheorie in einer rein mathematischen Form dar und beschrieb sehr detailliert ihre Anwendung auf tatsächliche Spiele. Darüber hinaus wurden verschiedene Ansätze zum wirtschaftlichen Verhalten und zu bestimmten soziologischen Problemen vorgestellt, verbunden mit einer Diskussion einiger grundlegender Fragen der Wirtschaftstheorie. Der Ökonom Oscar Morgenstern, ein langjähriger Freund von Neumanns in Princeton, interessierte sich für alle Aspekte der wirtschaftlichen Situation, insbesondere für den Warenaustausch zwischen zwei oder mehr Personen und die Probleme von Monopol, Oligopol und freiem Wettbewerb. Bei dem Versuch, die Mathematisierung dieser Prozesse zu diskutieren, begann die Theorie ihre heutige Form anzunehmen. Viele aktuelle Anwendungen in der Operationsforschung, bei Kommunikationsproblemen und in Abraham Walds23 Theorie der statistischen Schätzung basieren entweder auf den in dieser Monographie vorgeschlagenen Ideen und Konzepten oder greifen auf diese zurück. Wir können in diesem Artikel nicht einmal ansatzweise den Umfang dieser Untersuchungen skizzieren. Interessierte Leser finden eine Beschreibung dieser Probleme in Leonid Hurwicz24s Buch „The theory of economic behavior“25 und Jacob Marshak26s Buch „Neumann’s and Morgenstern’s new approach to static economics“27. Dynamik, Kontinuumsmechanik und meteorologische Informatik In zwei gemeinsam mit S. Chandrasekhar [84 und 88]28 verfassten Artikeln betrachteten sie das folgende Problem: Angenommen, die Schwerpunkte seien zufällig verteilt, wie beispielsweise viele Sterne in einem Sternhaufen oder einem Nebel, und diese massereichen Objekte seien in Bewegung und würden sich gegenseitig anziehen. Das Problem besteht darin, die statistischen Konsequenzen der Schwankungen des Gravitationsfeldes zu erforschen und die Bewegung einzelner Massen zu untersuchen, da diese von Änderungen in den verschiedenen lokalen Verteilungen beeinflusst werden. In der ersten Arbeit lösten sie das Problem der Schwankungsrate der Verteilungsfunktion der Gravitation durch geschickte Berechnungen und erhielten die allgemeine Formel für die Wahrscheinlichkeitsverteilung W(F, ƒ), wobei F die Gravitationsfeldstärke und die zugehörige Änderungsrate ƒ die Ableitung von F nach der Zeit ist. Zu den erhaltenen Ergebnissen gehört der folgende Satz: Bei schwachen Feldern ist die Wahrscheinlichkeit einer Änderung des zu einem bestimmten Zeitpunkt wirkenden Feldes unabhängig von der Richtung und Größe des ursprünglichen Feldes; Bei starken Feldern hingegen ist die Wahrscheinlichkeit einer Änderung der Richtung des ursprünglichen Feldes doppelt so hoch wie die Wahrscheinlichkeit einer Änderung in der senkrechten Richtung. Das zweite Papier ist der statistischen Analyse der Schwankungsrate der auf einen Stern pro Masseneinheit wirkenden Gravitationskraft gewidmet, wenn sich der Schwerpunkt des Sterns mit einer Geschwindigkeit V relativ zu seinen Nachbarsternen bewegt. Das Problem wurde unter der Annahme gelöst, dass die Sterne eine gleichmäßige Poisson-Verteilung aufweisen und die lokalen Geschwindigkeiten kugelförmig sind. Sie lösten es auch für die allgemeine Verteilung verschiedener Massen und lieferten Ausdrücke für die Gravitationskraft, die auf zwei sehr nahe beieinander liegende Punkte wirkt. Diese Methode liefert das asymptotische Verhalten der räumlichen Korrelation. Von Neumann interessierte sich schon lange für das Phänomen der Turbulenz. Ich erinnere mich an die Diskussion im Jahr 1937 über die Möglichkeit einer statistischen Behandlung der Navier-Stokes-Gleichungen, die die Analyse der Strömungsdynamik durch Ersetzen dieser partiellen Differentialgleichungen durch eine unendliche Anzahl totaler Differentialgleichungen ermöglichte, die durch die Fourierkoeffizienten in der Fourier-Entwicklung der Lagrange-Funktion erfüllt wurden. Ein vervielfältigter Bericht von Neumann für das Office of Naval Research aus dem Jahr 1949 mit dem Titel „Recent theory of turbules“ (Neuere Theorie der Turbulenzen) bietet eine aufschlussreiche und klare Einführung in die Ideen von Lars Onsager und Andrey Kolmogoroff sowie in andere Arbeiten dieser Zeit. Mit Beginn des Zweiten Weltkriegs untersuchte von Neumann die Probleme, die sich aus der Bewegung komprimierbarer Gase ergaben, insbesondere die rätselhaften Phänomene, die durch ihr diskontinuierliches Verhalten verursacht wurden, wie etwa Stoßwellen. Ein Großteil seiner Forschung auf diesem Gebiet zielte auf die Lösung von Problemen ab, die bei der Landesverteidigung auftraten. Sie werden in Form von Berichten veröffentlicht, von denen einige im Anhang aufgeführt sind. (Anmerkung des Herausgebers: Siehe Originalartikel.) Es ist nicht möglich, seine umfangreiche und vielfältige Arbeit auf diesem Gebiet zusammenzufassen. Vieles davon spiegelt seine scharfen analytischen Fähigkeiten und seine stets klare Logik wider. Besonders hervorzuheben sind seine Beiträge zur Theorie der Kollisions-Stoß-Wechselwirkungen. Ein Ergebnis war, dass er den ersten strengen Beweis für die Chapman-Jouguet-Hypothese eines explosiven Prozesses lieferte, d. h. eines durch einen Stoß ausgelösten Verbrennungsprozesses. Auch die erste systematische Untersuchung der Theorie der Stoßwellenreflexion stammte von Neumann (Fortschrittsbericht zur Theorie der Stoßwellen, NDRC, Div. 8, OSRD, Nr. 1140, 1943; Schräge Reflexion von Stoßwellen, Navy Department, Explosive Research Report Nr. 12, 1943). Wie bereits erwähnt, übersteigt selbst die qualitative Analyse der Bewegung komprimierbarer Medien in zwei oder drei Dimensionen die Möglichkeiten der aktuellen expliziten Analyse. Schlimmer noch ist, dass die mathematischen Grundlagen einer Theorie zur Beschreibung solcher physikalischen Phänomene möglicherweise noch nicht festgelegt sind. Von Neumanns Standpunkt kommt in seinem Kommentar in [108]29 gut zum Ausdruck: Es ist eine ziemlich schwierige und mehrdeutige Frage, ob die Lösungen, die man durch mathematisches Denken findet, tatsächlich in der Natur vorkommen und ob man die Existenz bestimmter Lösungen mit guten oder schlechten Eigenschaften von vornherein ausschließen kann. Diese Frage wurde sowohl in der klassischen als auch in der neueren Literatur untersucht, unterscheidet sich jedoch stark in ihrer Strenge und sogar in der Grobheit der Ansätze. Kurz gesagt, es ist sehr schwierig, sich auf diesem Gebiet über irgendetwas sicher zu sein. Mathematisch gesehen befinden wir uns in einem Zustand ständiger Unsicherheit, da die allgemeinen Theoreme, die wir für die Existenz und Eindeutigkeit von Lösungen suchen, nie bewiesen wurden und in ihrer scheinbaren Form durchaus falsch sein können. Dann schrieb er: Unter Berücksichtigung von Unstetigkeiten, der Forderung nach vernünftigem thermodynamischem Verhalten usw. gibt es in der Strömungsmechanik eine Vielzahl mathematischer Möglichkeiten. Es mag Bedingungen geben, unter denen jedes vernünftig formulierte Problem genau eine Lösung hat. Wir können diese jedoch nur erraten; bei unserer Suche danach verlassen wir uns fast ausschließlich auf unsere physikalische Intuition. Daher können wir uns nie ganz sicher sein. Und wir können kaum sagen, wie sicher wir auch sein mögen, dass eine gefundene Lösung in der Natur existieren muss. Schon um heuristische Erkenntnisse zu diesen schwierigen Problemen zu gewinnen, muss man auf numerische Arbeit unter besonderen Bedingungen zurückgreifen. In einer Reihe von Berichten diskutierte von Neumann Themen wie optimale numerische Verfahren, Differenzschemata und die numerische Stabilität von Berechnungsschemata. Besonders hervorzuheben ist sein gemeinsamer Aufsatz mit Robert D. Richtmyer [100]30, in dem sie, um sich nicht speziell mit Stoßbedingungen und Diskontinuitäten auseinanderzusetzen, eine rein mathematische fiktive Viskosität einführten, die es ermöglichte, die Stoßbewegung schrittweise zu berechnen, indem sie den gewöhnlichen Gleichungen der Fluiddynamik folgten, ohne explizite Annahmen über die Stoßbewegung machen zu müssen. Die gewaltigen mathematischen Probleme, die sich aus den Gleichungen der Strömungsdynamik ergeben, die die Bewegung der Erdatmosphäre bestimmen, faszinierten von Neumann schon seit geraumer Zeit. Mit dem Aufkommen von Computern wurde es möglich, detaillierte numerische Studien zumindest vereinfachter Versionen des Problems durchzuführen, und er begann ein gewaltiges Projekt. Am Institute for Advanced Study in Princeton wurde eine meteorologische Forschungsgruppe gegründet.31 Ihr Plan bestand darin, numerische Wetterprobleme schrittweise zu lösen, indem sie Modelle verwendete, die der wahren Natur der Atmosphäre immer näher kamen. Derzeit sind numerische Untersuchungen echter dreidimensionaler Bewegungen selbst auf den modernsten elektronischen Computern nicht durchführbar. (Dies trifft in, sagen wir, fünf Jahren möglicherweise nicht mehr zu. Anmerkung des Herausgebers: Dieser Artikel wurde 1958 geschrieben.) Die ersten stark stilisierten Berechnungen, die von Neumann initiiert wurden, beschäftigten sich mit zweidimensionalen Modellen, meist mit der sogenannten geostrophischen Näherung. Später konnten durch die Annahme von zwei oder drei 2D-Modellen, die der Wechselwirkung verschiedener Höhen oder Druckniveaus entsprechen, sogenannte „2 + 1/2“-dimensionale Strömungsdynamikberechnungen durchgeführt werden. Das Problem war für ihn von großer Bedeutung, nicht nur wegen seines intrinsischen mathematischen Interesses, sondern auch, weil eine erfolgreiche Lösung enorme technologische Auswirkungen haben könnte. Er ist davon überzeugt, dass wir mit der Entwicklung von Computern und unserem Verständnis der Dynamik, die atmosphärische Prozesse steuert, dem Niveau der Wettervorhersage näher kommen. Er glaubte auch, dass die Menschen die Prozesse, die das Klima beeinflussen, verstehen, berechnen und vielleicht letztendlich kontrollieren und ändern könnten. In seinem Aufsatz [120]32 spekulierte er, dass es in naher Zukunft möglich sein würde, die enormen vorhandenen Ressourcen der Kernenergie zu nutzen, um Veränderungen in der atmosphärischen Zirkulation in der gleichen Größenordnung hervorzurufen wie „die große Erde selbst“33. Bei Problemen wie diesen, die bereits heute ein Verständnis physikalischer Phänomene ermöglichen, könnte die Menschheit durch künftige mathematische Analysen ihre Fähigkeit zur Kontrolle der Natur erheblich erweitern. Computertheorie und -praxis, Monte-Carlo-Methode Von Neumanns Interesse an numerischer Arbeit hatte verschiedene Ursachen. Einerseits geht es auf seine anfänglichen Arbeiten über die Rolle des Formalismus in der mathematischen Logik und Mengenlehre zurück, und seine Arbeiten in seiner Jugend befassten sich ausführlich mit Hilberts Programm, die Mathematik als endliche Spiele zu betrachten. Eine weitere, ebenso starke Motivation kam von seiner Arbeit an Problemen der mathematischen Physik, einschließlich der rein theoretischen Untersuchung der Ergodentheorie in der klassischen Physik und seinen Beiträgen zur Quantentheorie. Mit dem Aufkommen verschiedener Arten der kontinuierlichen Medienmechanik in der Strömungsmechanik und der Kernenergietechnik spiegeln sich immer mehr praktische Probleme wider, die direkt zu Rechenproblemen werden. Wir haben kurz von Neumanns Interesse an turbulenten Problemen, der allgemeinen Dynamik kontinuierlicher Medien und meteorologischen Berechnungen erörtert. Ich erinnere mich noch gut daran, wie sich zu Beginn des Los-Alamos-Projekts herausstellte, dass analytische Arbeit allein oft nicht ausreichte, um auch nur qualitative Antworten zu liefern. Bei vielen Problemen würde die manuelle Berechnung selbst mit einem Tischrechner unannehmbar viel Zeit in Anspruch nehmen. Diese Situation schien für von Neumann der letzte Anstoß zu sein, sich der Erforschung der Nutzung elektronischer Geräte für Computer zu widmen. Von Neumann hatte mehrere Jahre lang argumentiert, dass bei vielen Problemen der Strömungsmechanik – etwa beim Verhalten und der Ausbreitung von Stoßwellen und in Fällen, in denen die durch nichtlineare partielle Differentialgleichungen beschriebenen Phänomene große Verschiebungen beinhalten (d. h., in denen eine Linearisierung nicht ausreicht, um einer wahren Beschreibung nahe zu kommen) – numerische Arbeit notwendig sei, um heuristisches Material für künftige Theorien zu liefern. Diese absolute Notwendigkeit zwang ihn, das Problem der Berechnung mit elektronischen Maschinen von Grund auf zu untersuchen, und in den Jahren 1944 und 1945 erarbeitete er die heute noch verwendete Methode – die Konvertierung einer Reihe mathematischer Verfahren in die Befehlssprache eines Computers. Den elektronischen Computern der damaligen Zeit (wie dem ENIAC 34) fehlte die Flexibilität und Vielseitigkeit, die heute für die Bearbeitung mathematischer Probleme zur Verfügung stehen. Im Großen und Ganzen erfordert jedes Problem ein spezielles und anderes Verdrahtungssystem, damit die Maschine die vorgeschriebenen Vorgänge in einer bestimmten Reihenfolge ausführen kann. Von Neumanns großer Beitrag bestand darin, dass er die Konzepte „Flussdiagramm“ und „Code“ vorschlug: Ersteres macht die Verbindungen oder Schaltkreise der Maschine fest, aber ziemlich allgemein; Letzteres ermöglicht es, mit diesem Satz fester Verbindungen verschiedene Probleme zu lösen. Zwar kann man im Nachhinein sagen, dass die Möglichkeit, eine solche Anordnung zu entwickeln, für einen mathematischen Logiker offensichtlich gewesen sein mag, doch war es angesichts der damaligen elektronischen Technologie alles andere als einfach, einen derart allgemeinen Ansatz umzusetzen und auszuführen. Selbst heute, ein Jahrzehnt nach der Einführung dieser Methoden, unterschätzt man leicht die enormen Möglichkeiten, die solche theoretischen Experimente auf der Grundlage von Problemen der mathematischen Physik eröffnen. Das Gebiet ist noch so neu, dass Vorhersagen riskant erscheinen, aber in vielen Bereichen wie der Strömungsmechanik, der Magnetohydrodynamik und den Berechnungen der Quantentheorie wurden bereits zahlreiche theoretische Experimente durchgeführt, so dass wir erwarten können, dass wir aus diesen Berechnungen eine zufriedenstellende, umfassende Theorie ableiten können. Die technische Entwicklung des Computers geht größtenteils auf von Neumann zurück. Die logischen Schemata der Maschinen, die relativen Rollen des Speichers, die Geschwindigkeit ihrer Arbeitsweise, die Wahl der grundlegenden „Befehle“ und die Schaltkreise in aktuellen Maschinen sind alle stark von seinen Ideen geprägt. Von Neumann betreute persönlich den Bau eines elektronischen Computers am Institute for Advanced Study in Princeton, um sich mit den damit verbundenen technischen Problemen vertraut zu machen und dieses Werkzeug für neue Experimente zu beherrschen. Noch bevor die Maschine fertiggestellt war (was länger dauerte als erwartet), stellte er ihr einige der Los-Alamos-Probleme und führte eine große Anzahl von Berechnungen durch. Eines davon ist ein Problem zum Prozess einer thermonuklearen Reaktion, das mehr als eine Milliarde grundlegende Rechenoperationen und elementare Logikbefehle umfasst. Bei dieser Frage geht es eigentlich darum, das Problem der Reaktionsausbreitung mit „Ja“ oder „Nein“ zu beantworten. Es ist nicht wichtig, ob die endgültigen Daten vollkommen präzise sind, aber alle Zwischen- und Detailberechnungen scheinen notwendig, um die Antwort auf die ursprüngliche Frage zu erhalten. Tatsächlich kann das Erraten des Verhaltens einiger Elemente des Problems in Verbindung mit manuellen Berechnungen einen großen Beitrag zur Aufdeckung der endgültigen Antwort leisten. Um das Vertrauen in diese intuitive Schätzung zu erhöhen, muss man viel Rechenarbeit leisten. Diese Situation scheint bei der Lösung bestimmter neuer Probleme in der mathematischen Physik und der modernen Technologie recht häufig vorzukommen. Wir brauchen keine astronomische Präzision, um diese Phänomene zu beschreiben; in manchen Fällen sind die Leute durchaus zufrieden, wenn das Verhalten mit einer Genauigkeit von „bis zu 10 %“ vorhergesagt werden kann. Doch im Berechnungsprozess muss jeder Schritt so genau wie möglich sein. Die große Zahl elementarer Schritte wirft die Frage nach der Zuverlässigkeit der Schätzung des Endergebnisses sowie nach der inhärenten Stabilität der mathematischen Methode und ihrer rechnerischen Ausführung auf. Als von Neumann den Fermi -Preis der Atomic Energy Commission erhielt, stellte er ausdrücklich seine Beiträge zur Entwicklung elektronischer Maschinen zur Durchführung von Berechnungen fest, die in vielen Bereichen der Kernwissenschaft und Technologie nützlich waren. Elektronische Computer können tausende Male schneller berechnen als manuelle Berechnungen, was viele vollständig neue Methoden erzeugt hat - nicht nur in der numerischen Analyse im klassischen Sinne, sondern auch in den grundlegenden Prinzipien des Prozesss der mathematischen Analyse selbst. Niemand verstand die Auswirkungen dieser besser als von Neumann. Wir können ein kleines Beispiel verwenden, um dies mit der sogenannten Monte-Carlo-Methode zu veranschaulichen. In der Vergangenheit für manuelle Berechnungen oder sogar für Relais entwickelte numerische Analysemethoden sind für elektronische Computer nicht unbedingt optimal. Beispielsweise ist es offensichtlich wirtschaftlicher, die erforderlichen Werte direkt zu berechnen, anstatt Elementarfunktionstabellen zu verwenden. Zweitens können bei Problemen, die die Vereinfachung integraler Gleichungen für die Suche nach Integralen erfordern, jetzt durch einige sehr komplexe Algorithmen gelöst werden, die nicht einmal manuell implementiert werden können, aber für neue Maschinen völlig machbar sind. In den Jahren nach dem Zweiten Weltkrieg erfand von Neumann Dutzende von Computertechniken wie "Subroutinen" zur Berechnung grundlegender algebraischer oder transzendentaler Funktionen; Hilfsgleichungen lösen und so weiter. Übrigens ist ein Teil dieser Arbeiten in der mathematischen Gemeinschaft noch nicht allgemein bekannt, aber Forschern, die Computer in der Industrie oder in Regierungsprojekten verwenden. Diese Arbeit umfasst Methoden zum Auffinden der Eigenwerte und inversen Matrizen von Matrizen; präzise Methoden zur Suche nach extremen Werten multivariabler Funktionen; und die Erzeugung von Zufallszahlen. Ein Großteil der Arbeiten zeigt die kombinatorische Geschicklichkeit, die für seine frühe Arbeit in der mathematischen Logik- und Operatortheorie typisch ist, und ein Teil davon kann sogar als virtuose bezeichnet werden. Die Einfachheit mathematischer Aussagen der Prinzipien der mathematischen Physik, die im 19. Jahrhundert gewünscht wurde, scheint in modernen Theorien auffällig zu fehlen. Die Entdeckung einer verwirrenden Sorte und einer reichen Struktur in Elementarpartikeln schien die frühen Hoffnungen auf mathematische Ganzheit zu verschieben. In angewandten Physik und technischen Problemen muss man sich mit Situationen befassen, die mathematisch eine Mischung verschiedener Systeme darstellen: Beispielsweise ein System von Partikeln, dessen Verhalten durch mechanische Gleichungen, aber auch durch Interaktion elektrischer Felder, die durch partielle Differentialgleichungen beschrieben werden, bestimmt werden; oder in der Untersuchung von Prozessen, die Neutronen produzieren, muss zusätzlich zum Neutronensystem die Flüssigkeitsdynamik und die thermodynamischen Eigenschaften anderer Substanzen berücksichtigt, die von diesen Partikeln getrennt sind, die mit dem gesamten System interagieren. Allein aus kombinatorischer Sicht, ganz zu schweigen von den analytischen Schwierigkeiten beim Umgang mit partiellen Differential- und Integralgleichungen, ist es klar, dass derzeit nur wenig Hoffnung besteht, eine geschlossene Lösung zu finden (Closed-Form-Lösung35). Um die Eigenschaften dieser Systeme zu untersuchen, wenn auch nur qualitativ, sind die Menschen gezwungen, nach praktischen Methoden zu suchen. Wir haben uns entschlossen, nach einer solchen Methode zu suchen, um ein homomorphes Bild eines bestimmten physikalischen Problems in einem mathematischen Muster zu finden, das durch ein fiktives System von "Partikeln" dargestellt werden könnte, die von einem elektronischen Computer verarbeitet werden. Dieser Ansatz ist besonders nützlich bei Problemen, die Funktionen einer großen Anzahl unabhängiger Variablen beinhalten. Um ein sehr einfaches konkretes Beispiel für diese Monte-Carlo-Methode zu geben, betrachten wir das Problem, das Volumen einer Subregion eines gegebenen n-dimensionalen "Würfels" zu schätzen, das durch eine Reihe von Ungleichheiten beschrieben wird. Der allgemeine Ansatz besteht darin, den Raum systematisch in ein Punkt von Punkten zu teilen, um das gewünschte Volumen zu approximieren. Mit diesem Ansatz können Sie zufällig einige Punkte im Raum mit einheitlicher Wahrscheinlichkeit auswählen und (maschinell), wie viele dieser Punkte zu einem bestimmten Bereich gehören, bestimmen. Nach den grundlegenden Tatsachen der Wahrscheinlichkeitstheorie nähert sich dieses Verhältnis 1 mit der Wahrscheinlichkeit, die wir hoffen, und gibt so einen ungefähren Wert des relativen Volumens. Betrachten Sie als etwas komplizierteres Beispiel ein Diffusionsproblem in einem Raumbereich, der durch eine gekrümmte Oberfläche begrenzt ist, in der die diffusen Partikel teilweise reflektiert und teilweise absorbiert werden. Wenn die Geometrie dieser Region komplex ist, kann es wirtschaftlicher sein, eine große Anzahl von "physisch" zufälligen Spaziergängen durchzuführen, anstatt zu versuchen, die integrierten Differentialgleichungen klassisch zu lösen. Diese "Spaziergänge" können bequem auf einer Maschine durchgeführt werden, und die Behandlung von zufälligen Spaziergängen in der Wahrscheinlichkeitstheorie wird auf Differentialgleichungen reduziert - dieses Programm tut tatsächlich genau das Gegenteil. Ein weiteres Beispiel für diesen Ansatz ist eine Reihe von Funktionsgleichungen, die versuchen, sie in äquivalente Gleichungen zu verwandeln, die eine probabilistische oder spieltheoretische Interpretation haben. Diese äquivalenten Gleichungen werden auf Computern simuliert, um zufällige Prozesse darzustellen, und die resultierende Verteilung wird eine angemessene Vermutung zur Lösung der ursprünglichen Gleichung geben. Darüber hinaus ist es wünschenswert, direkt einen "Isomorphismus" des Verhaltens des fraglichen physikalischen Systems zu erhalten. Es muss darauf hingewiesen werden, dass bei vielen physischen Problemen, die derzeit untersucht werden, die ursprünglich durch bestimmten Idealisierung erhaltenen Differentialgleichungen sozusagen nicht mehr sakrosanktieren. Zumindest kann das Untersuchung dieser Systemmodelle direkt auf einem Computer einen Absicherungswert haben. Am Ende des Krieges und in den folgenden Jahren befassten sich von Neumann und ich (der Autor dieses Artikels) auf diese Weise mit einigen Problemen. Das physikalische Szenario selbst löste zunächst das Problem der Wahrscheinlichkeitserklärung direkt an. Später wurde die dritte Art des oben genannten Problems untersucht. Die Theorie dieses mathematischen Modells ist immer noch sehr unvollständig. Insbesondere wurden Schätzungen von Schwankungen und Genauigkeit noch nicht entwickelt. In dieser Hinsicht hat von Neumann erneut eine große Anzahl cleverer Methoden beigetragen, z. B. durch geeignete Spiele, um Sequenzen mit gegebenen Wahrscheinlichkeitsverteilungen zu generieren. Er entwarf auch ein Wahrscheinlichkeitsmodell für den Umgang mit Boltzmanns Gleichungen sowie ein wichtiges Zufallsmodell für einige strenge deterministische Probleme in der Fluiddynamik. Die meisten dieser Arbeiten sind in verschiedenen Laborberichten oder immer noch Manuskripte verteilt. Natürlich hoffen wir, in naher Zukunft systematisch Sammlungen für die Mathematik -Community zu veröffentlichen. Automatiktheorie und Wahrscheinlichkeitslogik Professor Claude E. Shannons Artikel "Von Neumanns Beiträge zur Automatenheorie" stellt seine Arbeit in der Automatentheorie vor. Diese Arbeit hat wie die Spieltheorie in den letzten Jahren umfangreiche und wachsende Forschungsergebnisse inspiriert, was meiner Meinung nach neben seinen produktivsten Ideen liegt. Hier hat sein Interesse an mathematischer Logik, Computern und mathematischer Analyse in Verbindung mit seinem Wissen über mathematische und körperliche Probleme fruchtbare Ergebnisse in der neuen Konstruktion hervorgerufen. Alan Turing, Warren McCulloch und Walter Pitts Vorstellung, logische Aussagen durch elektrische Netzwerke oder idealisierte Nervensysteme darzustellen, inspirierten ihn, die allgemeine Theorie der Automaten vorzuschlagen und zu skizzieren. Die Konzepte und Begriffe dieser Theorie stammen aus verschiedenen Bereichen - Mathematik, Elektrotechnik und Neurowissenschaften. Diese Studien versprechen nun mehr Erfolg in der Mathematik und beginnen möglicherweise auf einer sehr vereinfachten Ebene und formalisieren den Betrieb von Organismen und Nervensystemen selbst. Kernenergie - Arbeit in Los Alamos Nur am Vorabend des Ausbruchs des Zweiten Weltkriegs stellten die Menschen fest, dass Uranatome Neutronen absorbierten und so mehr Neutronen freisetzen. Viele Physiker erkannten sofort, dass exponentielle Reaktionen großer Mengen an Uran enorme Energie freisetzen würden. Deshalb begannen sie, dieses Phänomen zu diskutieren und quantitativ zu bewerten, um die Nutzung neuer Energie zu erreichen. Im Vergleich zu Mathematikern bilden theoretische Physiker eine kleinere und enger verbundene Gruppe und im Allgemeinen schneller als Austausch von Ergebnissen und Ideen. Von Neumanns Arbeit auf der Grundlage der Quantentheorie führte ihn zu einem frühen Kontakt mit den meisten Top -Physikern, die sich der neuen experimentellen Tatsachen bewusst waren und von Anfang an an ihren Spekulationen über die enormen technischen Möglichkeiten teilnahmen, die durch Spaltphänomen versteckt waren. Bevor der Krieg ausbrach, widmete er sich der wissenschaftlichen Arbeit im Zusammenhang mit nationalen Verteidigungsfragen. Erst Ende 1943 lud ihn Oppenheimer als Berater ein, das Los Alamos Laboratory zu besuchen, und begann, an der Arbeit der Schaffung von Atombomben als ultimatives Ziel teilzunehmen. Wie wir alle wissen, wurde in Chicago am 2. Dezember 1942 die erste sich selbsttragende Kernkettenreaktion von einer Gruppe von Fermi in Chicago realisiert. Sie bauten einen Reaktor, der das Uran und eine langsame Substanz zusammenstellte, bei der Neutronen verlangsamt wurden, um die Möglichkeit einer weiteren Spaltung zu erhöhen. Die Reaktorgröße ist sehr groß und es dauert relativ lange, bis es exponentiell zu E -Mal wächst. Ziel des in Los Alamos eingerichteten Projekts ist es, sehr schnelle Reaktionen in relativ kleinen Mengen an Uran-235- oder Plutonium-Isotopen zu erzeugen, was zu einer explosiven Freisetzung von enormer Energie führt. Im späten Frühjahr 1943 begann sich eine wissenschaftliche Gruppe zu bilden, und im Herbst dieses Jahres ließen sich eine große Anzahl herausragender theoretischer und experimenteller Physiker in Los Alamos nieder. Als von Neumann hier ankam, untersuchte das Team verschiedene Möglichkeiten, Spaltmaterial zusammenzustellen, um eine kritische Masse zu erreichen. Es gibt keine Lösung, um zu wissen, ob es im Voraus erfolgreich ist, und eines der Probleme ist, dass eine schnelle Montage erforderlich ist, bevor die Kernreaktion zu einer leichten oder mäßigen Explosion führt, sonst wird der größte Teil der Kernladung verschwendet. Edward Teller erinnert sich an die Szene, als Johnny in Lamy (dem nächsten Bahnhof nach Los Alamos) ankam, und er wurde von einem zu dieser Zeit in hohem Maße vertraulichen Geschäftsauto auf den Hügel (die kleine Stadt Los Alamos) gebracht: "Als er ankam, triffte sich der Koordinierungsrat. Unser Führer Oppenheimer berichtete über die Ottawa -Konferenz. In seiner Rede wurde viele der wichtigsten Figuren und ebenso wichtiger Entscheidungen erwähnt, von denen eine eng mit uns verwandt war: Wir können erwarten, dass das britische Kontingent in der Nähe von der Rede zu den Fragestellungen kommt Low Voice (deren Quelle aus der Geschichte verschwunden ist) sagte: "Wann werden wir einen Schuhmacher auf dem Hügel finden?" Obwohl zu dieser Zeit keine wissenschaftlichen Fragen mit Johnny diskutiert wurden, behauptete er, dass er von diesem Moment an die Natur von Los Alamos vollständig verstanden habe. " Die damalige Arbeitsatmosphäre war sehr lebhaft. Im Vergleich zu den Technologie- oder technischen Labors war es nicht auf Form und hatte eine explorative Natur. Daher war es eher ein Seminar an einer Universität, und es kann gesagt werden, dass es sich um einen abstrakten Stil der wissenschaftlichen Diskussion handelte. Ich erinnere mich deutlich, dass ich überrascht war, dass die Umgebung eine Gruppe von Mathematikern daran erinnerte, dass die Umgebung eine Gruppe von Mathematikern erinnerte, die ihre abstrakten Vermutungen diskutierten, anstatt Ingenieure, die ein gut definiertes tatsächliches Projekt studierten-die Diskussion verlief häufig bis spät in die Nacht informell. Ein herausragendes Merkmal dieser Situation ist die Vielfalt der Probleme, die jeweils für den Erfolg des Projekts gleichermaßen wichtig sind. Zum Beispiel die Verteilung von Neutronen in Raum und Zeit mit exponentiellem Wachstum; Ebenso wichtige Themen sind das Problem einer anhaltenden Erhöhung der Energieabscheidung, die durch Spaltung der Kernladung der Atombombe verursacht wird, die Berechnung der hydrodynamischen Bewegung bei der Explosion; die Energieverteilung in Form von Strahlung; Und schließlich verliert der Bewegungsprozess von umgebenden Materialien nach der Atombombe ihren kritischen Zustand. Es ist entscheidend, all diese äußerst unterschiedlichen Probleme in den beteiligten Mathematikbereichen zu verstehen. Es ist unmöglich, von Neumanns Beitrag hier ausführlich vorzustellen. Ich werde versuchen, auf einige relativ wichtige Aspekte hinzuweisen. Anfang 1944 betrachteten wir eine Implosionsmethode für den Zusammenbau von spalteten Substanzen. Dieser Prozess umfasst die Komprimierung der kugelförmigen Auswirkungen der Kernladung. Von Neumann, Hans Bethe und Teller erkannten die ersten die Vorteile dieses Programms. Teller erzählte von Neumann von Seth Neddermeyers Experimenten und arbeiteten dann zusammen, um die grundlegenden Ergebnisse dieser sphärischen Geometrie zu entwickeln. Von Neumann kam zu dem Schluss, dass dieser Ansatz einen großen Druck erzeugen kann und dass er auch während der Diskussion klar war, dass ein großer Druck auch erhebliche Komprimierung führen kann. Um die Implosion ausreichend symmetrisch zu beginnen, müssen Sie aus mehreren Punkten gleichzeitig an die internen Hochsprengstoffe gelangen. James Tuck und von Neumann empfehlen, mit hohen Explosionslinsen zu verwenden, um die Implementierung zu unterstützen. Wir haben zuvor die Fähigkeit erwähnt, mit Physikern zu kommunizieren, die die Sprache der Physiker verstehen und sie fast sofort in eine Form umsetzen können, die den Mathematikern bekannt ist, was bei Mathematikern möglicherweise sehr selten sein kann. Er kann dann die Antwort in die häufig verwendeten Ausdrücke von Physikern übersetzen. Der erste Versuch, die durch Implosion verursachte Bewegung zu berechnen, ist äußerst schematisch. Über die Gleichungen der Zustände der beteiligten Kernladung ist nur sehr wenig bekannt, aber selbst durch raue mathematische Näherung werden einige Gleichungen abgeleitet, und die Lösung für sie geht signifikant über den Umfang der genauen Analysemethode hinaus. Es ist offensichtlich, dass, um korrekte quantitative Ergebnisse zu erzielen, viele umständliche numerische Arbeiten durchgeführt werden muss, und zu diesem Zeitpunkt erscheint der Computer als notwendiges Hilfsmittel. Ein komplexeres Problem ist die Berechnung der Nuklear -Explosionsmerkmale. Die freigesetzte Energie hängt vom Prozess der äußeren Bewegung ab. Natürlich werden diese Bewegungen durch folgende Faktoren eingeschränkt: die Energieabscheidungsrate, die thermodynamischen Eigenschaften des Materials und die bei extrem hohe Temperatur erzeugte Strahlung. Für das erste Experiment können Menschen nur mit den ungefähren Berechnungen zufrieden sein; Wie oben erwähnt, ist selbst die Größenordnung ohne die komplexen Computerberechnungen nicht einfach zu schätzen. Nach dem Krieg schlugen die Personen vor, sie zu nutzen, um sie zu nutzen, um genauere Berechnungen durchzuführen. Von Neumann trug stark zum mathematischen Umgang mit körperlichen Problemen bei. Während des Krieges hatten die Forscher die Möglichkeit einer thermonuklearen Reaktion berücksichtigt, zunächst nur einige Diskussionen und dann vorläufige Berechnungen durchführte. Als Mitglied einer fantasievollen Gruppe war von Neumann sehr aktiv darin, und sie berücksichtigten verschiedene Optionen, um eine solche Reaktion in großem Maßstab zu erreichen. Mathematisch sind die Bedingungen, die für die Bewältigung solcher Reaktionen und der an ihren Prozessen verbundenen Problemen erforderlich sind, noch komplizierter als die Probleme von Spaltxplosionen (tatsächlich ist das Verständnis der Eigenschaften von Spaltxplosionen eine Voraussetzung für die Erforschung thermonuklearer Reaktionen). In einer Diskussion haben wir den Prozess dieser Berechnung beschrieben, und von Neumann wandte sich an mich und sagten: "Die grundlegenden arithmetischen Operationen, die wir bei der Durchführung von Berechnungen durchführen, sind möglicherweise mehr als die gesamten Operationen, die Menschen bisher getan haben." Wir haben jedoch festgestellt, dass die Gesamtzahl der Multiplikationen, die von Kindern im schulpflichtigen Alter der Welt in wenigen Jahren hergestellt wurden, unser Problem offensichtlich übertroffen hat! Aus begrenztem Platz kann ich von Neumanns unzähligen kleineren technischen Beiträgen nicht auflisten, aber sie sind bei Physikern und Ingenieuren, die an diesem Projekt arbeiten, sehr beliebt. Von Neumann ist sehr gut in der Skalierung von schuppenschätzung sowie algebraischen und numerischen Berechnungen in seinem Kopf, ohne Stift und Papier zu verwenden. Diese Fähigkeit, die dem Talent des Schachspiels mit verbundenen Augen vielleicht etwas ähnlich ist, beeindruckt oft Physiker. Mein Eindruck ist, dass von Neumann die berücksichtigten physischen Objekte nicht visualisierte, sondern ihre Eigenschaften als das logische Ergebnis grundlegender physikalischer Annahmen ansah und er könnte dieses deduktive Denken hervorragend spielen! Von Neumanns persönlicher wissenschaftlicher Stil hat ein großes Merkmal, das seine Bereitschaft ist, sorgfältig zuzuhören. Auch wenn diese Fragen nicht viel wissenschaftliche Bedeutung haben, achtet er auf die Rätsel, solange sie eine Kombination aus Attraktivität widerspiegeln können. Dies machte ihn populär und suchte von denen, die sich für die Anwendung mathematischer Technologie befassten. Viele der Menschen, mit denen er gesprochen hat, haben positive Hilfe oder Komfort erhalten, weil sie wussten, dass es keine Magie in der Mathematik gab - dass die Menschen ihre Probleme leicht lösen konnten. Von Neumann nahmen selbstlos an Aktivitäten teil, die möglicherweise zu zahlreich sind, und zu überspezifischen, die für mathematische Erkenntnisse nützlich sein könnten (die in der heutigen technologischen Entwicklung immer häufiger sind), stellt aber auch ernsthafte Anforderungen an seine Zeit. In den Jahren nach Ende des Zweiten Weltkriegs kämpfte er fast jeden Moment mit widersprüchlichen Forderungen. Von Neumann ist der festen Überzeugung, dass die durch die Freisetzung von Kernenergie ausgelöste technologische Revolution in die menschliche Gesellschaft, insbesondere die wissenschaftliche Entwicklung, zu mehr Veränderungen führen wird als jede technologische Entdeckung in der Geschichte der Menschheit. Er erzählte mir, dass er, als er sehr jung war, glaubte, dass die Kernenergie entwickelt und die Reihenfolge menschlicher Aktivitäten in seinem Leben verändert werden würde, eines der wenigen Beispiele seiner glücklichen Spekulation. Er war aktiv an einem frühen Sehen und Beratungen über die Möglichkeit kontrollierter thermonukleärer Reaktionen beteiligt. 1954 wurde er Mitglied der Atomic Energy Commission und arbeitete an technischen und wirtschaftlichen Fragen im Zusammenhang mit dem Bau und dem Betrieb von Spaltreaktoren. In dieser Position verbrachte er auch viel Zeit damit, Forschung zu mathematischen Computern zu organisieren und sie Universitäten und anderen Forschungszentren zur Verfügung zu stellen. Von Neumanns Mathematikreise Von Neumann hat so viele ewige Markierungen auf dem Gebiet der Mathematik hinterlassen, dass wir nur einen harten Blick auf seine Arbeit in diesem Bereich betrachten und seine Leistungen in vielen anderen Bereichen sporadisch vorstellen. Dies kann die Frage aufwerfen: Gibt es einen kontinuierlichen Kontext in seiner Arbeit? Wie Poincaré sagte: „Einige Fragen werden uns selbst gestellt, und einige Fragen auf natürliche Weise. (Il ya des problematisch, qu'on se pose et des problematisch, qui se pose.)“ Jetzt, 50 Jahre nachdem die großen französischen Mathematiker diesen vagen Unterschied vorgeschlagen hatten, wurde diese Aufteilung in mathematischen Problemen vorgeschlagen. Die von Mathematikern berücksichtigten Objekte sind eher ihre eigene freie Schöpfung, die als besondere Förderung früherer Konstruktionen bezeichnet werden kann. Diese Theorien werden manchmal ursprünglich von physischen Bildern inspiriert, während sich andere aus der freien mathematischen Schöpfung entwickeln - in einigen Fällen die tatsächlichen Muster der physischen Beziehungen. Von Neumanns Gedanken werden deutlich von diesen beiden Tendenzen beeinflusst. Sein Wunsch bestand darin, die pyramiktischen mathematischen Strukturen so nah wie möglich an die wachsende Komplexität der Physik und anderer Wissenschaften zu halten, die jetzt zunehmend schwer fassbarer werden. Einige große Mathematiker des 18. Jahrhunderts, insbesondere Euler, haben die Beschreibung vieler natürlicher Phänomene erfolgreich in den Bereich der mathematischen Analyse einbezogen. Von Neumanns Arbeit Versuch, die von Set Theory und moderne Algebra entwickelte Mathematik zu entwickeln, spielen eine ähnliche Rolle. Natürlich ist dies heute eine viel schwierigere Aufgabe. Während eines Großteils des 19. Jahrhunderts katalogisierte die Entwicklung von Infinitesimal -Kalkül (der frühe Begriff für Kalkül) und die anschließende mathematische Analyse nicht nur den Inhalt von Pandoras Box, die durch physikalische Entdeckungen geöffnet wurden, sondern hoffte auch, sie wirklich zu verstehen. Diese Hoffnung ist jetzt illusorisch, einfach weil das wahre System des euklidischen Raums - insbesondere topologisch - nicht mehr als die einzige oder sogar die beste, mathematische Grundlage der Physik -Theorie mehr behaupten kann. Das physische Denken im 19. Jahrhundert wurde mathematisch von Differential- und Integralgleichungen und analytischen Funktionstheorie dominiert, und diese reichen jetzt nicht mehr aus. Die neue Quantentheorie erfordert eine allgemeinere Sicht der festgelegten Theorie in Bezug auf die Analytik, und ihre ursprünglichen Konzepte selbst beinhalten die Wahrscheinlichkeitsverteilung und den unendlichen dimensionalen Funktionsraum. Die entsprechende Algebra umfasst die Untersuchung von Kombination und algebraischen Strukturen, die allgemeiner sind als Strukturen, die nur durch reale oder komplexe Zahlen dargestellt werden. Um diese Mathematik zu verstehen, kann man daher die Cantor -Set -Theorie verwenden und eine vollständige Reihe komplexer Ideen von Hilbert, Hermann Weyl, Emmy Noether, Emil Artin und Richard Brauer und von Neumanns Arbeiten entwickeln. Eine andere Sache, die die Entwicklung gewöhnlicher Mathematik inspiriert hat, ist eine neue Kombinationsanalyse, die aus der jüngsten Grundlagenforschung in den biologischen Wissenschaften stammt. In dieser Hinsicht ist das Fehlen eines allgemeinen Ansatzes noch offensichtlicher. Diese Probleme sind in der Natur nichtlinear und weisen äußerst komplexe Kombinationseigenschaften auf. Es scheint, dass viele Jahre Experimente und heuristische Forschung benötigt werden, bevor man hoffen kann, die für eine entscheidenden umfassenden Theorie erforderlichen Erkenntnisse zu erhalten. Genau deshalb verbrachte von Neumann im letzten Jahrzehnt viel Energie für die Forschung und Konstruktion von Computermaschinen und entwickelte einen vorläufigen Umriss für die Untersuchung von Automaten. Wenn man auf von Neumanns Arbeit zurückblickte und ihre Zweige so zahlreich und umfangreich ansieht, kann man sagen, wie Hilbert in Teilen, die in isolierte Teile unterteilt sind, fragen, wie andere Wissenschaften seit langem der Fall sind, dessen Repräsentanten (Forscher) kaum verständlich sind, und ihre Beziehung, die sich nicht mehr in der Handlung unterziehen, was auch nicht In seinen untrennbaren Teilen. (Anmerkung des Herausgebers: Der letzte Teil des Originaltextes führt einige der Ehrungen und Positionen von von Neumann sowie eine Liste der vom Autor Uram zusammengestellten Artikel ein. Lesen Sie den Originaltext bei Bedarf.) Hinweise 1. Anmerkung des Übersetzers: Thomas Robert Malthus (1766-1834), ein britischer Priester, Demograf und politischer Ökonom, ist für seine Bevölkerungstheorie auf der ganzen Welt berühmt. 2. [7] Uber Die Grundlagen der Quantenmechanik. Mit D. Hilbert und L. Nordheim. Mathe. Ann. Bd. 98 (1927) S. 1-30. 3. Anmerkung des Übersetzers: Lothar Wolfgang Nordheim (1899-1985), ein deutsch-amerikanischer Physiker, trug zur Quantentheorie, zur Kernphysik und zur Teilchenphysik bei. 4.. Es gibt eine hervorragende und präzise Zusammenfassung des axiomatischen Status der nicht-relativistischen Quantentheorie in atomaren Phänomenen. Weitere Informationen zu den Artikel Quantum Mechanics von George Mackey und Hilbert Space, Amer. Mathe. Monatlich, Oktober 1957, basiert immer noch hauptsächlich auf von Neumanns Buch "The Mathematical Foundations of Quantenmechanik". 5. Wahrscheinlichkeittheoretischer Aufbau der Quantenmechanik, nAChr. Gees. Wiss. Göttingen (1927) S. 245-272. 6. Es ist unmöglich, die hier beteiligten mathematischen Argumente zusammenzufassen. Die überwiegende Mehrheit der Physiker stimmt dem Vorschlag von von Neumann immer noch zu. Dies bedeutet nicht, dass Theorien, die sich vom aktuellen mathematischen Ausdruck der Quantenmechanik unterscheiden, nicht die Existenz versteckter Variablen ermöglichen. In den jüngsten Diskussionen siehe Coston Proceedings (Band 9), eine Aufzeichnung des neunten Seminars der Colston Research Society an der Universität von Bristol vom 1. bis 4. April 1957, einschließlich Diskussionen von David Bohm, Léon Rosenfeld und anderen. 7. [33] über Einen Hilfssatz der Variationenstreilung, ABH. Mathe. Sem. Hanschen Univ. Bd. 8 (1930) S. 28-31. 8. Anmerkung des Übersetzers: Tibor Radó (1995-1965), ein ungarischer Mathematiker, ist bekannt für die Lösung des Plateau-Problems. 9. [41] Beweis der quasi-älteren Hypothese, Proc. Nat. Akad. Wissenschaft USA Vol. 18 (1932) S. 70-82. 10. Bernard Osgood Koopman (1900-1981), ein französisch-amerikanischer Mathematiker, ist dafür bekannt, das grundlegende Werk der Theorie, der Wahrscheinlichkeitstheorie, der statistischen Theorie und der Operationen zu durchqueren. Gründungsmitglied und Sechster Präsident der American Society of Operations Research. 11. Anmerkung des Übersetzers: Metrische Transitivität kann als Referenz verwendet werden 12. [56] Über kompakte Lösungen von operativen Differentialgleichungen. I. mit S. bochner. Ann. der Mathematik. Bd. 36 (1935) S. 255-291. 13. [80] Fourier -Integrale und metrische Geometrie. Mit ij schoenberg. Übers. Amer. Mathe. Soc. Bd. 50 (1941) S. 226-251. 14. [86] Unangemessene Eigenschaften von Matrizen mit hoher endlicher Ordnung, Portugaliae Mathematica Vol. 3 (1942) S. 1-62. 15. [91] Lösung linearer Systeme mit hoher Ordnung. Mit V. Bargmann und D, Montgomery. Bericht für Navy Buord unter Vertrag Nord-9596-25, Oktober 1946, 85 PP. 16. [94] Numerische Umkehrung von Matrizen mit hoher Ordnung. Mit HH Goldstine. Stier. Amer. Mathe. Soc. Bd. 53 (1947) S. 1021-1099. 17. [109] Numerische Umkehrung von Matrizen mit hoher Ordnung, ii. Mit HH Goldstine. Proz. Amer. Mathe. Soc. Bd. 2 (1951) S. 188-202. 18. KUHN, HW & TUCKER, AW (1958). John von Neumanns Arbeit in der Theorie der Spiele und der mathematischen Ökonomie. Bulletin der American Mathematical Society, 64 (3), 100–123. doi: 10.1090/s0002-9904-1958-10209-8 19. [17] Zur Theorie der Esellschaftspiele, Math. Ann. Bd. 100 (1928) S. 295-320. 20. [72] über Ökonomische Geilungssystem und ein Verallgemeinerung Brouwersschen Fixpunktsatzes, Erg. Eines Mathe. Coll., Wien, herausgegeben von K. Menger, Vol. 8, 1937, S. 73-83. 21. [102] Lösungen von Spielen durch Differentialgleichungen. Mit GW Brown, "Beiträge zur Theorie der Spiele, n Ann. Of Math. Studies, Nr. 24, Princeton University Press, 1950, S. 73-79. 22. [113] Ein bestimmtes Zwei-Personen-Spiel mit Nullsummen entspricht dem optimalen Zuordnungsproblem. "Beiträge zur Spieltheorie,* Vol. II, Ann. Of Math. Studies, Nr. 28, Princeton University Press, 1953, S. 5-12. 23. [114] Zwei Varianten des Pokers. Mit DG Gillies und JP Mayberry. "Beiträge zur Spieltheorie", Vol. II. Ann. der Mathematik. Studien, nein. 28, Princeton University Press 1953, S. 13-50. 24. [90] Theorie der Spiele und des wirtschaftlichen Verhaltens. Mit O. Morgsenstern. Princeton University Press (1944, 1947, 1953) 625 pp. 25. Anmerkung des Übersetzers: Abraham Wald (1902-1950), rumänisch-amerikanischer Statistiker. Während des Zweiten Weltkriegs wurde die Überlebendeabweichung im Thema Kampfflugzeugschaden berücksichtigt. 26. Anmerkung des Übersetzers: Leonid Hurwicz (1917-2008), Gewinner des Nobelpreises 2007 in Wirtschaftswissenschaften, war Pionier der Theorie des Mechanismus-Designs. 27.American Economic Review Vol. 35 (1945) S. 909-925. 28. Anmerkung des Übersetzers: Jacob Marschak, ein Ökonom und einer der Gründer der westlichen Informationsökonomie. 1959 veröffentlichte er einen Artikel "Kommentar zum Informationsökonom" mit der Geburt von Informationsökonomie. 29. Journal of Political Economy Vol. 54 (1946) S. 97-115. 30. [84] Die Statistik des Gravitationsfeldes, das sich aus einer zufälligen Verteilung von Sternen ergibt, I. mit S. chandrasekhar. Das Astrophysical Journal vol. 95 (1942) S. 489-531. 31. [88] Die Statistik des Gravitationsfeldes, das sich aus einer zufälligen Verteilung von Sternen ergibt. II. Die Geschwindigkeit der Schwankungen, dynamische Reibung*, räumliche Korrelationen. Mit S. chandrasekhar. Das Astrophysical Journal vol. 97 (1943) S. 1-27. 32. [108] Diskussion über die Existenz und Einzigartigkeit oder Multiplizität von Lösungen der Theaerodynamischen Gleichungen (Kapitel 10) der Probleme der kosmischen Aerodynamik, Verfahren des Symposiums über den Antrag der gasförmigen Massen der kosmischen Dimensionen, 16. August 1949. Zentralluftmassen. Büro, 1951, S. 75-84. 33. [100] Eine Methode zur numerischen Berechnung von hydrodynamischen Schocks. Mit Rd Richtmyer. Journal of Applied Physics Vol. 21 (1950) S. 232-237. 34. Jule Charney und er arbeitete eng an meteorologischen Fragen. Bitte beziehen Sie sich auf [104] numerische Integration der barotropen Wirbelgleichung. Mit JG Charney und R. Fjortoft. Tellus 2 (1950) S. 237-254. 35. [120] Können wir Technologie überleben?, Fortune, Juni 1955. 36. Anmerkung des Übersetzers: Ich habe die Linie "The Great Globe selbst" aus Shakespeares "The Storm" ausgeliehen. 37. Anmerkung des Übersetzers: ENIAC, sein vollständiger Name ist der elektronische numerische Integrator und Computer, ein elektronischer digitaler Integrator-Computer, der am 14. Februar 1946 in den USA geboren wurde. ENIAC ist der zweite elektronische Computer und der erste General-Purple-Computer nach ABC (Atanasov-Beere-Computer). Es ist ein vollständiger elektronischer Computer, der verschiedene Computerprobleme programmieren und lösen kann. 38. Anmerkung des Übersetzers: Für die geschlossene Lösung finden Sie bitte unter 39.Hubert: Problèmes Futurs des Mathématiques, Comptes-Rendus, 2ème Congrès International de Mathématiques, Paris, 1900. Dieser Artikel basiert auf der Lizenzvereinbarung für Wissenserstellung (CC BY-NC 4.0), übersetzt aus S. Ulam, John von Neumann 1903-1957, Bull. Amer. Mathe. Soc. 64 (1958), 1-49, Original-Link: https://www.ams.org/journals/bull/1958-64-03/s0002-9904-1958-10189-5/s0002-9904-1958-10189-5.pdf Produziert von: Science Popularization China Besondere Tipps 1. Gehen Sie zur „Featured Column“ unten im Menü des öffentlichen WeChat-Kontos „Fanpu“, um eine Reihe populärwissenschaftlicher Artikel zu verschiedenen Themen zu lesen. 2. „Fanpu“ bietet die Funktion, Artikel nach Monat zu suchen. Folgen Sie dem offiziellen Account und antworten Sie mit der vierstelligen Jahreszahl + Monat, also etwa „1903“, um den Artikelindex für März 2019 zu erhalten, usw. Copyright-Erklärung: Einzelpersonen können diesen Artikel gerne weiterleiten, es ist jedoch keinem Medium und keiner Organisation gestattet, ihn ohne Genehmigung nachzudrucken oder Auszüge daraus zu verwenden. Für eine Nachdruckgenehmigung wenden Sie sich bitte an den Backstage-Bereich des öffentlichen WeChat-Kontos „Fanpu“. |
>>: Wie weit ist Beteigeuze, der berühmte, dem Untergang geweihte Stern, entfernt?
Laufen ist eine von den meisten Menschen anerkann...
Geschrieben von: Liu Fang Herausgeber: Wang Haha ...
In letzter Zeit hat „Fanhua“ zu einer Vielzahl vo...
Sofern die Frau nicht schwanger ist, hat das Hula...
In den letzten Jahren wurden mit der rasanten Ent...
Kürzlich ging ein Video der Nanpu-Brücke im Inter...
Produziert von: Science Popularization China Auto...
Hegel sagte einmal, dass eine Nation nur dann Hof...
Die Menschen führen heutzutage ein reiches und bu...
Autor: Duan Yuechu und Huang Xianghong In der Aus...
Laut dem ausländischen Medium Android Authority s...
Nokias Schritt, ein Android-Telefon auf den Markt ...
Nach dem Haarewaschen stehen wir oft vor einer se...
Zusammengestellt von: Gong Zixin „Wundermittel zu...
Joggen ist eine sehr gute aerobe Übung, die uns h...