Warum ist es so schwierig, einen winzigen Chip herzustellen?

Warum ist es so schwierig, einen winzigen Chip herzustellen?

Im digitalen Zeitalter sind Chips aus unserem Leben nicht mehr wegzudenken. Unsere Computer, Mobiltelefone und sogar die Autos, die wir fahren, sind alle mit einer großen Anzahl von Chips ausgestattet. Solange ein Chip nicht richtig funktioniert, wirkt sich dies auf unser Leben aus, vom Ausfall des Mobiltelefons bis hin zum außer Kontrolle geratenen Auto …

Haben wir, während wir die Bequemlichkeit von Chips genießen, jemals darüber nachgedacht, warum Chips im digitalen Zeitalter so wichtig sind? Warum ist die Entwicklung und Herstellung so schwierig? Dies muss mit der Geschichte der Chips beginnen.

Von Vakuumröhren zu Transistoren

„In der Antike regierten die Menschen, indem sie Seilknoten banden.“ Seit der Geburt der menschlichen Zivilisation ist die Computertechnik ein untrennbarer Teil unseres Lebens geworden. Von der Bilanz der Einnahmen und Ausgaben einer Familie bis hin zur wirtschaftlichen Ausrichtung eines Landes: All diese Zahlen, die das Schicksal einer Familie oder eines Landes bestimmen, müssen berechnet werden. Zu diesem Zweck wurden zahlreiche Rechenhilfen entwickelt, wie etwa ein Abakus, der Perlen auf und ab bewegt, oder ein Taschenrechner, bei dem man durch Drücken von Tasten die gewünschten Ergebnisse erhält.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Da unser Bedarf an Computertechnik weiter steigt, stoßen von Menschen durchgeführte Computermethoden schnell auf Engpässe. Der Krieg brachte die ersten Computer hervor: Turing entwickelte einen auf elektromechanischen Prinzipien basierenden Computer, der den deutschen Enigma-Code knackte; und um den deutschen Lorenz-Code zu knacken, entwickelte Großbritannien den „Colossus-Computer“, der zugleich als der erste programmierbare Digitalcomputer der Welt gilt. Diese Maschinen können problemlos Berechnungen durchführen, die für Menschen allein schwierig oder sogar unmöglich sind.

Der Kern des Giant-Computers ist die „Vakuumröhre“, die wie eine riesige Glühbirne mit einigen Metalldrähten im Inneren aussieht. Wenn der Strom eingeschaltet wird, haben diese Metalldrähte nur zwei Schicksale: Strom oder kein Strom, was im Binärsystem 1 und 0 entspricht. Mit diesen beiden Zahlen können theoretisch beliebige Berechnungen durchgeführt werden. Auch unsere heutige virtuelle Welt im Internet lässt sich grob als aus unzähligen Einsen und Nullen entstanden verstehen.

Obwohl auf Vakuumröhren basierende Computer leistungsstark sind, unterliegen sie auch ihren Grenzen. Zum einen waren Vakuumröhren zu sperrig. Die von der University of Pennsylvania gebaute ENIAC-Maschine verfügt über mehr als 17.000 Vakuumröhren, die enorm viel Platz einnehmen und erschreckend viel Strom verbrauchen. Andererseits birgt die große Anzahl an Vakuumröhren auch verschiedene versteckte Gefahren. Laut Statistik kommt es bei dieser Maschine durchschnittlich alle zwei Tage zu einem Ausfall der Vakuumröhre und jede Fehlerbehebung dauert mindestens 15 Minuten. Um verschiedene Einsen und Nullen stabil erzeugen zu können, begann man, nach Alternativen zu Vakuumröhren zu suchen.

Der Durchbruch gelang den renommierten Bell Labs, die sich für Halbleiter entschieden – Materialien, deren Leitfähigkeit irgendwo zwischen Leitern (die den freien Stromfluss ermöglichen, wie etwa Kupferdrähte) und Isolatoren (die überhaupt keinen Strom leiten, wie etwa Glas) liegt. Unter bestimmten Bedingungen können sich seine Leitfähigkeitseigenschaften ändern. Beispielsweise ist das uns allen bekannte „Silizium“ (Si) selbst nicht leitfähig, kann aber durch die Zugabe bestimmter anderer Materialien leitfähig werden. Daher kommt auch der Name „Halbleiter“.

William Shockley von den Bell Labs stellte erstmals die Theorie auf , dass sich durch Anlegen eines elektrischen Felds in der Nähe von Halbleitermaterialien deren Leitfähigkeit ändern ließe , doch konnte er seine Theorie experimentell nicht bestätigen.

Inspiriert von dieser Theorie entwickelten seine beiden Kollegen John Bardeen und Walter Brattain zwei Jahre später ein Halbleiterbauelement namens „Transistor“. Shockley wollte sich nicht übertreffen lassen und entwickelte ein Jahr später einen neueren Transistor. Zehn Jahre später erhielten alle drei den Nobelpreis für Physik für ihre Beiträge auf dem Gebiet der Transistoren. Da der Bereich der Transistoren immer weiter wächst und immer mehr neue Mitglieder aufnimmt, sind sie auch zum Eckpfeiler des digitalen Zeitalters geworden.

Die Geburt des Chips und des Silicon Valley

Als Transistoren nach und nach die Vakuumröhren ersetzten, wurden deren Grenzen in der praktischen Anwendung deutlich. Die wichtigste davon ist, wie man Zehntausende von Transistoren zu nutzbaren Schaltkreisen verdrahtet.

Damit Transistoren komplexe Funktionen erreichen können, benötigt die Schaltung neben Transistoren auch Komponenten wie Widerstände, Kondensatoren, Induktivitäten usw., und dann sind Schweiß- und Schaltungsverbindungen erforderlich. Für diese Komponenten gibt es keine Standardgröße, daher ist die Herstellung von Schaltkreisen ein großer Aufwand und fehleranfällig. Eine Lösung bestand damals darin, die Größe und Form jeder elektronischen Komponente festzulegen und den Schaltungsentwurf mithilfe eines modularen Ansatzes neu zu definieren.

Jack Kilby von Texas Instruments war von dem Plan nicht beeindruckt, da er glaubte, dass er das grundlegende Problem nicht lösen würde – egal, wie groß die Größe war, sie konnte nicht reduziert werden. Die daraus resultierenden modularen Schaltkreise sind immer noch sperrig und können nicht auf kleinere Geräte angewendet werden. Seine Lösung integrierte alles, indem er alle Transistoren, Widerstände und Kondensatoren auf einem Stück Halbleitermaterial platzierte, wodurch viel spätere Fertigungszeit gespart und die Möglichkeit von Fehlern verringert wurde.

Im Jahr 1958 fertigte er einen Prototyp aus Germanium (Ge), der einen Transistor, drei Widerstände und einen Kondensator enthielt und bei Anschluss über Drähte eine Sinuswelle erzeugen konnte. Diese neue Schaltung wurde „integrierte Schaltung“ genannt und erhielt später die geläufigere Abkürzung – Chip. Kilby selbst erhielt für seine Erfindung im Jahr 2000 den Nobelpreis für Physik.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Etwa zur gleichen Zeit kündigten acht Ingenieure gleichzeitig bei Shockley und gründeten gemeinsam Fairchild Semiconductor. Diese acht zurückgetretenen Personen sind die berühmten „Acht Rebellen“ in der Geschichte der Halbleiter. Auch Robert Noyce, der Anführer der acht Rebellen, dachte daran, mehrere Komponenten auf einem Stück Halbleitermaterial herzustellen, um integrierte Schaltkreise herzustellen. Im Gegensatz zu Kilbys Ansatz war bei seinem Entwurf die Verkabelung in die einzelnen Komponenten integriert. Dieses integrierte Design bietet größere Vorteile bei Produktion und Fertigung. Das einzige Problem sind die Kosten. Obwohl der integrierte Schaltkreis von Noyce offensichtliche Vorteile bietet, sind seine Kosten 50 Mal höher als die des Originals.

So wie der Krieg Jahrzehnte zuvor den Prototyp des Computers hervorgebracht hatte, eröffnete der Kalte Krieg auch Noyces Chips unerwartete Geschäftsmöglichkeiten. Als die ehemalige Sowjetunion den ersten künstlichen Satelliten startete und erstmals Menschen ins All schickte, spürten die Vereinigten Staaten eine Krise und starteten einen umfassenden Aufholplan. Sie beschlossen, als letzten Gegenangriff Menschen zum Mond zu schicken, doch diese Aufgabe erforderte einen enormen Rechenaufwand (Raketensteuerung, Betrieb der Landekapseln, Berechnung des besten Zeitfensters usw.). Die National Aeronautics and Space Administration (NASA) setzt ihr Schicksal auf Noyces Chip: Dieser integrierte Schaltkreis ist kleiner und verbraucht weniger Strom. Um Menschen zum Mond zu schicken, muss jedes Gramm Gewicht und jedes Watt Energie gezählt werden. Für diese Art von Extremprojekt ist es zweifellos die bessere Wahl.

Beim Projekt der bemannten Mondlandung stellte der Chip der Welt sein Potenzial unter Beweis. Noyce sagte, dass der Chip im Computer des Apollo-Projekts 19 Millionen Stunden lang lief und nur zwei Ausfälle aufwies, von denen einer durch externe Faktoren verursacht wurde.

Darüber hinaus bestätigte die Mondlandungsmission auch, dass der Chip in der extrem rauen Umgebung des Weltraums normal funktionieren kann. Nach dem Aufstieg von Fairchild gründeten Mitarbeiter dieses Unternehmens auch in der Region Firmen wie Intel und AMD. Dieses mit Halbleiterunternehmen dicht besiedelte Gebiet erhielt später einen bekannteren Namen: Silicon Valley.

Fotolithografie

Die Größe eines integrierten Schaltkreises ist viel kleiner als die eines Schaltkreises, der aus verstreuten Transistorkomponenten besteht, und oft ist ein Mikroskop erforderlich, um die Struktur im Inneren zu sehen und die Qualität zu überprüfen. Jay Lathrop von Texas Instruments hatte während einer Beobachtung plötzlich eine Idee: Wenn man durch ein Mikroskop nach unten schaut, kann man Dinge vergrößern. Kann man sie also verkleinern, wenn man von unten nach oben schaut?

Das ist nicht zum Spaß. Zu dieser Zeit hatte die Größe integrierter Schaltkreise die Grenzen der manuellen Fertigung erreicht und es war schwierig, neue Durchbrüche zu erzielen. Wenn der entworfene Schaltplan auf Halbleitermaterialien „gedruckt“ werden kann, ist eine automatisierte Herstellung und Massenproduktion möglich.

Lathrop testete seine Idee schnell. Zuerst kaufte er von Kodak eine Chemikalie namens Fotolack und trug sie auf das Halbleitermaterial auf. Anschließend drehte er das Mikroskop wie geplant um und bedeckte die Linse mit einer Platte, sodass nur noch ein kleines Muster sichtbar blieb.

Schließlich leitete er das Licht durch eine Linse auf einen Fotolack am anderen Ende des Mikroskops. Unter Lichteinwirkung erfährt der Fotolack eine chemische Reaktion, löst sich langsam auf und verschwindet, wodurch das darunterliegende Siliziummaterial freigelegt wird. Die Form des freiliegenden Materials entsprach exakt dem Muster, das er ursprünglich entworfen hatte, wurde jedoch hundert- oder tausendfach verkleinert. In die freiliegenden Rillen können die Hersteller neues Material einbringen, die Schaltkreise verbinden und anschließend den überschüssigen Fotolack wegwaschen. Bei diesem Prozesssatz handelt es sich um die Fotolithografietechnologie, die zur Herstellung von Chips verwendet wird.

Texas Instruments verbesserte diesen Prozess später noch weiter, sodass jede Verbindung über einen Standard als Referenz verfügte, was auch die Ära der standardisierten Massenproduktion integrierter Schaltkreise einläutete. Da Chips immer komplexer werden, muss dieser Vorgang zur Herstellung eines integrierten Schaltkreises mindestens Dutzende Male wiederholt werden.

Fairchild zog nach und entwickelte eine eigene Technologie zur Fotolithografie-Produktion. Neben Noyce sind auch die anderen sieben Gründer dieses Unternehmens außergewöhnliche Menschen. Unter ihnen ist Gordon Moore der Beste.

Im Jahr 1965 machte er eine Vorhersage über die Zukunft integrierter Schaltkreise. Er war davon überzeugt, dass sich die Anzahl der Komponenten in einem Chip mit der fortschreitenden Weiterentwicklung von Produktionstechnologien wie der Fotolithografie jedes Jahr verdoppeln würde. Auf lange Sicht wird die Rechenleistung der Chips exponentiell steigen und die Kosten deutlich sinken. Eine offensichtliche Konsequenz davon ist, dass Chips in großer Zahl in die Haushalte der einfachen Leute Einzug halten und die Welt völlig verändern werden. Moores Vorhersage wurde später „Mooresches Gesetz“ genannt und weltweit bekannt.

Die Voraussetzung für die Entstehung des Mooreschen Gesetzes ist die kontinuierliche Weiterentwicklung und Innovation der Fertigungstechnologie. Die von einigen frühen Unternehmen entwickelte Fotolithografietechnologie war nahezu perfekt. Es war, als würde man Strich für Strich Licht auf den Fotolack zeichnen, um Linien von nur einem Mikrometer Breite herauszuarbeiten. Darüber hinaus können mit dieser Technologie mehrere Chips gleichzeitig graviert werden, wodurch die Chip-Produktionskapazität erheblich verbessert wird. Angesichts der ständig steigenden Anforderungen an die Präzision bei der Chipherstellung können Lithografiemaschinen im Mikronbereich die Anforderungen der Branche jedoch nicht mehr erfüllen, und Lithografiemaschinen im Nanobereich sind zum neuen Liebling geworden.

Allerdings ist es nicht einfach, eine solche Lithografiemaschine zu entwickeln. Die Frage, wie Lithografie in immer kleineren Miniräumen durchgeführt werden kann, ist zu einem Engpass geworden, der die Entwicklung der Lithografietechnologie behindert.

Extrem-Ultraviolett-Lithografie

Im Jahr 1992 drohte das Mooresche Gesetz zu scheitern. Um seine Gültigkeit zu behalten, mussten die Chip-Schaltkreise kleiner werden. Sei es die verwendete Lichtquelle oder die vom Licht angestrahlte Linse, es ergeben sich neue Anforderungen.

Als Lathrop die Fotolithografie entwickelte, nutzte er das einfachste sichtbare Licht. Die Wellenlänge dieser Lichter beträgt etwa einige hundert Nanometer, und die letztendliche maximale Größe, die auf den Chip gedruckt wird, beträgt ebenfalls einige hundert Nanometer. Wenn Sie kleinere Komponenten auf den Chip drucken müssen (zum Beispiel nur einige zehn Nanometer), muss die erforderliche Lichtquelle über die Grenzen des sichtbaren Lichts hinausgehen und in den Bereich des ultravioletten Lichts gelangen.

Einige Unternehmen haben Fertigungsanlagen entwickelt, die tiefes Ultraviolettlicht (DUV) mit Wellenlängen von weniger als 200 Nanometern verwenden. Doch auf lange Sicht ist extrem ultraviolettes Licht (EUV) das gewünschte Ziel – je kürzer die Wellenlänge, desto mehr Details können auf dem Chip eingraviert werden . Schließlich konzentrierte man sich auf extrem ultraviolettes Licht mit einer Wellenlänge von 13,5 Nanometern und ASML aus den Niederlanden wurde zum weltweit einzigen Hersteller von EUV-Maschinen.

Die EUV-Technologie befindet sich seit fast 20 Jahren in der Entwicklung. Um eine funktionierende EUV-Maschine zu bauen, muss ASML die Welt nach den fortschrittlichsten Teilen absuchen, um seinen Bedarf zu decken. Als Lithografiemaschine wird zunächst eine Lichtquelle benötigt: Um EUV zu erzeugen, muss man einen Zinntropfen mit einem Durchmesser von nur einigen zehn Mikrometern abfeuern, ihn mit einer Geschwindigkeit von mehr als 300 Kilometern pro Stunde durch ein Vakuum fliegen lassen und ihn gleichzeitig präzise mit einem Laser treffen – und zwar nicht nur einmal, sondern zweimal.

Beim ersten Mal wird es erhitzt, und beim zweiten Mal wird es zu einem Plasma mit einer Temperatur von 500.000 Grad zerschossen, was einem Vielfachen der Temperatur der Sonnenoberfläche entspricht. Dieser Vorgang muss 50.000 Mal pro Sekunde wiederholt werden, um genügend EUV zu erzeugen. Man kann sich vorstellen, wie viele fortschrittliche Komponenten für eine derart hochtechnologische und anspruchsvolle Technologie erforderlich sind.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Die tatsächliche Bedienung ist komplizierter als die obige Beschreibung. Um beispielsweise die große Wärmemenge abzuführen, die bei der Laserbestrahlung entsteht, ist zur Belüftung ein Ventilator erforderlich, dessen Rotationsgeschwindigkeit 1.000 Umdrehungen pro Sekunde erreichen muss. Diese Geschwindigkeit überschreitet die Grenzen physikalischer Lager, sodass Magnete erforderlich sind, um den Lüfter in der Luft schwebend und rotierend zu halten.

Darüber hinaus werden an den Lasersender strenge Anforderungen hinsichtlich der Gasdichte gestellt. Außerdem müssen Reflexionen des Laserstrahls auf den Zinntröpfchen vermieden werden, da diese das Instrument beeinträchtigen würden. Allein die Entwicklung der Maschine, die den Laser aussendet, erforderte mehr als 10 Jahre Forschung und Entwicklung und jeder Sender benötigt mehr als 450.000 Komponenten.

Das durch den Beschuss der Zinntröpfchen erzeugte EUV-Licht ist schwer zu bekommen und die Forscher müssen noch lernen, wie sie dieses Licht einfangen und zum Chip leiten können. Die Wellenlänge von EUV ist so kurz, dass es leicht von umgebenden Materialien absorbiert statt reflektiert wird. Schließlich entwickelte Carl Zeiss einen extrem glatten Spiegel, der EUV reflektiert.

Die Glätte dieses Spiegels übersteigt jede Vorstellungskraft – offiziell heißt es, wenn dieser Spiegel auf die Größe ganz Deutschlands vergrößert würde, würde die größte Unregelmäßigkeit des Spiegels nur 0,1 mm betragen. Das Unternehmen ist außerdem davon überzeugt, dass seine Spiegel Laser so steuern können, dass Golfbälle auf dem Mond präzise geschlagen werden.

Ein derart komplexer Ausrüstungssatz erfordert nicht nur wissenschaftliche und technologische Kenntnisse, sondern auch ein vollständiges Management der Lieferkette. ASML selbst produziert nur 15 % der Komponenten für seine EUV-Maschinen; der Rest kommt von Partnern aus aller Welt. Selbstverständlich werden sie auch die eingekauften Produkte sorgfältig überwachen und diese Unternehmen bei Bedarf sogar aufkaufen und selbst leiten. Eine solche Maschine ist die Kristallisation von Technologien aus verschiedenen Ländern.

Der erste Prototyp einer EUV-Maschine entstand im Jahr 2006. Im Jahr 2010 wurde die erste kommerzielle EUV-Maschine ausgeliefert. ASML rechnet damit, in den nächsten Jahren eine neue Generation von EUV-Maschinen auf den Markt zu bringen, die jeweils 300 Millionen Dollar kosten werden.

Chip-Anwendung

Dank fortschrittlicher Fertigungstechnologie sind verschiedenste Chips entstanden. Einige Leute sind zu dem Schluss gekommen, dass Chips im 21. Jahrhundert in drei Kategorien unterteilt werden können.

Der erste Typ sind Logikchips, die als Prozessoren in unseren Computern, Mobiltelefonen oder Netzwerkservern verwendet werden;

Die zweite Kategorie sind Speicherchips, zu deren klassischen Beispielen der von Intel entwickelte DRAM-Chip gehört. Vor der Markteinführung dieses Produkts basierte die Datenspeicherung auf Magnetkernen: Magnetisierte Komponenten stellten 1 dar, unmagnetisierte Komponenten 0. Intels Ansatz besteht darin, Transistoren und Kondensatoren zu kombinieren, wobei das Laden 1 und das Entladen 0 darstellt. Im Vergleich zu Magnetkernen basiert das neue Speichertool auf einem ähnlichen Prinzip, allerdings ist alles in den Chip integriert, sodass es kleiner ist und eine geringere Fehlerrate aufweist. Solche Chips versorgen Computer während des Betriebs mit Kurzzeit- und Langzeitgedächtnis;

Der dritte Chiptyp wird „Analogchip“ genannt und verarbeitet analoge Signale.

Unter diesen Chips sind Logikchips wahrscheinlich bekannter. Obwohl Intel den ersten DRAM-Speicherchip entwickelte, verlor das Unternehmen gegenüber der Konkurrenz japanischer Unternehmen an Boden. Im Jahr 1980 gingen Intel und IBM eine Partnerschaft zur Herstellung von Zentraleinheiten (CPUs) für Personalcomputer ein.

Mit dem Erscheinen des ersten Personal Computers von IBM wurde der in diesen Computer eingebaute Intel-Prozessor zum „Standard“ der Branche, ebenso wie Microsofts Windows-System der Öffentlichkeit als Betriebssystem vertrauter wurde. Dieses Wagnis ermöglichte es Intel auch, sich vollständig aus dem DRAM-Bereich zurückzuziehen und wieder aufzusteigen.

Die Entwicklung einer CPU geschieht nicht über Nacht. Tatsächlich entwickelte Intel bereits 1971 den ersten Mikroprozessor (im Vergleich zur CPU kann dieser nur eine einzige spezifische Aufgabe bewältigen), und die Entwicklung des gesamten Designprozesses dauerte ganze sechs Monate. Zu dieser Zeit bestand dieser Mikroprozessor nur aus Tausenden von Komponenten und die einzigen verwendeten Designwerkzeuge waren Buntstifte und Lineale, was so rückständig war wie ein mittelalterlicher Handwerker. Lynn Conway entwickelte ein Programm, das das Problem des automatisierten Chipdesigns löste. Mit diesem Programm können Studierende, die noch nie einen Chip entworfen haben, in kurzer Zeit lernen, wie man einen funktionsfähigen Chip entwirft.

In den späten 1980er Jahren entwickelte Intel den 486-Prozessor, der 1,2 Millionen winzige Komponenten auf einem winzigen Siliziumchip unterbringen konnte, um verschiedene Nullen und Einsen zu erzeugen. Bis 2010 könnten die fortschrittlichsten Mikroprozessorchips eine Milliarde Transistoren enthalten. Die Entwicklung dieses Chiptyps ist untrennbar mit der Designsoftware verbunden, die von einigen wenigen oligopolistischen Unternehmen entwickelt wird.

Ein anderer Typ von Logikchip – die Grafikverarbeitungseinheit (GPU, allgemein als Grafikkarte bekannt) – hat in den letzten Jahren ebenfalls zunehmende Aufmerksamkeit auf sich gezogen. Nvidia ist ein wichtiger Akteur auf diesem Gebiet. In seinen Anfangstagen war das Unternehmen davon überzeugt, dass 3D-Grafiken die Zukunft seien. Daher entwarf es eine GPU, die 3D-Grafiken verarbeiten konnte, und entwickelte eine entsprechende Software, die dem Chip erklärte, wie er arbeiten sollte. Im Gegensatz zur zentralen Verarbeitungseinheit von Intel, die „sequenziell berechnet“, besteht der Vorteil der GPU darin, dass sie eine große Anzahl einfacher Berechnungen gleichzeitig durchführen kann.

Niemand hatte erwartet, dass GPU im Zeitalter der künstlichen Intelligenz eine völlig neue Mission haben würde. Um Modelle künstlicher Intelligenz zu trainieren, müssen Wissenschaftler Daten verwenden, um Algorithmen kontinuierlich zu optimieren, damit die Modelle darauf trainiert werden können, von Menschen zugewiesene Aufgaben zu erledigen, wie etwa das Erkennen von Katzen und Hunden, das Spielen von Go oder die Kommunikation mit Menschen. Derzeit verfügt die GPU, die für die „parallele Verarbeitung“ von Daten für mehrere Berechnungen gleichzeitig entwickelt wurde, über einen einzigartigen Vorteil und hat im Zeitalter der künstlichen Intelligenz zudem neues Leben erhalten.

Eine weitere wichtige Anwendung von Chips ist die Kommunikation. Irwin Jacobs erkannte, dass Chips einige komplexe Algorithmen verarbeiten konnten, um riesige Mengen an Informationen zu kodieren. Also gründeten er und seine Freunde Qualcomm und stiegen in die Kommunikationsbranche ein. Wir wissen, dass das erste Mobiltelefon auch „Big Brother“ genannt wurde und wie ein schwarzer Ziegelstein aussah.

In der Folgezeit hat sich die Kommunikationstechnologie rasant weiterentwickelt: Mit der 2G-Technologie lassen sich Bilder und Texte übertragen, mit der 3G-Technologie lassen sich Websites öffnen, 4G reicht aus, um Videos flüssig anzusehen, und 5G kann einen noch größeren Sprung nach vorn ermöglichen. Jedes G steht hier für „Generation“. Wie Sie sehen, können wir mit jeder Generation der drahtlosen Technologie exponentiell mehr Informationen über Funkwellen übertragen. Wenn wir heutzutage Videos auf unseren Mobiltelefonen ansehen, werden wir schon bei der kleinsten Verzögerung ungeduldig. Wir wussten nicht, dass wir vor über 10 Jahren nur Textnachrichten senden konnten.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Qualcomm war anschließend an der Entwicklung von 2G und anderen Mobiltelefontechnologien beteiligt. Durch die Verwendung von Chips, die sich gemäß dem Mooreschen Gesetz weiterentwickeln, kann Qualcomm ein unbegrenztes Spektrum nutzen, um mehr Mobiltelefongespräche im riesigen Weltraum zu führen. Um das 5G-Netz aufzurüsten, müssen nicht nur neue Chips in Mobiltelefonen verbaut werden, sondern auch neue Hardware in Basisstationen installiert werden. Diese Hardware und Chips verfügen über eine höhere Rechenleistung und können Daten mithilfe drahtloser Methoden schneller übertragen.

Fertigung und Lieferkette

Im Jahr 1976 verfügte fast jedes Unternehmen, das einen Chip entwickelte, über eine eigene Produktionsstätte. Wenn jedoch die Arbeit des Chipdesigns und der Chipherstellung getrennt und die Chipherstellung an eine spezialisierte Gießerei übergeben wird, können die Kosten des Chipdesignunternehmens erheblich gesenkt werden.

TSMC wurde gegründet und versprach, Chips nur herzustellen, nicht zu entwerfen. Auf diese Weise müssen sich Unternehmen, die Chips entwickeln, keine Sorgen über das Durchsickern vertraulicher Informationen machen. Und TSMC ist nicht darauf angewiesen, mehr Chips zu verkaufen – solange seine Kunden erfolgreich sind, ist auch das Unternehmen erfolgreich.

Vor TSMC hatten einige amerikanische Chipunternehmen ihr Augenmerk auf die andere Seite des riesigen Pazifischen Ozeans gerichtet: In den 1960er Jahren gründete Fairchild in Hongkong ein Zentrum zur Montage verschiedener Chips, die aus Kalifornien geliefert wurden. Im ersten Produktionsjahr montierte das Werk in Hongkong 120 Millionen Geräte bei extrem niedrigen Arbeitskosten und hervorragender Qualität. Innerhalb eines Jahrzehnts hatten fast alle amerikanischen Chiphersteller Fertigungswerke in Asien errichtet. Dies legte auch den Grundstein für die aktuelle Chip-Lieferkettenstruktur mit Schwerpunkt auf Ostasien und Südostasien.

Asiens Effizienz und Qualitätsbesessenheit stellten schon bald eine Herausforderung für die Position der USA in der Chipindustrie dar. In den 1980er Jahren stellten Führungskräfte eines Unternehmens, die für die Prüfung der Chipqualität zuständig waren, unerwartet fest, dass die Qualität der in Japan produzierten Chips die der in den USA produzierten Chips übertraf – die Ausfallrate gewöhnlicher amerikanischer Chips war 4,5-mal so hoch wie die japanischer Chips, und die Ausfallrate der amerikanischen Chips von minderer Qualität war 10-mal so hoch wie die japanischer Chips! „Made in Japan“ ist nicht mehr gleichbedeutend mit billiger, aber minderwertiger Qualität. Noch erschreckender ist die Tatsache, dass selbst die bis an ihre Grenzen ausgelasteten amerikanischen Produktionslinien noch immer weit weniger effizient sind als die japanischen. „Die Kapitalkosten in Japan lagen bei nur 6 bis 7 Prozent, und zu meiner besten Zeit lagen sie bei 18 Prozent“, sagte AMD-CEO Jerry Sanders einmal.

Auch das finanzielle Umfeld trug dazu bei, diesen Trend zu verstärken: Um die Inflation einzudämmen, lag der Leitzins in den USA einst bei bis zu 21,5 Prozent. Japans Chiphersteller wurden alle von Konsortien getragen und die Bevölkerung war es gewohnt, zu sparen, was es den Banken ermöglichte, Chipherstellern lange Zeit große Kredite mit niedrigen Zinsen zu gewähren. Mithilfe von Kapital können japanische Unternehmen aggressiv Marktanteile erobern.

Dies hatte zur Folge, dass sich die Unternehmen, die hochentwickelte Logikchips herstellen konnten, schließlich in Ostasien konzentrierten und die hergestellten Chips dann zur Montage in die umliegenden Gebiete geschickt wurden. Beispielsweise werden Apples Chips hauptsächlich in Südkorea und Taiwan produziert und dann zur Montage an Foxconn geschickt. Zu diesen Chips gehören nicht nur der Hauptprozessor, sondern auch Chips für drahtlose Netzwerke und Bluetooth, Chips zum Aufnehmen von Bildern, Chips zur Bewegungserkennung usw.

Da sich die Fähigkeit zur Herstellung und Fertigung von Chips nach und nach in den Händen einiger weniger Unternehmen konzentriert hat, haben diese ursprünglichen Gießereiunternehmen auch mehr Macht erlangt, beispielsweise bei der Koordinierung der Bedürfnisse verschiedener Unternehmen und sogar bei der Festlegung von Regeln. Da die Unternehmen, die derzeit für die Entwicklung von Chips zuständig sind, nicht über die Fähigkeit verfügen, Chips herzustellen, können sie lediglich Ratschläge befolgen. Diese wachsenden Mächte sind auch eines der Themen aktueller geopolitischer Auseinandersetzungen.

Abschluss

Von der Maschine, die die Codes des Zweiten Weltkriegs entschlüsselte, bis zum Raumschiff, das einen Menschen zum Mond schickte. Vom tragbaren Musikplayer, der Musik abspielt, über die Flugzeuge und Autos, die wir für unsere täglichen Reisen nutzen, bis hin zu den Mobiltelefonen und Computern, die wir zum Lesen dieses Textes verwenden, sind diese Geräte untrennbar mit Chips verbunden.

Jeder normale Mensch verwendet im Laufe seines Lebens täglich mindestens Dutzende oder Hunderte Chips. All dies ist untrennbar mit der Entwicklung der Chiptechnologie sowie der Produktion und Herstellung von Chips verbunden. Chips sind eine der wichtigsten Erfindungen dieser Ära. Um neue Chips zu entwickeln, benötigen wir nicht nur die Unterstützung von Wissenschaft und Technologie, sondern auch fortschrittliche Fertigungs- und Produktionskapazitäten sowie einen zivilen Markt für die Anwendung dieser Chips.

Die Gestaltung des Chipdesigns und der Fertigungskapazitäten hat sich im Laufe der Jahrzehnte verändert und das aktuelle Muster gebildet. In dieser Ära haben sich auch unterschiedliche Bedeutungen herausgebildet. Dieser Artikel soll interessierten Lesern als Referenz dienen, indem er auf einige wichtige industrielle Knotenpunkte im Bereich Chips der letzten Jahrzehnte zurückblickt.

Planung und Produktion

Autor: Ye Shi Popular Science Creator

Rezension von Huang Yongguang, assoziierter Forscher für optoelektronische Chips, Institut für Halbleiter, Chinesische Akademie der Wissenschaften

Planung von Xu Lai

Herausgeber: Yinuo

Das Titelbild und die Bilder in diesem Artikel stammen aus der Copyright-Bibliothek

Nachdruck kann zu Urheberrechtsstreitigkeiten führen

<<:  Wie überwindet das Blut in den Beinen und Füßen die Schwerkraft und fließt zum Herzen?

>>:  Beidou-Navigation: Der „Retter“ und „Helfer“ der Navigationsbranche

Artikel empfehlen

Industrieroboter, menschliche Assistenten oder Angst erzeugende Maschinen?

Die rasante Entwicklung des Internets hat die zuv...

Außenhandel B2C E-Commerce Lightinthebox Forschungsbericht – IPO-Version

Von Li Yan Guo Quji, der Gründer von LightInTheBo...

„Was Sie gefunden haben, ist ein Fußball!“

Geschrieben von Liu Dun Eines Tages im September ...

Führt Fitness zu einer Gewichtszunahme?

Viele Menschen sind es gewohnt, sich fit zu halte...

Wie baut man ohne Geräte Muskeln auf?

Normalerweise verwenden wir oft Geräte zum Traini...

Warum baue ich durch Laufen keine Muskeln auf?

Laufen ist eine sehr gute Möglichkeit, sich körpe...

Poincarés Spezielle Relativitätstheorie Teil 1: Entdeckung der Lorentz-Gruppe

|Autor: Jin Xiaofeng (Fakultät für Physik, Univer...

Kann durch Laufen Feuchtigkeit entfernt werden?

Viele junge Menschen leiden heutzutage unter eine...