Gestern war der erste Tag des Jahres 2025 und die Astronautencrew von Shenzhou 19 schickte Feiertagsgrüße von der Raumstation zurück. Internetnutzer haben zum Ausdruck gebracht, dass die chinesische Raumstation immer Science-Fiction-hafter geworden sei, und ihre Aufmerksamkeit wurde vom neuen Partner des Astronauten Wang Haoze, Xiaohang, dem intelligenten Assistenten im Weltraum, erregt. In diesem Artikel erfahren wir mehr über die Roboter, die auf der Internationalen Raumstation arbeiten! Die Inbetriebnahme der Internationalen Raumstation bietet reichlich Raum für die Entwicklung von Robotern, die die Internationale Raumstation bedienen. Es sind verschiedene Roboterarme, automatische Schießroboter und automatische Satellitentestplattformen entstanden. Die Internationale Raumstation ist die größte jemals gebaute Weltraumeinrichtung. ROTEX-Projekt Das ROTEX-Projekt der Deutschen Raumfahrtagentur im Jahr 1993 war der Startschuss für die deutsche Weltraumautomatisierung und -robotik. Tatsächlich wurde ROTEX 1988 eingeführt und 1993 im Rahmen der Mission „Skylab D2“ mit dem Space Shuttle Columbia gestartet. Kern des Projekts ist ein kleiner sechsachsiger Roboterarm, der mit einem komplexen Multisensorgreifer ausgestattet ist. Das wichtigste experimentelle Ziel besteht darin, einen möglichst weitgehenden autonomen Betrieb auf Sensorbasis zu erreichen, aber auch bodengestützte Fernsteuerungstechnologie wird umfassend in Betracht gezogen. Zu den spezifischen Sensoren gehören zwei Sätze Sechsachsen-Drehmomentsensoren (basierend auf Dehnungsmessstreifen und optischen Sensoren) und ein taktiles Array zur Kontrolle der Griffkraft. Eine Reihe von neun Laser-Entfernungsmessern. Darüber hinaus erfassen zwei Miniatur-Stereokameras Stereobilder aus dem Inneren des Greifers nach außen und zwei fest installierte Kameras erfassen Stereobilder vom Arbeitsbereich des Roboters. Roboterarm des ROTEX-Projekts Dabei handelt es sich um drei konkrete Aufgaben: den Zusammenbau einer mechanischen Gitterstruktur, das Verbinden/Trennen der Track Replaceable Unit (ORU) mittels Greifer und das Greifen schwimmender Objekte. Die Flugüberprüfung zeigte, dass der Roboterarm des ROTEX-Projekts gemäß der Vorprogrammierung am Boden automatisch arbeiten kann, von der Space-Shuttle-Crew ferngesteuert oder vom Boden aus ferngesteuert werden kann und nach einer Neuprogrammierung am Boden auch hochgeladen und aktualisiert werden kann. ROKVISS Rockwell ist ein in Deutschland entwickelter Hardware-Prüfstand zur Manipulation mit zwei Freiheitsgraden für die Internationale Raumstation. Dies ist ein interessanter Roboter mit einer seltsamen Struktur. Es wird nicht verwendet, um Roboterarmaufgaben auszuführen, sondern um einige Schlüsseltechnologien und -geräte zu testen, damit es in Zukunft nähere und komplexere Weltraumaktivitäten durchführen kann. ROKVISS steht für Robotic Science Component Validation auf der Internationalen Raumstation und dient der Prüfung der Zuverlässigkeit von Telepräsenz-Steuerungskonzepten und der dazugehörigen Elektronik. Ziel ist es, in Zukunft Roboter zu entwickeln, die im Orbit der Raumstation oder sogar darüber hinaus arbeiten können. Rockwell wurde am 26. Januar 2005 von den Astronauten während eines sechsstündigen Außenbordeinsatzes installiert, nachdem sie eine Universalplattform an der Außenwand des russischen Servicemoduls Swesda befestigt hatten. Der Hauptteil von Rockvis ist ein Roboterarm mit zwei Gelenken und einem metallischen „Finger“ an der Spitze, einer Stereokamera und einer Monokamera. Die Universalplattform beherbergt Kästen mit elektronischer Ausrüstung zur Stromverteilung und Bildverarbeitung sowie eine seltsam aussehende Metallstruktur mit mehreren Löchern darin und einer Feder im Inneren, an der ein Haken hängt. Dies ist ein spezielles Gerät, das für dynamische Roboterbewegungsexperimente und die Bestimmung von Gelenkparametern verwendet wird. Die Steuerung der Robotergelenke und der Kamera erfolgt durch einen zentralen Experimentiercomputer an Bord der Internationalen Raumstation. Der Roboterarm kann in zwei verschiedenen Modi betrieben werden. Der automatische Modus wird in Szenarien verwendet, in denen weder vom Boden noch von den Astronauten eingegriffen wird. Das Experiment wurde von einem Experimentalcomputer an Bord der Internationalen Raumstation gesteuert und die Daten für eine spätere Auswertung gespeichert. Darüber hinaus gibt es einen Fernsteuerungsbetriebsmodus, bei dem während der geplanten Wartungs- und Reparaturarbeiten am Satelliten immer noch menschliche Bediener direkt in den Steuerkreis eingebunden sein müssen, da die Unvorhersehbarkeit solcher Aufgaben es schwierig macht, vorab festgelegte Programme am Boden festzulegen. Da sich die Internationale Raumstation relativ nahe am Boden befindet und über eine ausreichende Mess- und Kontrollabdeckung verfügt, können die Bodenbetreiber sie rund um die Uhr betreiben. Natürlich wäre es deutschen Betreibern lieber, wenn die Raumstation beim Flug über Weilheim in Süddeutschland direkt und ohne spürbare Zeitverzögerung über die DLR-eigenen Antennen gesteuert werden könnte. Dadurch können Wissenschaftler auf der Erde, die den Arm bedienen, nahezu in Echtzeit visuelles und sensorisches Feedback zu den Armbewegungen erhalten. Während des Tests können Bodenbediener die besonderen Kraftbedingungen des Roboters in der Weltraumumgebung durch Kraftrückkopplung intuitiv spüren. Die Ingenieure testeten außerdem, wie gut es Energie während der Bewegung absorbiert und wie sich die Reibung in seinen Lagern und Zahnrädern bei längerem Betrieb im Weltraum verhält. Kameras zeichneten den Testvorgang auf und übertrugen das Video in Echtzeit an den Kontrollraum, sodass die Wissenschaftler einen realistischen Eindruck vom Status und der Funktionsweise des Experiments erhielten. Deutsches Rockwell-Roboter-Bodenexperiment Die Weltraumstrahlung stellt für Rockwith eine erhebliche Herausforderung dar, da ein häufiger Ionenbeschuss elektronische Komponenten beschädigen kann. Um die Elektronik vor Beschädigungen zu schützen, ist im Steuermodul eine Funktion integriert, die im Falle eines Kurzschlusses die Stromzufuhr automatisch abschaltet und die gespeicherte Energie entnimmt. Aufgrund extremer Temperaturschwankungen müssen die Robotergelenke Temperaturen zwischen -20 Grad Celsius und +60 Grad Celsius standhalten. On-Orbit-Test des deutschen Rockwell-Roboters Der Hauptzweck dieses Experiments besteht darin, zukünftige Leichtbauroboter zu entwickeln, die komplexere Wartungs- oder Montagearbeiten durchführen können und direkt von Bedienern am Boden bedient werden können. Das ROKVISS-Experiment kostete 11,5 Millionen Euro, davon 3,5 Millionen Euro für Start, Montage und Betrieb zur ISS. KUGELN SPHERES ist das interne Mikrosatelliten-Testfeld auf der Internationalen Raumstation. Sein vollständiger Name lautet „Synchronous Position Holding, Engagement and Reorientation Experiment Satellite“ und er ist zugleich der Vorgänger von „Spacebee“. Es wurde vom Space Systems Laboratory des MIT für die NASA und das US-Militär entwickelt und dient als risikoarmes, skalierbares Testfeld für die Entwicklung von Algorithmen für Messtechnik, Formationsflug, Rendezvous, Andocken und Autonomie. SPHERES-Experimente in der Raumstation Die anfängliche Entwicklung von SPHERES begann im Jahr 1999. Professor David Miller forderte Studenten auf, eine Fernbedienung für das Kampftraining zu entwickeln, die denen ähnelt, die in den Filmen „Star Wars: Eine neue Hoffnung“ und „Star Wars: Angriff der Klonkrieger“ verwendet werden, und entwickelte das Konzept eines Satelliten in einer Kapsel. Nach der anfänglichen Entwicklung wurde das SPHERES-Programm vom Space Systems Laboratory des MIT übernommen, das sechs flugbereite Satelliten baute, von denen drei in die Internationale Raumstation gebracht wurden. Sie können auf der Internationalen Raumstation und in bodengebundenen Laboren eingesetzt werden, sind jedoch nicht in der Lage, im realen Weltraum zu fliegen. Jeder SPHERES-Satellit ähnelt einem 18-seitigen Polyeder. Die Aluminiumstruktur des Satelliten ist von einer durchscheinenden Kunststoffhülle umgeben. Die Außenschale ist zur leichteren Identifizierung rot, blau, orange oder schwarz. Die drei Satelliten der Internationalen Raumstation sind rot, blau und orange. Jede Einheit hat einen maximalen Durchmesser von 22,9 cm und eine Masse von 4,16 kg einschließlich Verbrauchsmaterial. Die Satelliten können über eine 916,5 MHz, 16 kbit/s Funkverbindung miteinander kommunizieren, und die Kommunikation mit der Kontrollstation (Laptop) erfolgt über eine 868,35 MHz, 16 kbit/s Funkverbindung. SPHERES-Satellit in der Kabine Der SPHERES-Satellit bestimmt seine Position und Lage mithilfe von 23 Ultraschallempfängern (Murata MA40S4R) und 5 externen Ultraschall-Referenzbaken, ergänzt durch Daten von Beschleunigungsmessern (3x Honeywell QA-750 einachsige Beschleunigungsmesser) und Gyroskopen (3x Systron Donner QRS14 einachsige Drehratengyroskope). Die SPHERES-Satelliten werden von zwei nicht wiederaufladbaren 12-V-Batterien mit Strom versorgt, die ausgetauscht werden müssen, wenn sie leer sind. Dies wurde in nachfolgenden Modellen verbessert. Der SPHERES-Satellit verwendet 12 kohlendioxidgekühlte Gastriebwerke zum Manövrieren und zur Lageregelung. Flüssiges Kohlendioxid wird in einem kleinen Behälter aufbewahrt. Die maximale lineare Beschleunigung des Satelliten beträgt 0,17 m/s² bei einer Genauigkeit von 0,5 cm. Die maximale Winkelbeschleunigung beträgt 3,5 rad/s2 bei einer Genauigkeit von 2,5 Grad. Allerdings war die Einspritzung von Kohlendioxid in die Kabine nicht optimal und auch nachfolgende Modelle wie der „Spacebee“ brachten Verbesserungen. "Weltraumbiene" Das SpaceBee-System besteht aus drei würfelförmigen Robotern, Software und einer Dockingstation zum Aufladen. Bei den Robotern handelt es sich um 12,5 Zoll (31,75 cm) große Würfel, die autonom zurückkehren können, um ihre Batterien aufzuladen. SpaceBee ersetzte SPHERES als Robotertestanlage der Raumstation. Als Antriebssystem nutzen die Roboter elektrische Ventilatoren, die kein Kohlendioxid mehr ausstoßen und ihnen so ermöglichen, in der Mikrogravitationsumgebung der Raumstation frei zu fliegen. Kameras und Sensoren helfen ihnen, ihre Umgebung zu „sehen“ und sich darin zurechtzufinden. Die SpaceBees verfügen außerdem über einen Sitzarm, mit dem sie sich an einem Handlauf festhalten und bewegungslos verharren können, um Energie zu sparen oder um Gegenstände zu greifen und festzuhalten. Missionswissenschaftler können SpaceBee nutzen, um Forschungen durchzuführen, die zur Entwicklung von Hardware- und Softwaretechnologien für zukünftige Missionen beitragen. Da der Roboter modular aufgebaut ist und aufgerüstet werden kann, bietet das System Forschern und Wissenschaftlern die Möglichkeit, innerhalb der Raumstation eine Vielzahl von Experimenten durchzuführen. Solche Roboter könnten möglicherweise auch als Wächter für zukünftige Raumfahrzeuge dienen, indem sie die Systeme überwachen und für einen reibungslosen Betrieb sorgen, während die Astronauten weg sind. Die SpaceBee-Unterstützungseinrichtungen wurden am 17. November 2018 mit der kommerziellen Versorgungsmission CRS-10 zur Internationalen Raumstation gestartet und am 15. Februar 2019 im japanischen Experimentiermodul der Raumstation installiert. Die „Weltraumbiene“ im Test Am 17. April 2019 wurden mit der Mission CRS-11 die ersten beiden Roboter von „Spacebees“, „Bumble“ und „Honey“, ins All gestartet. Am 25. Juli 2019 erreichten der dritte frei fliegende Roboter, Queen, und drei Sitzarme im Rahmen der 18. Commercial Resupply Services Mission (CRS-18) von SpaceX die Internationale Raumstation. Eine der Hauptaufgaben der „Space Bee“ besteht darin, Fotos im Inneren der Kabine zu machen. Darüber hinaus hat es aber noch eine weitere wissenschaftliche Forschungsmission, die für die Entwicklung der Außenbordtechnologie von großer Bedeutung ist. Die NASA führte einst ein Experiment mit dem Namen „Relative Operations Autonomous Maneuvering“ (ROAM) durch, das im Wesentlichen den Vorgang des Rendezvous eines Robotersatelliten mit Weltraumschrott demonstrierte. Bei den meisten Weltraumtrümmern handelt es sich um „tote Satelliten“, von denen einige repariert werden können, während andere zur Zerstörung in die Atmosphäre geschickt werden müssen. Allerdings befinden sich die meisten dieser Satelliten in einer Taumelbewegung und es ist für Robotersatelliten sehr riskant, sich ihnen zu nähern und sie einzufangen. Daher versuchte die NASA, mit dem ROAM-Experiment die „Weltraumbiene“ das Taumeln eines außer Kontrolle geratenen Satelliten in der Kabine simulieren zu lassen, Beobachtungen und Wahrnehmungen durchzuführen und Algorithmen für Rendezvous und Erfassung zu planen. Die Hauptidee des ROAM-Programms besteht darin, zunächst einen Erfassungssatelliten zu verwenden, um sich dem taumelnden Satelliten zu nähern, ein Koordinatensystem zu erstellen und dann mithilfe einer dreidimensionalen (3D) Flugzeitkamera und eines visuellen Schätzalgorithmus den Rotationszustand des Ziels, die Rotationsträgheitsparameter und die zugehörige Kovarianz aus der Ferne zu schätzen. Mithilfe von Offline-Simulationen potenzieller Zielüberschlagstypen wird eine Nachschlagetabelle generiert, die mithilfe der geschätzten Daten im Orbit aufgelöst wird. Dieser auf nichtlinearer Programmierung basierende Algorithmus berücksichtigt die bekannte Zielgeometrie und wichtige praktische Einschränkungen, wie z. B. Anforderungen an das Sichtfeld, um einen Bewegungsplan im Rotationsrahmen des Ziels zu erstellen. Gleichzeitig wird die Methode zur Unsicherheitscharakterisierung verwendet, um die Unsicherheit in der Zielrolle zu übertragen, sodass eine Störungsgrenze für die Referenztrajektorie im Trägheitssystem bereitgestellt werden kann. Schließlich wird diese Unsicherheitsgrenze dem robusten prädiktiven Rohrmodellregler zur Verfügung gestellt, um die Fähigkeit des Systems zu gewährleisten, der Referenztrajektorie translatorisch zu folgen. Für das ROAM-Experiment sind ein oder zwei Astronauten erforderlich, die den Aufbau des SpaceBee überwachen, und ein Bodenbediener, der die beiden SpaceBee-Roboter steuert. Die Astronauten brachten den SpaceBee zunächst in eine anfängliche Ausrichtung, während die Bodenkontrolleure letzte Positionierungs- und Befehlstests durchführten, um mit der Ausführung zu beginnen. Die Daten wurden auf den beiden SpaceBees mithilfe des Robot Operating System (ROS) gesammelt und anschließend manuell zur Erde zurückgesendet. Darüber hinaus verfolgten Bodenpersonal und Forscher einen Live-Videostream des Experiments, um den Fortschritt des Tests zu verfolgen, und sahen sich Echtzeitinformationen an, die von der SpaceBee-Bodenstation bereitgestellt wurden. Der Zweck des „SpaceBee“-Systems besteht auch darin, den Astronauten Zeit von einfacher Arbeit zu sparen und ihnen zu ermöglichen, sich stärker auf Dinge zu konzentrieren, die nur Menschen tun können. Die „Space Bee“ kann autonom arbeiten oder von Astronauten, Bodenkontrollpersonal oder Bodenforschern ferngesteuert werden. Es kann zur Bestandsaufnahme von Vorräten, zur Aufzeichnung von Experimenten in der Kabine und sogar zum Transport von Fracht verwendet werden. Das „SpaceBee“-System kann zudem als Forschungsplattform genutzt werden, um Ausrüstung und Programmierung vorzunehmen, Experimente in der Mikrogravitation durchzuführen und Erfahrungen und Daten für die spätere Entwicklung von Weltraumrobotern zu sammeln. Japans „Inside Ball“ Astronauten in der Raumstation müssen nicht nur Experimente durchführen und Einrichtungen warten, sondern auch Fotos und Videos aufnehmen, um den Betrieb der Raumstation aufzuzeichnen. Diese Bilder selbst haben einen hohen wissenschaftlichen Wert und können als populärwissenschaftliches Material verwendet werden. Allerdings erscheint es als Verschwendung, die kostbare Zeit eines Astronauten mit dem Aufnehmen von Bildern zu verschwenden, denn schließlich sind die Kosten für den Aufenthalt eines Menschen in der Umlaufbahn sehr hoch. Infolgedessen hat die NASA nacheinander die Entwicklung und den Flug von zwei Generationen von Kabinenrobotern gestartet, darunter die oben erwähnten SPHERES und die „Weltraumbienen“, die derzeit in der Raumstation fliegen. Neben den USA ist auch Japan sehr an Kabinenrobotern interessiert. So gibt es beispielsweise mittlerweile auf der Internationalen Raumstation einen Roboter namens „JEM Interior Sphere Camera 2“, kurz „Interior Sphere“, auch bekannt als freischwebende ferngesteuerte Panoramakamera. Es wurde 2017 erstmals von der Japan Aerospace Exploration Agency zur Raumstation geschickt. Seine Funktion besteht darin, mithilfe der Kamera selbstständig Videos und Fotos von Forschungsaktivitäten aufzunehmen, wodurch Astronauten Zeit sparen. Darüber hinaus kann es in Zukunft auch zum Testen anderer Missionen eingesetzt werden. Der „Interior Ball“ ist eigentlich nur ein Ball. Es schwebt frei in der Schwerelosigkeit der Raumstation und fliegt unter der Kontrolle von Bodenpersonal oder Astronauten umher, um Bilder des Inneren zu machen. Die „innere Kugel“ wiegt lediglich 1 Kilogramm und hat einen Durchmesser von lediglich 15 Zentimetern. Wie kontrolliert es also seine Position und Haltung? Tatsächlich ähnelt es den Drohnen auf der Erde. In der „inneren Kugel“ befinden sich drei Reaktionsschwungräder und 12 Propellertriebwerke. Dadurch ist es möglich, in einer Umgebung mit Mikrogravitation zu fliegen, zu schweben und die Fluglage zu ändern, und es verbraucht weniger Energie als Drohnen auf der Erde. Die Hauptbestandteile der „inneren Kugel“ und der Außenhülle werden im 3D-Druckverfahren hergestellt. Die simulierten zwei „Augen“ sind an der Außenseite des Balls angebracht. Außerdem gibt es auf der Außenhülle Lichter, die den aktuellen Betriebsstatus anzeigen, beispielsweise eine Aufnahme usw. Die Auflademethode ist dieselbe wie bei verschiedenen Produkten der Unterhaltungselektronik, nämlich über den USB-Anschluss. Astronauten interagieren mit der „inneren Sphäre“ JAXA hat außerdem die Inner Sphere 2 entwickelt und auf den Markt gebracht, die einige Erweiterungssteckplätze hinzufügt, um komplexere Funktionen zu ermöglichen. Nach Angaben der Japan Aerospace Exploration Agency beträgt die Zeit, die zum Aufnehmen von Bildern benötigt wird, etwa 10 % der täglichen Arbeitszeit der Raumstationsbesatzung, was wahrlich keine geringe Zahl ist. Wenn also die Forschung und der praktische Einsatz der „inneren Sphäre“ durchgeführt werden können und die Aufnahmeaktivitäten vom Bodenpersonal ferngesteuert werden können, lässt sich Zeit für die Astronauten sparen. Eine solche Technologie könnte nicht nur auf der Internationalen Raumstation, sondern künftig auch bei Erkundungsmissionen zum Mond und in den Tiefen des Weltraums zum Einsatz kommen. Allerdings ist die Kommunikationsverzögerung zwischen der Raumstation im niedrigen Orbit und der Erde relativ gering und die Fernsteuerung ist relativ einfach. Bei Mond, Asteroiden oder Mars erhöht sich die Zeitverzögerung deutlich. Bei der Steuerung der Kameraausrüstung durch das Bodenpersonal gibt es noch weitere technische Probleme, die gelöst werden müssen. |
<<: Sie wird „Königin der Blumen“ genannt, hat aber keine Blütenblätter …
Durch das Training der Schultermuskulatur können ...
Autor: Fluent Vor kurzem kursierte ein solches Bi...
Im Mittelalter basierte die westliche Medizin im ...
Tatsächlich sind viele Sportarten in unserem tägl...
Daten aus einem Bericht des Marktforschungsuntern...
Manche Menschen sind von Geburt an mit einem schw...
Am Niedergang der traditionellen PC-Industrie hat...
Endlich quetschte ich mich in den Aufzug Ein Ausb...
Es gibt viele Formen modernen Sports, darunter ru...
Auf Medikamentenbeilagen finden wir häufig Anweis...
Im täglichen Leben sollte sich jeder die gute Ang...
Mit der kontinuierlichen Weiterentwicklung der Au...
Bei der Erwähnung von „π“ denken Chinesen an Zu C...
Die japanische Automarke Subaru hat heute mit dem...
Seit Beginn des Herbstes lässt die Hitze allmähli...