39C3: Skynet Starter Kit – Forscher übernehmen humanoide Roboter per Funk und KI
Auf dem 39C3 demonstrieren Experten, wie schlecht es um die Security humanoider Roboter steht. Die Angriffspalette reicht bis zum Jailbreak der integrierten KI.
Die Vision ist verlockend: Humanoide Roboter sollen uns in naher Zukunft "schmutzige" oder gefährliche Arbeiten abnehmen. Konzerne wie Tesla und dessen Eigentümer Elon Musk treiben das Thema voran, doch der Marktführer bei den Stückzahlen ist oft der chinesische Hersteller Unitree. Dessen Modell G1 wird bereits massiv vertrieben – laut den Forschern Shipei Qu, Zikai Xu und Xuangan Xiao sind über 50.000 Einheiten verkauft. Doch während die Hardware beeindruckende Fortschritte macht, scheint die IT-Sicherheit in der Entwicklung kaum eine Rolle zu spielen. Unter dem provokanten Titel "Skynet Starter Kit" zerlegten die Experten auf dem 39. Chaos Communication Congress (39C3) in Hamburg das Ökosystem der Roboter.
Der Unitree G1 wird standardmäßig per App oder einer Game-Controller-ähnlichen Funkfernbedienung gesteuert. Shipei Qu von der chinesischen IT-Sicherheitsfirma Darknavy erklärte am Sonntag, dass das Team das Funkmodul per Blackbox-Reverse-Engineering untersuchte, da der Hersteller die Chip-Beschriftungen entfernt hatte. Durch den Einsatz von Software Defined Radio (SDR) und "educated guessing" fand das Trio heraus, dass der Roboter auf dem LoRa-Protokoll im 2,4-GHz-Band funkt.
Das Ergebnis der Analyse war erschreckend: Es gibt keine Verschlüsselung und nur eine extrem schwache Authentifizierung. Die Forscher konnten den sogenannten "Sync-Word-Parameter" (2 Bytes) per Brute-Force knacken und so die Kontrolle über fremde Roboter übernehmen. In einer aufgezeichneten Demo zeigten sie, wie ein Angreifer einen G1 fernsteuern kann, ohne jemals physischen Zugriff oder das Pairing-Passwort gehabt zu haben. Die Antwort von Unitree auf diesen Fund: Die Lücke könne erst in der nächsten Hardware-Generation geschlossen werden.
WebRTC und Cloud: Einfallstor für Botnetze
Zikai Xu beleuchtete die Netzwerkschnittstellen. Über Protokolle wie WebRTC und MQTT kommuniziert der Roboter mit dem Internet und der Smartphone-App. Hier stießen die Forscher auf fundamentale Designfehler. So wird das Passwort für den Fernzugriff oft trivial aus der Seriennummer des Geräts abgeleitet.
Noch brisanter ist der Angriff auf den "Embodied AI Agent". Der G1 nutzt das große Sprachmodell (LLM) von ChatGPT, um Sprachbefehle zu interpretieren und in Aktionen umzusetzen. Den Forschern gelang ein Prompt-Injection-Angriff: Durch gezielte Sätze brachten sie die KI dazu, Systembefehle mit Root-Rechten auszuführen. Damit wird die KI, die eigentlich die Interaktion erleichtern soll, zum Trojanischen Pferd, das Angreifern vollen Zugriff auf das Betriebssystem (einen Root-Shell) gewährt. Von hier aus lässt sich nicht nur der Videostream der Kopfkamera abgreifen, sondern theoretisch auch ein Botnetz aus tausenden Robotern koordinieren.

