Zum Inhalt springen
Foto eines Roboters mit Exxeta Stickern

Der erste humanoide Roboter bei Exxeta

Sie sehen aus wie wir, lernen von uns – und interagieren mit der Welt: Humanoide Roboter sind die neue Schnittstelle zwischen Mensch und Maschine. Möglich wird das durch einen neuen technologischen Dreiklang: Physical AI, Agentic AI und Large Language Models. 

Was früher reine Software war, bekommt jetzt einen Körper. Physical AI bringt künstliche Intelligenz in Bewegung – wortwörtlich. Roboter lernen nicht nur Sprache, sondern auch Verhalten, Gesten, Timing. Mit Agentic AI gehen sie noch einen Schritt weiter: Sie handeln eigenständig, setzen Ziele, treffen Entscheidungen. Und das verändert, wie wir mit Maschinen interagieren und sie einsetzen können. 

Genau das wollten wir bei Exxeta testen. Wir wollten wissen: Wie viel steckt hinter dem Hype um humanoide Roboter – und was ist heute schon konkret machbar? Was kann der Roboter G1 des chinesischen Herstellers Unitree Robotics wirklich? Und wie weit lässt sich seine Performance mit den richtigen Modellen und Tools pushen? 

Zusammen mit unserem Partner Sino Swiss Hub haben wir in nur fünf Wochen einen Proof of Concept auf die Beine gestellt. Unser Ziel: mit Prometheus einen Roboter schaffen, der sich nicht nur selbstständig bewegen, sondern auch mit Menschen kommunizieren kann – in unterschiedlichen Sprachen, mit echtem Kontextverständnis und ohne ständige Fernsteuerung. 

Pimp it like a champ: Woche für Woche zum Erfolg 

Woche 1 – Sensorik, Plattform, Grundlagenarbeit 

In der ersten Woche ging es schon ans Eingemachte: Grundlagen schaffen. Denn um Prometheus gezielt weiterentwickeln zu können, mussten wir erstmal verstehen, wie die Hardware und Sensorik des Unitree G1 funktioniert. Der Roboter kann von Haus aus stehen, sich ausbalancieren und einfache Bewegungen ausführen – allerdings alles per Fernbedienung. Autonom ist das nicht. 

Also: Deep Dive. Wir wollten wissen: Wie funktioniert die Plattform? Wie arbeiten Lidar, Tiefenkamera und IMU (Inertial Measurement Unit) zusammen? Welche Daten liefert Prometheus und in welchem Format? Und wie lässt sich die Ansteuerung gezielt verändern, ohne bestehende Systeme zu destabilisieren? Zum Schutz für Mensch und Maschine hing Prometheus erstmal am Kran – zum Debuggen und Testen. 

Woche 2 – Autonome Bewegungen und erste Sprachkommandos 

Im nächsten Schritt ging es an die ersten Bewegungsroutinen – und vor allem darum, diese nicht nur manuell, sondern sprachbasiert auszulösen. Dafür integrierten wir eine einfache Sprachsteuerung, die vordefinierte Kommandos wie „geh geradeaus“, „dreh dich“ oder „setz dich hin“ auslöste. Technisch setzten wir auf ein kleines lokales Spracherkennungsmodell, das per Cyclone DDS mit dem Robotik-Backend kommunizierte. Besonders wichtig war hier die Latenzoptimierung: Zwischen Befehl und Ausführung durfte nur minimale Verzögerung liegen, um eine intuitive Steuerung zu ermöglichen. Gleichzeitig arbeiteten wir weiter an der Laufstabilität – etwa durch Feinjustierung der Schrittgeschwindigkeit, abhängig von der Umgebung. 

Woche 3 – Integration des Sprachmodells mit 59 Sprachen 

Die einfache Kommandoerkennung reichte uns nicht – Prometheus sollte echte Konversationen führen. In Woche drei integrierten wir daher ein leistungsfähiges Large Language Model (LLM), das über eine Cloud-Anbindung Zugriff auf ein mehrsprachiges Sprachmodell erhielt. Insgesamt versteht Prometheus nun 59 Sprachen – nicht nur semantisch, sondern auch mit Kontextbezug. Die Sprachein- und -ausgabe läuft über ein WebSocket-Protokoll, um Sprachdaten effizient zu übertragen. Zusätzlich wurde das Text-to-Speech-System angepasst, um eine flüssigere und menschlichere Stimmwiedergabe zu ermöglichen. Ein kritischer Punkt dabei war die Kontextsynchronisation: Antworten mussten nicht nur korrekt sein, sondern auch in Bezug auf die vorherige Unterhaltung konsistent bleiben. Gerade bei offenen Fragen eine Herausforderung – aber lösbar durch Session-IDs und kontinuierliches Prompting. 

Woche 4 – App-Steuerung, Cloud-Anbindung und Testbetrieb 

In Woche vier verlagerte sich der Fokus auf Usability und Alltagstauglichkeit. Dazu entwickelten wir eine eigene App, mit der sich Prometheus gezielt steuern und überwachen lässt – etwa zum Auslösen bestimmter Funktionen, zur Sprachanalyse oder zur Bewegungsüberwachung. Gleichzeitig testeten wir die Cloud-Anbindung im Realbetrieb. Besonders wichtig war hier das Erwartungsmanagement – denn wer mit neuer Technologie arbeitet, lernt schnell: Failover-Szenarien sind Pflicht. Tests in verschiedenen Umgebungen (Büro, Halle, Außenbereich) zeigten deutliche Fortschritte bei der Navigation, insbesondere durch verbesserte Lidar-Auswertung. 

Woche 5 – Feinschliff für Interaktion und Bewegung 

Letzter Feinschliff in Woche fünf: Wir verbesserten die Sensorkonfiguration, verfeinerten die Bewegungsabläufe und arbeiteten gezielt an der Personenerkennung. Die angedachte Gesichtserkennung konnten wir mit der aktuellen Hardware nicht realisieren, da die verbaute Kamera auf die Hände gerichtet ist. Dafür setzen wir auf die Fusion aus Tiefenkamera und visueller Objekterkennung, ergänzt durch Bewegungssensorik im Raum. Zukünftig soll Prometheus mit einer zusätzlichen Kamera ausgestattet werden, damit er Personen im Raum erkennt, ihnen auf Wunsch folgt und individueller interagieren kann. Die Spracherkennung wurde nochmal verbessert, das sorgt für Interaktionen, die überraschend flüssig und natürlich wirken. Ganz fertig ist er noch nicht – aber der Fortschritt nach fünf Wochen? Beachtlich. 

Was wir gelernt haben – und wie es weitergeht 

Für uns bei Exxeta war Prometheus nie einfach nur ein Gimmick. Kein Messe-Gag, kein Prestigeprojekt. Wir wollen wissen, was möglich ist – heute schon, nicht irgendwann. Prometheus war (und ist) ein Experiment, um die Technologie der Zukunft aktiv mitzugestalten. Dafür braucht es keine perfekten Prototypen, sondern den Mut, Dinge auszuprobieren – auch wenn sie manchmal gegen Glastüren laufen. 

Einige Features wie Gesichtserkennung konnten nicht final umgesetzt werden. Aber wir haben viel gelernt. Etwa, dass man das Kamerabild besser nicht über fünf verschiedene Protokolle jagt. Oder dass man Servos gut kalibrieren sollte, wenn der Roboter am Ende wirklich gehen statt wackeln soll. Prometheus ist erst der Anfang. Inzwischen arbeiten wir neben den G1 an einem weiteren Modell – dem Roboterhund Go2W. Stay tuned... 

Und der Name Prometheus? Kommt nicht von ungefähr. In der griechischen Mythologie brachte er das Feuer zu den Menschen – Symbol für Fortschritt, Wissen und den Mut, Neues zu wagen. Ziemlich passend für einen Roboter, der heute schon zeigt, was morgen möglich ist. 

Entdecke neue Trends, bleibe up-to-date: Exxeta Newsletter

Spotlight


Get in Touch