Roboter mit Gespür

An der Universitätsklinik Balgrist in Zürich entwickeln Forschende ein robotergestütztes Assistenzsystem, das die Wirbelsäulenchirurgie präziser und sicherer machen soll. Mit Sensoren, Ultraschall, akustischer Analyse und künstlicher Intelligenz kann der Roboter in Echtzeit auf Veränderungen im Körper reagieren – und Gefahren vermeiden.

Kontakt

Prof. Dr. Philipp Fürnstahl
Professor für Orthopädische Forschung mit Schwerpunkt auf der Anwendung von Computertechnologien an der Universität Zürich
+41 44 510 73 60
E-Mail

UMZH-Institutionen

Universität Zürich
Universitätsklinik Balgrist

Team
40

Wenn Chirurginnen und Chirurgen Schrauben in die Wirbelsäule setzen, zählt jeder Millimeter. Pedikelschrauben, die zur Stabilisierung von Wirbeln eingesetzt werden, müssen durch einen nur sechs bis sieben Millimeter breiten Knochenkanal geführt werden. Schon kleine Abweichungen können fatale Folgen haben – etwa dann, wenn eine Schraube das Rückenmark oder umliegende Nerven verletzt.

Genau an diesem heiklen Punkt setzte das Forschungsprojekt FAROS an. Das EU-geförderte Vorhaben vereinte Robotik, Sensorik und künstliche Intelligenz – mit dem Ziel, Eingriffe an der Wirbelsäule sicherer und präziser zu machen. Entwickelt wurde ein System, das nicht nur millimetergenau bohren kann, sondern auch in Echtzeit analysiert und reagiert: Sobald der Bohrer vom geplanten Pfad abweicht, stoppt das System automatisch – bevor Schaden entsteht.

Das Projekt startete 2021 und wurde im Juni 2024 offiziell beendet. Eine abschliessende Evaluierung durch die EU-Kommission bestätigte: Alle Projektziele wurden erreicht. Das Herzstück ist ein Prototyp, der erstmals die entwickelten Technologien in einem System vereinte. Im April 2024 wurde das System unter realitätsnahen Bedingungen an menschlichen Präparaten sowie an lebenden Tieren evaluiert. Die Evaluation fand im brandneuen und hochmodernen Zentrum für translationale Chirurgie – dem OR-X – statt. Das Ergebnis: Der Roboter konnte Schrauben präzise setzen – und das autonom. «Natürlich gibt es noch viele Herausforderungen – schliesslich handelt es sich um Forschung auf höchstem Niveau –, doch die Fortschritte sind bedeutend», bilanziert Philipp Fürnstahl, Professor an der Universität Zürich und Studienleiter Schweiz des internationalen Forschungsprojekts FAROS. Die Forschung, die durch FAROS angestossen wurde, gehe weiter, sagt er.

Korrekt berechnete Bohrpfade

Im FAROS-Projekt wurde die Sensorik der Roboterarme weiterentwickelt. In der Bohrspitze der Arme befinden sich Sensoren, die in Echtzeit die Veränderungen im Gewebe registrieren. Auch um das Operationsfeld herum sind Sensoren platziert, die laufend Daten liefern. Damit der Roboter auf dieser Basis sinnvoll agieren kann, wurde eine intelligente Steuerung entwickelt, die Bewegungen analysiert und eingreift, wenn eine Gefahr droht. In simulierten Testszenarien reagierte der Roboter zuverlässig: Bei korrekt berechneten Bohrpfaden arbeitete er ungestört. Bei absichtlich fehlerhaften Wegen stoppte das System automatisch. «Ein klarer Beleg dafür, dass die sensorgestützte Navigation funktioniert», so Fürnstahl.

3D-Bilder der Wirbelsäule

Ein weiteres Werkzeug im Projekt FAROS stützte sich auf eine altbekannte Technologie: den Ultraschall. Doch während der Ultraschall in der Diagnostik längst etabliert ist, spielte er im Operationssaal bisher kaum eine Rolle. Das ändert sich nun – unterstützt durch Robotik, neue Sonden und künstliche Intelligenz. «Erstmals wurde im Rahmen von FAROS eine dreidimensionale Rekonstruktion der Wirbelsäule für die Echtzeit-Operationsplanung von Wirbelsäulenoperationen ausschliesslich mithilfe von Ultraschall erstellt», erklärt Fürnstahl. Ein bedeutender Fortschritt, denn das Verfahren ist nicht nur strahlungsfrei und damit deutlich schonender als etwa CT oder Röntgen, sondern auch kostengünstig und echtzeitfähig. Noch waren es überwiegend zweidimensionale Sonden, mit denen der Roboter durch präzise Bewegungen ein 3D-Bild erzeugte. Der nächste Entwicklungsschritt: echte 3D-Ultraschallköpfe, die ganze Volumenbereiche auf einen Blick erfassen können – etwa fünf mal fünf Zentimeter in hoher Auflösung.

Warum das wichtig ist? Weil Patientinnen und Patienten sich während der Operation bewegen:  Sie atmen, Gewebe verschiebt sich, Strukturen verändern ihre Lage. Diese Bewegungen in Echtzeit zu erkennen und auszugleichen – das ist eine der nächsten grossen Herausforderungen. Daran arbeitet das Forschungsteam jetzt.

Das FAROS-Team vor dem Operationssaal.

Die Kunst des chirurgischen Hörens

Neben visuellen und taktilen Informationen nutzt das System auch eine bislang kaum beachtete Informationsquelle: akustische Signale. Was erfahrene Chirurgen intuitiv beherrschen – das charakteristische Knirschen einer Schraube, die sich perfekt in den Knochen dreht, oder das dumpfe Tock eines Hammerschlags, der auf gesundes Gewebe trifft –, wird nun technisch messbar gemacht.

Damit Roboter diese Fähigkeiten «erlernen», setzen die Forschenden verschiedene Mikrofone ein – wie etwa Kontaktmikrofone zum Einfangen von Körperschall oder räumliche Mikrofone. Letztere nehmen nicht nur jeden Ton auf, sondern können auch präzise berechnen, wo genau im Raum der Schall entsteht. Ein Meisselschlag auf den Knochen lässt sich so mit Genauigkeit lokalisieren – etwas, das selbst hochauflösende Kameras nicht leisten können, wenn Instrumente die Sicht versperren. Das Forschungsteam konzentriert sich dabei auf jene kritischen Momente, in denen jede Vibration über Erfolg oder Komplikation entscheidet. Diese jahrhundertealte Kunst des chirurgischen Hörens soll nun maschinell entschlüsselt und als weiteres sensorisches Feedback in die Steuerung des Roboters integriert werden.

Von Signalverarbeitung zu maschinellem Lernen

Die akustischen Daten werden mithilfe moderner Verfahren der Signalverarbeitung analysiert. Während früher feste Regeln zur Interpretation verwendet wurden, geht der Trend heute in Richtung datengetriebener Methoden – insbesondere maschinellem Lernen. Das System lernt, bestimmte akustische Muster automatisch zu erkennen, zu bewerten und daraus Rückschlüsse auf den Operationsverlauf zu ziehen. Dadurch wird das System nicht nur intelligenter, sondern auch flexibler: Es kann sich auf unterschiedliche Werkzeuge, anatomische Besonderheiten oder chirurgische Techniken einstellen – und in Zukunft womöglich eigene Vorschläge zur Optimierung machen.

Ein OP mit Überblick

Trotz aller Fortschritte steht der eigentliche Durchbruch noch aus: Ein System, das alle Sensordaten gleichzeitig analysiert, intelligent verknüpft – und daraus in Echtzeit chirurgische Entscheidungen ableitet. Genau daran arbeiten die Forschenden am Operating Room X (OR-X) in Zürich. Die Plattform wurde geschaffen, um verschiedene Technologien – von 3D-Ultraschall bis zur akustischen Analyse – nicht nur zu testen, sondern zu einem vernetzten, lernfähigen Operationsraum zusammenzuführen. «Ziel ist ein System, das Veränderungen im Körper nicht nur registriert, sondern versteht – und darauf reagiert», sagt Fürnstahl.

 

Horizon-2020-Projekt FAROS

FAROS wurde ab 2021 vom Forschungs- und Innovationsprogramm Horizon 2020 der Europäischen Union während dreier Jahre gefördert, mit dem Ziel der Entwicklung chirurgischer Roboter, die komplexe und hochpräzise Operationsschritte eigenständig durchführen können.

FAROS war ein internationales Projekt mit folgenden Forschungsschwerpunkten:

  • KU Leuven in Belgien: nicht-visuelle Sensorik und Projektkoordination
  • Universität Sorbonne in Frankreich: Robotik
  • King’s College London in England: Entwicklung der künstlichen Intelligenz

Universitätsklinik Balgrist der UZH: klinische, experimentelle und interdisziplinäre Aufgaben und Bindeglied zwischen den Bereichen Robotik, Informatik und klinische Forschung.

Im FAROS-Konsortium vertreten durch Philipp Fürnstahl, UZH-Professor für Orthopädische Forschung, Mazda Farshad, Medizinischer Direktor an der Universitätsklinik Balgrist und UZH-Ordinarius für Orthopädie, und Reto Sutter, UZH-Professor und Chefarzt für Radiologie an der Universitätsklinik Balgrist.

Im Gespräch mit...

Hören

Mazda Farshad (Juli 2023)

«Wir statten unsere Roboter mit mehreren Sensoren und Sinnen aus»

Prof. Dr. med. Mazda Farshad ist Chefarzt für Wirbelsäulenchirurgie und Orthopädie, medizinischer Spitaldirektor der Universitätsklinik Balgrist sowie Professor für Orthopädische Chirurgie der Universität Zürich.

Mazda Farshad
5:06

Philipp Fürnstahl (Juli 2023)

«Ziel ist, dass Roboter orthopädische Operationen teilweise autonom durchführen»

Prof. Dr. Philipp Fürnstahl ist Professor für Orthopädische Forschung mit Schwerpunkt der Anwendung in Computer Sciences der Universität Zürich und Leiter des ROCS-Teams an der Universitätsklinik Balgrist.

Philipp Fürnstahl
4:52
Von der Forschung in die Praxis

Service

Leiden Sie an Rücken- oder Nackenschmerzen
oder wünschen Sie eine Zweitmeinung?
Sprechstunde Universitätsklinik Balgrist

Wer finanzierte dieses Forschungsprojekt mit? (in Mio. EUR)

EU (Horizon 2020)
Die Laufzeit der Projektförderung
dauerte von 2021 bis 2024

3

Credits

Text: Marita Fuchs
Audio: Rebekka Haefeli
Fotos: Universitätsklinik Balgrist | OR-X, Frank Brüderli
Universität Zürich: Mazda Farshad, Philipp Fürnstahl
Universitätsklinik Balgrist: Mazda Farshad, Philipp Fürnstahl

previousnext