Interview zu autonomen Shuttles „Wir haben mehr Sensoren als wir brauchen“

Alisa Schrauth

Das autonome Shuttle hat Augen – zumindest kann es seine Umgebung erkennen und menschliche wie tierische Hürden umfahren. Doch wie funktioniert das? Sensor-Experte Jörg Schrepfer von der Firma Valeo erklärt, wie die kleinen Helferlein dem Shuttle das Leben erleichtern und den Menschen retten.

 
Schließen

Diesen Artikel teilen

Interview mit Jörg Schrepfer, Sensor-Experte von der Firma Valeo. Foto: Katrin Denkewitz

Herr Schrepfer, kann mich das Shuttle eigentlich überrollen?

Das ist sehr unwahrscheinlich. Um das Shuttle herum sind viele Sensoren verbaut, die erkennen können, wie weit Personen vom Shuttle entfernt sind, beziehungsweise wer oder was sich im Umfeld des Shuttles befindet.

Nach der Werbung weiterlesen

Was genau ist denn ein solcher Sensor?

Sensor ist ein Überbegriff: Es gibt ganz verschiedene Typen von Sensoren. Kameras sind Sensoren, genauso wie Laserscanner. Ein Laserscanner arbeitet mit der Ausstrahlung von Licht. Aber auch Radare, die Funkwellen aussenden, sind Sensoren. Und dann gibt es noch den Ultraschall – da werden Töne ausgesendet, die nur knapp über dem Hörbaren sind, und wenn sie zurückkommen, werden sie dann ausgewertet.

Welche Sensoren sind im autonomen Shuttle verbaut?

Wir haben alle Sensorarten verbaut, sogar welche, die wir gar nicht brauchen. Wir wollen eben so viele Daten wie möglich sammeln und am Ende die beste Kombination konfigurieren.

Welche Sensoren sind denn für die Objekte in der Umgebung des Shuttles zuständig?

Kameras und Laserscanner.

Wie funktioniert das jeweils?

Die Kameras sind mit intelligenter Software verbunden und erkennen genau, was sich im Umfeld abspielt. Die Laserscanner senden einen Lichtstrahl aus. Über das zurückgestrahlte Licht können sie messen, wie weit Objekte in der Umgebung weg sind. Daraus ergibt sich ein sehr engmaschiges Gitter vom Umfeld, also eine 3D-Struktur. Deshalb wissen sie ganz genau, was in der Umgebung los ist. Und das gilt gleichermaßen für Objekte, die sich nicht bewegen, wie Häuserfronten und Bordsteinkanten, oder eben für bewegte Objekte wie Menschen.

Und wenn sich ein Objekt zu nah in das Umfeld des Radars hineinbewegt?

Dann erkennt das Shuttle das, und im einfachsten Fall bremst es ab.

Die Bremsung ist ziemlich stark, gibt es da noch Kalibrierungsmöglichkeiten?

Na ja, die Bremsung hängt von den Situationen ab. Es hält ja nicht jedes Mal total abrupt. In kritischen Situationen bremst es eben ziemlich hart, das stimmt, und das ist dann auch so gewollt. Man muss bedenken, dass es bei einer Geschwindigkeit von 18 Stundenkilometern fast keinen Bremsweg gibt. Das Shuttle steht sofort. Aber ja, in der Zukunft kann man sicher über eine sanftere Bremsung diskutieren.

Kann das Shuttle erkennen, wann die Objekte wieder aus dem Radius heraus sind?

Ja, und das selbstständig. Wenn sich zum Beispiel auf einem Gehsteig in Hof Personen befinden, dann hält das Shuttle an und wartet so lange, bis sie weg sind, und fährt dann automatisch weiter. Teilweise schneiden Radfahrer das Shuttle recht knapp oder Personen laufen einfach davor über die Straße. Dann bremst es sofort, wartet bis die Person weg ist und fährt weiter.

Wo genau befinden sich überall Sensoren?

Bei einem Pkw sind die Ultraschall-Sensoren beispielsweise in der Stoßstange verbaut. Die sind dann für das absolute Nahumfeld gedacht, also beim Parken beispielsweise. Es gibt auch Kameras, die an der Stoßstange oder im Spiegel eingebaut sind. Weitere Kameras sind hinter der Frontscheibe – die können das Licht steuern oder die Spur halten. Die relativ unscheinbaren Radarsensoren sind hinter der Stoßstange angebracht, weil die Funkwellen durch das Plastik strahlen können. Deshalb müssen sie auch nicht gut aussehen.

Gibt es auch Sensoren, die in den Innenraum gerichtet sind?

Ja. Damit kann man dann die Passagiere beobachten – ob es ihnen noch gut geht etwa oder wie viele Menschen sich bereits im Innenraum befinden. Oder ganz banal: Ob noch jemand in der Tür steht. Aktuell ist ja auch noch ein Operator dabei – den können wir auch beobachten. Driver Monitoring nennt man das Forschungsfeld.

Wie funktioniert die Auswertung der Sensoren?

Das kommt ein bisschen auf die Sensoren an – die intelligenten Sensoren wie die Laserscanner oder die Radare liefern ihre Ergebnisse bereits verarbeitet an einen Zentralrechner. Die Kameras oder die Ultraschallsensoren liefern einfach die Rohdaten, also ihr Bild oder akustisches Signal, und die zentrale Recheneinheit verarbeitet die Daten dann.

Zentrale Recheneinheit?

Das ist ein zentraler Rechner. Der bringt die Objekte zusammen und kann das Shuttle lokalisieren, indem er den Standort mit einer Karte vergleicht. Er übernimmt so auch die Bahnplanung und letztlich die Steuerung des Fahrzeugs.

Der Rechner hat also eine wichtige Aufgabe?

Ja, sehr. Durch ihn kommen wir auch im Bereich teleoperiertes Fahren weiter – an diesem Spezialgebiet forschen wir auch im Projekt. Dabei geht es um die Fernsteuerung des Shuttles. Wir haben dafür eine Stelle geschaffen, für einen Menschen, der eine Vielzahl solcher Shuttles überwachen kann. Er könnte dann auch während der Fahrt von außen das Steuer übernehmen.

Das hört sich nach ziemlich viel Datenaustausch an – inwieweit ist Datenschutz ein Thema im Projekt?

Die Daten, die das Shuttle für sein automatisiertes Fahren verwendet, werden direkt im Shuttle ausgewertet und nicht aufgezeichnet. Zusätzlich zeichnen wir aber Daten mit weiteren Sensoren auf. Bei diesen achten wir auf den Datenschutz. Beispielsweise werden bei den Bildern der Kameras die Menschen anonymisiert, die auf den Kameras auftauchen, sodass sie nicht zu erkennen sind.

Wie funktioniert die Anonymisierung?

Wir können die Gesichter verpixeln.

Das Gespräch führte

Alisa Schrauth

Mehr zum Thema lesen Sie hier >>>