Wirtschaft & Entwicklung
vorangehende Seite
end
Industrie 4.0 - Vernetzung von Produktion und Nutzung
Wirtschaft Industrie 4.0 Digitale Transformation
Automatisiertes Fahren: Assistenzsysteme für Autos 2019
LiDAR- und Radarsensoren spac
Wirtschaft Weitere Informationen
Ethik in der Wirtschaft Corporate Citizenship, Corporate Governance ...
RAOnline Wirtschaft & Handel
Weitere Informationen
Naturwissenschaften Technik ICT Wirtschaft-Handel
Autonomes Fahren
LiDAR- und Radarsensoren

Sensoren - platzsparend im Scheinwerfer verbaut

Der Mensch hat Augen und Ohren, mit denen er brenzlige Situationen im Strassenverkehr erkennen kann. Bei autonom fahrenden Autos übernehmen eine Reihe von Sensoren diese Aufgabe. Doch die steigende Anzahl der Sensoren benötigt auch immer mehr Platz, dem in der Regel die Wünsche der Designer entgegenstehen. Forschende der Fraunhofer-Gesellschaft haben nun einen Weg gefunden, einige der Sensoren unauffällig zu integrieren. Sie bauen diese in den Scheinwerfern ein - und kombinieren dabei optisches Licht, Radar und LiDAR (Light detection and ranging) .

3D-Visualisierung der multispektralen Scheinwerferoptik

Fahrzeuge können heute immer mehr Aufgaben selbst übernehmen: Der Tempomat hält automatisch den Abstand zum Vordermann, der Spurhalteassistent korrigiert die Spur, Notbremsungen werden eingeleitet, wenn der menschliche Fahrer unachtsam ist. Möglich machen das Kameras im Fahrgastraum und Radar-Sensoren im Kühlergrill. Künftig jedoch soll das Auto noch mehr Aufgaben übernehmen. Doch muss dafür die Sensordichte drastisch zunehmen. Die Idee, den Kühlergrill mit Sensoren vollzupflastern, ist bei Autodesignern nicht sehr beliebt.

Radar- und LiDAR-Sensoren im Scheinwerfer integriert

Fünf Fraunhofer-Institute, darunter das Institut für Hochfrequenzphysik und Radartechnik FHR, haben sich im Projekt »Smart Headlight« zusammengetan, um die Sensoren platzsparend und möglichst unauffällig einzubauen - ohne dass Funktion und Leistung beeinträchtigt werden. Ziel des Projekts ist die Entwicklung eines sensorintegrierten Scheinwerfers für Fahrerassistenzsysteme, bei dem unterschiedliche sensorische Elemente mit adaptiven Lichtsystemen kombiniert werden. Auf diese Weise sollen Objekte auf der Strasse, insbesondere andere Verkehrsteilnehmer wie Fussgänger, von den Sensoren noch besser erkannt werden. So kommt der LiDAR-Sensor etwa bei elektronischen Bremsassistenten oder bei Abstandsregelungssystemen zum Einsatz.

»Wir integrieren Radar- und LiDAR-Sensoren in die Scheinwerfer, die ja sowieso vorhanden sind und die ein Optimum an Transmission für optische Sensoren und Lichtquellen sowie für Verschmutzungsfreiheit garantieren«, sagt Tim Freialdenhoven, Wissenschaftler am Fraunhofer FHR. LiDAR-Sensoren (Light Detection And Ranging) arbeiten mit einem Messprinzip, das auf der Bestimmung der Zeit zwischen dem Aussenden eines Laserpulses und dem Empfangen des reflektierten Lichts beruht, und kann auf diese Weise Entfernungen sehr genau messen.

Zunächst gilt es, das LiDAR-System für die Integration in automobile Systeme auszulegen. Hinzu kommt: Das Licht, das aus dem Scheinwerfer auf die Strasse fällt, soll von den beiden zusätzlichen Sensoren nicht beeinflusst werden - allerdings liegen die lichtspendenden LEDs ganz hinten im Scheinwerfer. Die Forschenden platzieren deshalb die LiDAR-Sensoren oben und die Radar-Sensoren unten im Scheinwerfergehäuse. Dennoch sollen die Strahlen beider Sensorsysteme den identischen Weg nehmen wie das LED-Licht. Dies wird zusätzlich dadurch erschwert, dass alle Strahlen unterschiedliche Wellenlängen haben: Das sichtbare Scheinwerferlicht liegt im Bereich von 400 bis 750 Nanometern, die infraroten LiDAR-Strahlen mit 860 bis 1550 Nanometer recht nah am sichtbaren Bereich. Radarstrahlen haben dagegen eine Wellenlänge von vier Millimetern. »Diese drei Wellenlängen sollen koaxial - also gleichachsig - zusammengeführt werden, wir sprechen daher von einem Multispektral-Combiner«, betont Freialdenhoven. Die koaxiale Strahlenführung ist wichtig, um einen Parallaxenfehler zu vermeiden, der erst noch kompliziert herausgerechnet werden muss. Darüber hinaus würde die Anordnung der Sensoren nebeneinander deutlich mehr Raum in Anspruch nehmen als die die koaxiale Anordnung. Dieses Problem lösen die Forschenden über sogenannte Bi-Combiner: Dabei wird für die Kombination von LED-Licht und LiDAR-Licht ein speziell beschichteter di-chroidischer Spiegel eingesetzt, mit dem beide Strahlenbündel über eine wellenlängenspezifische Reflexion auf eine Achse gebracht werden. Gleiches erfolgt, wenn auch wegen der sehr unterschiedlichen Wellenlängen ungleich komplexer, am zweiten Combiner, bei dem LED-Licht, LiDAR-Licht und Radar miteinander vereint werden. Da Radarsensoren im Automobilbereich bereits weit verbreitet sind, soll der Bi-Combiner so ausgelegt werden, dass die Hersteller vorhandene Sensoren ohne Anpassung weiterverwenden können.

Radar-Systeme durchdringen Nebel

Doch warum überhaupt die Kombination von optischen Systemen, LiDAR und Radar? »Jedes einzelne System hat seine Stärken, aber auch seine Schwächen«, erklärt Freialdenhoven. So kommen optische Systeme bei Nebel und Staub an ihre Grenzen, sprich bei optisch schlechten Sichtbedingungen. Radar-Systeme dagegen schauen nahezu ungehindert durch dichte Nebelschwaden. Doch ist ihre Klassifikationsfähigkeit nicht sehr hoch: Radar kann zwar erkennen, ob es sich um einen Menschen oder um einen Baum handelt, doch es kommt nicht an die Klassifikationsfähigkeit vom LiDAR heran. »Wir arbeiten zudem daran, die Daten von Radar und LiDAR zu fusionieren - was insbesondere in puncto Zuverlässigkeit einen extremen Mehrwert bietet«, sagt Freialdenhoven. Ein Patent wurde bereits angemeldet, derzeit arbeitet das Team am Aufbau eines Prototyps.

Mit der Technologie werden die Möglichkeiten der Sensorintegration für Fahrerassistenzsysteme deutlich erweitert. Kleinere Lichtmodule, kompaktere LiDAR-Sensoren und integrierte Radarsensoren erlauben die Umsetzung von Multisensorkonzepten, insbesondere für das autonome Fahren bei steigenden Designanforderungen und begrenztem Bauraum. Auf diese Weise können autonome Systeme künftig nicht nur einen Menschen erkennen, sondern zudem seine Geschwindigkeit, seine Entfernung und den Winkel analysieren, in dem er zum Auto steht.

Quelle: Text Frauenhofer Institut, 4. Oktober 2022

nach oben

Industrie 4.0 Vernetzung von Produkt, Maschine und Werkzeug
eEconomy die digitale Wirtschaft
integrierte Optimierungswerkzeuge Den intelligenten Kameras entgeht nichts
Automatisiertes Fahren - Lenk- u. Ortungssysteme
Links
Externe Links
Frauenhofer Institut
vorangehende Seite