Mar 23, 2026 Eine Nachricht hinterlassen

Das bionische LiDAR-System erreicht durch adaptive Fokussierung eine Auflösung, die über-die Netzhaut hinausgeht

Bionic LiDAR system achieves beyond-retinal resolution through adaptive focusing

In einer aktuellen Studie haben Forscher aus China ein LiDAR-System im Chipmaßstab{0}entwickelt, das die Foveation des menschlichen Auges nachahmt, indem es die hochauflösende Erfassung dynamisch auf interessierende Regionen (Regions of Interest, ROIs) konzentriert und gleichzeitig eine breite Wahrnehmung über das gesamte Sichtfeld aufrechterhält.

Die Studie wird in der Zeitschrift veröffentlichtNaturkommunikation.

LiDAR-Systeme ermöglichen maschinelles Sehen in selbstfahrenden Autos, Drohnen und Robotern, indem sie Laserstrahlen abfeuern, um 3D-Szenen millimetergenau abzubilden. Das Auge konzentriert seine dichtesten Sensoren in der Fovea (scharfer zentraler Sehfleck) und richtet den Blick auf das Wesentliche. Im Gegensatz dazu verwenden die meisten LiDARs starre parallele Strahlen oder Scans, die überall eine gleichmäßige (oft grobe) Auflösung verteilen. Um die Detailgenauigkeit zu steigern, müssen mehr Kanäle gleichmäßig hinzugefügt werden, was Kosten, Leistung und Komplexität in die Höhe treibt.

Das Design des Teams erreicht eine Winkelauflösung von 0,012 Grad „über die Netzhaut hinaus“ in ROIs, die doppelt so scharf sind wie die ungefähre Grenze des Auges von 0,017 Grad. Dies bedeutet, dass das System Punkte unterscheiden kann, die durch kleinste Winkel voneinander getrennt sind, beispielsweise feine Details auf einem entfernten Verkehrsschild. Es ordnet parallele Erkennungskanäle bei Bedarf neu zu und vermeidet so eine kostspielige Brute-{6}Force-Skalierung.

Phys.org sprach mit den Co-Autoren der Studie, Ruixuan Chen und Xingjun Wang von der School of Electronics der Peking-Universität.

„Die Motivation ergibt sich aus einem praktischen Missverhältnis zwischen biologischer und maschineller Wahrnehmung“, erklärten die Forscher. „Das menschliche Auge erreicht eine hohe Schärfe und Energieeffizienz, indem es die Aufmerksamkeit neu verteilt-, ein breites Bewusstsein aufrechterhält und gleichzeitig Ressourcen auf das Wesentliche konzentriert. Im Gegensatz dazu wird die LiDAR-Auflösung oft durch „mehr Kanäle überall“ angestrebt, was schnell teuer und energiehungrig wird.“

 

 

Das Skalierungsproblem

Bildverarbeitungssysteme haben sich über herkömmliche Kameras hinaus um LiDAR-Sensoren erweitert, die eine präzise Entfernungsmessung und 3D-Umgebungswahrnehmung ermöglichen. Im Gegensatz zu passiven Kameras erfordert LiDAR jedoch Sende- und Empfangshardware für jedes Pixel, wodurch die erreichbare Auflösung begrenzt ist.

Aktuelle Ansätze zur Verbesserung der LiDAR-Auflösung stoßen auf einen kritischen Engpass. Die Kanalvervielfältigung sorgt für lineare Auflösungsgewinne, löst aber superlineare Explosionen in Bezug auf Komplexität, Leistung und Kosten aus.

„Erstens ist die Auflösung eng mit der Anzahl der Hardware-Kanäle und der Scan-Mechanik verknüpft. Zweitens ist LiDAR ein aktiver Sensor: Jedes Pixel kostet effektiv sowohl Sende- als auch Empfangsressourcen“, erklärten die Forscher. „Das macht die adaptive Fokussierung wesentlich schwieriger als bei der passiven Bildgebung, da man die optische Leistung, die Empfängerempfindlichkeit und die Digitalisierungsbandbreite verwalten und gleichzeitig Augensicherheitsbeschränkungen einhalten muss.“

Für kohärente frequenzmodulierte Dauerstrich-LiDAR ist diese Herausforderung besonders akut. Jeder kohärente Kanal erfordert eine stabile Frequenzsteuerung, hochentwickelte Empfangshardware und eine strenge Kalibrierung. Dadurch ist eine massive Duplizierung von Kanälen wirtschaftlich viel schwieriger zu rechtfertigen.

Eine biomimetische Lösung

Die Lösung der Forscher vereint zwei Schlüsseltechnologien. Dazu gehören ein agiler externer Hohlraumlaser (ECL) mit einem Abstimmbereich von über 100 nm und rekonfigurierbare elektro-optische Frequenzkämme, die auf Dünnschicht-Lithiumniobat-Plattformen (TFLN) aufgebaut sind.

Die ECL liefert qualitativ hochwertige FMCW-Chirp-Signale für kohärente Entfernungsmessungen und fungiert als wellenlängengesteuerter Strahllenkungsmechanismus. Durch die Abstimmung der Mittenwellenlänge kann das System seine Blickrichtung innerhalb eines weiten Sichtfeldes schnell umlenken.

Der elektro-optische Kamm erzeugt dann mehrere parallele FMCW-Träger aus derselben gechirpten Laserquelle. Entscheidend ist, dass sich durch die Anpassung der Hochfrequenz-Antriebsbedingungen der Kammabstand ändert.

„Das ermöglicht ‚Zoom‘-Wir können die Punktdichte in einem ausgewählten Bereich erhöhen (feinere Abtastung) oder lockern (gröbere Abtastung), ohne die Optik zu ändern oder Kanäle hinzuzufügen“, fügten die Forscher hinzu.

Das System nutzt das, was die Forscher „Mikro-parallelität“ nennen. Dies bedeutet, dass eine moderate Anzahl physischer Kanäle verwendet werden muss, um durch dynamische Neupositionierung das Äquivalent von weitaus mehr Scanzeilen zu erreichen.

 

Experimentelle Validierung

Das Team demonstrierte die Fähigkeiten des Systems in drei experimentellen Szenarien und erreichte in fokussierten Regionen eine Winkelauflösung von 0,012 Grad-und übertraf damit die nominelle Grenze der menschlichen Netzhaut.

Bei der statischen Szenenbilderfassung erfasste das System eine simulierte Straßenumgebung mit einer Auflösung von 54 x 71 Pixeln für Vollfeld-Scans und 17 x 71 Pixeln für lokal fokussierte Scans. Diese fokussierten Scans vervierfachten die vertikale Detaildichte und enthüllten bisher unsichtbare Hindernisse mit einer Genauigkeit von 90 % der Punkte auf unter 1,3 cm.

Die Forscher demonstrierten auch die Fusion von LiDAR--Kameras und erstellten farbige Punktwolken, die präzise 3D-Geometrie mit RGB-Erscheinungsdaten kombinieren. Beim Vergleich von Standardscans und fokussierten Scans verbesserte sich die Ausrichtung des Farbhistogramms um etwa 10 %, was auf eine bessere Übereinstimmung zwischen 3D-Punkten und Bildpixeln hinweist.

„Durch die Fusion von LiDAR mit einer Kamera erzeugen wir farbige Punktwolken und bereichern die Szenendarstellung, was die Interpretierbarkeit verbessert und nachgelagerte Wahrnehmungsaufgaben unterstützt, die von Textur und semantischen Hinweisen abhängen“, erklärten die Forscher.

Am eindrucksvollsten war vielleicht, dass das Team einen Basketballwurf in Echtzeit-4D-plus Bildmaterial-aufnahm, bei dem jeder Punkt gleichzeitig Position, Rotationsgeschwindigkeit, Oberflächenreflexion und Farbe anzeigte. Bei 8 Hz über ein weites Sichtfeld wurden Bewegungsmuster sichtbar, die für Standard-3D-LiDAR unsichtbar waren.

Die experimentelle Arbeit ergab wichtige Kompromisse auf Systemebene{0}, die zukünftige Entwicklungspfade beeinflussen.

„Am deutlichsten ist die Spannung zwischen der Winkelauflösung und dem Messspielraum pro Kanal“, stellten die Forscher fest. „Bei unserem parallelen kohärenten Auslesen muss jeder Kanal sein eigenes, nicht-überlappendes elektrisches Band belegen. Wenn wir die Wiederholungsrate reduzieren, können wir die Winkelabtastung tatsächlich feiner gestalten, aber das Experiment zeigt, dass dadurch auch die Auslesebandbreite pro-Kanal komprimiert wird.“

Das Team identifizierte mehrere vorrangige Richtungen für die Weiterentwicklung der Technologie hin zum praktischen Einsatz. Dazu gehören eine tiefere monolithische Integration auf TFLN-Plattformen, die Entwicklung von Ultrabreitband-Sweep-Quellen für eine verbesserte Entfernungsauflösung und die Implementierung von Aufmerksamkeitsrichtlinien mit geschlossenem Regelkreis für eine ereignisgesteuerte Wahrnehmung.

Aktuelle Experimente mit Glasfaserverbindungen führen zu einer Polarisationsinstabilität, die die Möglichkeiten der Materialklassifizierung einschränkt.

„Wir gehen jedoch davon aus, dass die monolithische Integration diesen Engpass grundlegend lösen wird“, sagten die Forscher. „Durch den Übergang von instabilen Faserpfaden zu auf Chips beschränkten Wellenleitern können wir eine stabile Polarisationswiederherstellung erreichen.“

Das bionische LiDAR-System bietet potenzielle Anwendungen, die autonome Fahrzeuge, Luft- und Meeresdrohnen, Robotik und neuromorphe Bildverarbeitungssysteme umfassen. Über LiDAR hinaus ermöglichen rekonfigurierbare Kämme eine schnelle Spektralanalyse für optische Kommunikation, Kohärenztomographie, Drucksensorik und Präzisionsmesstechnik, so die Forscher.

Anfrage senden

whatsapp

Telefon

E-Mail

Anfrage