I sensori 'EyeDAR' lungo la strada offrono una nuova visione alle auto a guida autonoma

Un nuovo "tag" radar chiamato EyeDAR potrebbe dotare le auto a guida autonoma di un paio di occhi in più, trasformando lampioni e segnali di stop in sensori intelligenti e parlanti. Gli ingegneri della Rice University affermano che questi dispositivi a basso consumo energetico potrebbero aiutare i veicoli autonomi a vedere dietro gli angoli, in caso di maltempo e oltre i propri angoli ciechi.

Le auto a guida autonoma potrebbero presto trovare un aiuto nella strada stessa.

Gli ingegneri della Rice University, guidati dal ricercatore post-dottorato Kun Woo Cho, hanno sviluppato un sensore radar a bassa potenza chiamato EyeDAR che può essere montato su lampioni, semafori e altri elementi di segnalazione stradale per offrire ai veicoli autonomi una visione più chiara e ampia dell'ambiente circostante.

Grande all'incirca quanto un'arancia, EyeDAR è progettato per interagire con i sistemi radar già integrati in molti veicoli autonomi e con sistemi avanzati di assistenza alla guida. Posizionato lateralmente e sopra la strada, il dispositivo è in grado di catturare i riflessi radar che i sensori dell'auto non rilevano, inviando poi tali informazioni al veicolo in tempo reale.

L'obiettivo è ridurre i punti ciechi pericolosi, come un pedone che esce da dietro un camion, un ciclista che si avvicina con un'angolazione strana o un'auto che avanza lentamente da una strada trasversale, soprattutto nelle aree urbane trafficate e in caso di maltempo.

Gli attuali sistemi basati su telecamere e laser possono avere difficoltà quando le condizioni non sono ideali.

"Gli attuali sistemi di sensori automobilistici, come telecamere e lidar, hanno difficoltà a gestire la scarsa visibilità, come quella che si verifica in caso di pioggia, nebbia o scarsa illuminazione", ha affermato Cho, che lavora nel laboratorio di Ashutosh Sabharwal, professore di ingegneria Ernest Dell Butcher e professore di ingegneria elettrica e informatica alla Rice, in un comunicato stampa. "Il radar, invece, funziona in modo affidabile in tutte le condizioni atmosferiche e di illuminazione e riesce persino a vedere attraverso gli ostacoli".

Didascalia: Kun Woo Cho tiene in mano un prototipo del sensore EyeDAR nella camera anecoica dove viene testato.

Crediti: Foto di Jared Jones/Rice University

Cho ha presentato il lavoro at HotMobile, il workshop internazionale sui sistemi e le applicazioni di mobile computing, tenutosi ad Atlanta a fine febbraio.

Il radar funziona inviando onde radio e ascoltando gli echi che rimbalzano dagli oggetti. Ma solo una piccola frazione del segnale ritorna alla sorgente. La maggior parte si disperde in altre direzioni, trasportando informazioni utili che una singola unità radar su un'auto non riuscirà mai a rilevare.

EyeDAR è progettato per posizionarsi dove vanno a finire quei segnali "persi".

Installato su infrastrutture esistenti come semafori, segnali di stop o lampioni, il sensore cattura i riflessi radar e ne determina la provenienza. Quindi ritrasmette le informazioni direzionali al veicolo che ha inviato l'impulso radar originale.

"È come aggiungere un altro paio di occhi ai sistemi radar automobilistici", ha aggiunto Cho.

Per raggiungere questo obiettivo senza ricorrere a hardware ingombranti o a un'elaborazione complessa, il team di Rice si è ispirato alla biologia. Il design di EyeDAR richiama quello dell'occhio umano, con due parti principali che lavorano insieme.

Sulla parte anteriore è presente una lente Luneberg stampata in 3D e realizzata in resina. Come il cristallino dell'occhio, focalizza i segnali in arrivo da qualsiasi direzione su un punto specifico sul lato opposto. Dietro si trova un anello di antenne che agisce come una retina, rilevando dove arriva il segnale focalizzato e determinandone così la direzione.

Invece di affidarsi a grandi schiere di antenne e software complessi per calcolare gli angoli, EyeDAR sfrutta la sua struttura fisica per svolgere gran parte del lavoro. La lente stessa esegue quello che gli ingegneri chiamano "calcolo analogico", modellando e instradando le onde prima ancora che raggiungano un processore.

"La nostra lente è composta da oltre 8,000 elementi estremamente piccoli, dalla forma unica e con un indice di rifrazione variabile", ha aggiunto Cho.

Disponendo con cura questi minuscoli elementi, i ricercatori hanno creato una lente che piega e incanala le onde radar in arrivo in modo controllato, indirizzandole verso il punto giusto sulla schiera di antenne. Nei test, questo approccio ha permesso a EyeDAR di determinare la direzione dei bersagli con una velocità oltre 200 volte superiore rispetto ai radar tradizionali, secondo Rice.

Velocità ed efficienza sono importanti perché la radiogoniometria è una delle fasi più dispendiose in termini di energia e dati nell'elaborazione dei dati radar. Affidare questo compito all'hardware stesso potrebbe rendere pratico il dispiegamento di numerosi sensori in una città senza ingenti costi energetici o di elaborazione.

EyeDAR comunica anche in un modo insolito. Invece di inviare i propri impulsi radar, ascolta quelli dei veicoli in transito e ne modula i riflessi.

Il dispositivo passa rapidamente dall'assorbimento delle onde in arrivo alla loro riflessione secondo uno schema che codifica le informazioni digitali, trasformando sostanzialmente il segnale riflesso in un flusso di dati che il radar dell'auto può leggere.

"Come un codice Morse lampeggiante", ha aggiunto Cho. "EyeDAR è un sensore parlante: è il primo esempio di integrazione di funzionalità di rilevamento radar e di comunicazione in un unico progetto."

Poiché EyeDAR non necessita di un proprio radar, può funzionare a bassissimo consumo energetico. Questo lo rende più economico e facile da installare in grandi quantità, trasformando potenzialmente gli incroci ordinari in hub intelligenti che aiutano a coordinare il traffico e a proteggere gli utenti della strada vulnerabili.

Sebbene il team si concentri sui veicoli autonomi, la tecnologia potrebbe estendersi ben oltre le automobili. Sensori simili potrebbero essere integrati in robot per le consegne, droni o persino dispositivi indossabili, offrendo loro una migliore consapevolezza dell'ambiente circostante. Reti di unità EyeDAR potrebbero anche condividere informazioni tra loro, consentendo a ciascun dispositivo di "vedere" ben oltre la propria linea di vista.

Per Cho, il progetto è anche una dichiarazione sulla direzione che sta prendendo l'informatica. Mentre robot, automobili e altri sistemi autonomi si insinuano negli spazi quotidiani e interagiscono direttamente con le persone, sostiene che una progettazione fisica intelligente dovrà integrare i progressi dell'intelligenza artificiale e del software.

"EyeDAR è un esempio di quello che mi piace chiamare 'informatica analogica'", ha aggiunto Cho. "Negli ultimi due decenni, ci si è concentrati sul lato digitale e software dell'elaborazione, mentre il lato analogico e hardware è rimasto indietro. Voglio esplorare questo spazio di progettazione analogica, finora trascurato".

I prossimi passi prevedono il perfezionamento del progetto, il test di EyeDAR in scenari di traffico più reali e la valutazione di quanti sensori sarebbero necessari, e dove dovrebbero essere posizionati, per fare una differenza significativa nella sicurezza.

Se il concetto si espandesse, le auto a guida autonoma di domani potrebbero non essere più autonome. Potrebbero essere parte di una rete di sensori più ampia e cooperativa, con la strada stessa che le osserva silenziosamente, le considera e le aiuta a evitare i pericoli.

Fonte: Rice University