Ottimizzare la comunicazione tra veicolo e conducente in funzione del grado di automazione è l’obiettivo di un progetto di ricerca condotto da Fraunhofer.
I ricercatori del Fraunhofer, in collaborazione con altre aziende, stanno combinando sensori per il monitoraggio dell’interno del veicolo con modelli linguistici per formare i cosiddetti modelli del linguaggio visivo. Sono progettati per aumentare la comodità e la sicurezza delle auto del futuro.
Un modello di visione elabora i dati visivi su richiesta. I ricercatori lavorano per estrarre informazioni rilevanti dall’immagine e fornirle come contesto per diverse funzioni dell’auto, come gli assistenti AI e i sistemi di sicurezza.
Attenzione, se continui a leggere adesso, potresti avere la nausea nel tratto di strada tortuoso. Tra cinque minuti saremo in autostrada e sarà più facile”. Oppure: “Sta per piovere e dobbiamo disattivare la guida automatizzata. Per favore, preparati a guidare da solo per un po’. Mi dispiace, ma per ora dovrai riporre il tuo laptop in un posto sicuro. La sicurezza prima.
Tra un paio d’anni, le auto potrebbero comunicare con i guidatori in un modo molto simile a questo. Con la crescente automazione dei veicoli, il modo in cui interagiscono con gli esseri umani deve essere ripensato. Un gruppo di ricerca degli Istituti Fraunhofer per l’Optronica, le Tecnologie di Sistema e lo Sfruttamento delle Immagini IOSB e per l’Ingegneria Industriale IAO ha intrapreso questo compito insieme a dieci partner, tra cui Continental, Ford e Audi, nonché una serie di medie imprese e università , nel progetto KARLI, acronimo tedesco che sta per “Intelligenza Artificiale per l’interazione adattiva, reattiva e conforme al livello” nei veicoli del futuro.
Oggi distinguiamo sei diversi livelli di automazione: non automatizzato (0), assistito (1), parzialmente automatizzato (2), altamente automatizzato (3), completamente automatizzato (4) e autonomo (5).
Nel progetto KARLI stiamo sviluppando funzioni AI per i livelli di automazione da due a quattro. Per fare ciò, registriamo ciò che sta facendo il conducente e progettiamo diverse interazioni uomo-macchina tipiche per ciascun livello – spiega Frederik Diederichs, coordinatore del progetto presso l’Istituto Fraunhofer per l’optronica, le tecnologie di sistema e lo sfruttamento delle immagini IOSB di Karlsruhe.
Interazione a diversi livelli
A seconda del livello di automazione, i conducenti devono concentrarsi sulla strada oppure possono concentrarsi su altre cose. Hanno dieci secondi per riprendere il volante, o in alcuni casi non è necessario che intervengano nuovamente. Queste diverse esigenze degli utenti e la possibilità di passare da un livello all’altro a seconda della situazione stradale rendono complesso il compito di definire e progettare interazioni adeguate per ciascun livello. Inoltre, l’interazione e la progettazione devono garantire che i conducenti siano sempre consapevoli dell’attuale livello di automazione in modo che possano svolgere correttamente il loro ruolo.
Le applicazioni sviluppate nel progetto KARLI hanno tre punti focali principali: in primo luogo, gli avvisi e le informazioni dovrebbero incoraggiare un comportamento conforme al livello e, ad esempio, impedire che il conducente venga distratto in un momento in cui deve prestare attenzione alla strada. La comunicazione con l’utente è quindi adattata ad ogni livello: può essere visiva, acustica, tattile o una combinazione dei tre. L’interazione è controllata da agenti AI, le cui prestazioni e affidabilità vengono valutate dai partner. In secondo luogo, è necessario prevedere e ridurre al minimo il rischio di chinetosi, uno dei maggiori problemi legati alla guida passiva. Tra il 20 e il 50 per cento delle persone soffre di chinetosi.
Abbinando le attività degli occupanti ad accelerazioni prevedibili su tratti di strada tortuosi, l’intelligenza artificiale può rivolgersi ai passeggeri giusti al momento giusto in modo che possano prevenire la chinetosi, fornendo loro consigli su misura per le loro attività attuali. Lo facciamo utilizzando le cosiddette interfacce utente generate, in breve “GenUIn”, per personalizzare l’interazione tra uomo e intelligenza artificiale – spiega Diederichs.
Questa interazione AI è la terza applicazione del progetto KARLI. GenUIn genera output mirati individualmente, fornendo informazioni, ad esempio, su come ridurre la cinetosi se si presenta. Questi suggerimenti possono essere correlati all’attività attuale, registrata dai sensori, ma tengono conto anche delle opzioni disponibili nel contesto attuale. Gli utenti possono inoltre personalizzare l’intera interazione nel veicolo e adattarla progressivamente alle proprie esigenze nel tempo. Il livello di automazione viene sempre preso in considerazione nell’interazione. Ad esempio, le informazioni possono essere brevi e puramente verbali se il conducente è concentrato sulla strada, oppure possono essere più dettagliate e presentate attraverso canali visivi se il veicolo sta attualmente guidando.
Diversi sensori supportati dall’intelligenza artificiale registrano le attività nell’auto, gli elementi chiave sono i sensori ottici nelle telecamere interne. L’attuale legislazione sulla guida autonoma li sta rendendo comunque obbligatori per garantire la capacità del conducente di guidare. I ricercatori combinano quindi i dati visivi delle telecamere con modelli linguistici di grandi dimensioni per formare i cosiddetti modelli del linguaggio visivo (VLM). Ciò consente ai moderni sistemi di assistenza alla guida di veicoli (parzialmente) autonomi di registrare semanticamente le situazioni all’interno del veicolo e di rispondere a tali situazioni. Diederichs paragona l’interazione nel veicolo del futuro a un maggiordomo che resta nell’ombra ma capisce il contesto e offre il miglior supporto possibile agli occupanti del veicolo.
Anonimizzazione e protezione dei dati
I fattori cruciali per l’accettazione di questi sistemi includono la fiducia nel fornitore di servizi, la sicurezza dei dati e un vantaggio diretto per gli automobilisti – afferma Frederik Diederichs.
Ciò significa che sono cruciali la migliore anonimizzazione e sicurezza dei dati possibili, nonché una raccolta dei dati trasparente e spiegabile.
Non tutto ciò che si trova nel campo visivo di una telecamera viene valutato. Le informazioni che un sensore registra e a cosa serve devono essere trasparenti. Stiamo studiando come garantire ciò nel nostro gruppo di lavoro Xplainable AI presso Fraunhofer IOSB.
In un altro progetto (Anymos), i ricercatori del Fraunhofer stanno lavorando per anonimizzare i dati delle telecamere, elaborandoli in modo da ridurre al minimo l’utilizzo dei dati e proteggerli in modo efficace.
Efficienza dei dati con Small2BigData
Un altro punto di forza unico del progetto di ricerca finanziato dal Ministero federale tedesco per gli affari economici e l’azione per il clima (BMWK) è l’efficienza dei dati.
Il nostro approccio Small2BigData richiede solo una piccola quantità di dati di addestramento AI di alta qualità, che vengono raccolti empiricamente e generati sinteticamente. Costituisce la base per i produttori di automobili per sapere quali dati raccogliere successivamente durante il funzionamento in serie in modo che il sistema possa essere utilizzato. Ciò mantiene il volume dei dati richiesti a un livello gestibile e rende scalabili i risultati del progetto – spiega Diederichs.
Proprio di recente, Diederichs e il suo team hanno messo in funzione un laboratorio di ricerca mobile basato su una Mercedes EQS per saperne di più sulle esigenze degli utenti nella guida automatizzata di livello 3 su strada. Qui i risultati del progetto KARLI vengono testati e valutati nella pratica. Ciò consentirà di rendere disponibili le prime funzionalità nei veicoli prodotti in serie già nel 2026.
I produttori tedeschi sono in dura concorrenza con i loro omologhi internazionali quando si tratta di guida automatizzata, e riusciranno ad avere successo solo se riusciranno a migliorare in modo competitivo l’esperienza dell’utente a bordo dell’auto e ad adattarla alle esigenze degli utenti con l’intelligenza artificiale – afferma con certezza l’esperto . I risultati del nostro progetto hanno un ruolo importante da svolgere in questo”.
Fonte: Fraunhofer IOSB/Zensch
Commenta per primo