I ricercatori della Tandon School of Engineering della NYU hanno svelato un sistema basato sull'intelligenza artificiale in grado di analizzare istantaneamente le foto degli alimenti e fornire informazioni nutrizionali dettagliate.
Immagina di scattare una foto del tuo pasto e di ricevere immediatamente il conteggio delle calorie, il contenuto di grassi e la ripartizione nutrizionale. Questa visione futuristica si sta avvicinando sempre di più alla realtà grazie alla ricerca innovativa della NYU Tandon School of Engineering. Un sistema di intelligenza artificiale pionieristico sviluppato dai ricercatori dell'università promette di rivoluzionare il modo in cui gestiamo la nostra dieta, il peso, il diabete e altre condizioni di salute legate all'alimentazione.
La tecnologia, delineata in un carta presentato alla 6a Conferenza internazionale IEEE su Mobile Computing e informatica sostenibile, sfrutta algoritmi avanzati di apprendimento profondo per riconoscere gli alimenti nelle immagini e calcolarne il contenuto nutrizionale. Ciò include parametri chiave come calorie, proteine, carboidrati e grassi.
"I metodi tradizionali di tracciamento dell'assunzione di cibo si basano in gran parte sull'auto-segnalazione, notoriamente inaffidabile", ha affermato in un comunicato stampa l'autore principale Prabodh Panindre, professore associato di ricerca presso il Dipartimento di Ingegneria meccanica presso la NYU Tandon. "Il nostro sistema elimina l'errore umano dall'equazione".
Per oltre un decennio, il Fire Research Group della NYU, che include Panindre e il coautore Sunil Kumar, ha indagato sulle sfide critiche per la salute dei vigili del fuoco. Gli studi rivelano che una percentuale significativa di vigili del fuoco sia di professione che volontari sono sovrappeso o obesi, il che comporta maggiori rischi cardiovascolari e sfide operative. Queste statistiche allarmanti hanno motivato direttamente lo sviluppo del sistema di tracciamento alimentare basato sull'intelligenza artificiale.
Creare un'AI affidabile per il riconoscimento degli alimenti è stata un'impresa ardua. I tentativi precedenti sono falliti a causa dell'immensa diversità visiva degli alimenti, tra gli altri problemi.
"La pura diversità visiva del cibo è sbalorditiva", ha aggiunto Kumar, professore di ingegneria meccanica alla NYU Abu Dhabi e professore di ingegneria meccanica della rete globale alla NYU Tandon. "A differenza degli oggetti fabbricati con aspetto standardizzato, lo stesso piatto può apparire radicalmente diverso in base a chi lo ha preparato".
Un altro ostacolo era la stima accurata delle dimensioni delle porzioni, che è fondamentale per le valutazioni nutrizionali. La svolta del team della NYU riguarda una funzione di calcolo volumetrico che utilizza un'elaborazione sofisticata delle immagini per misurare l'area esatta occupata da ogni alimento su un piatto. Questa integrazione trasforma le immagini 2D in valutazioni nutrizionali precise senza richiedere input manuali.
Anche l'elaborazione efficiente in tempo reale è stata una sfida. Molti modelli precedenti richiedevano una grande potenza di calcolo e l'elaborazione cloud, il che ha introdotto ritardi e problemi di privacy. I ricercatori della NYU hanno utilizzato YOLOv8 con ONNX Runtime per sviluppare un sistema di identificazione alimentare che funziona su un sito Web, consentendo agli utenti di accedervi facilmente tramite il browser Web del telefono.
Testato su vari alimenti, tra cui una fetta di pizza e l'idli sambhar, un piatto tipico dell'India meridionale, il sistema ha fornito valori nutrizionali molto simili ai riferimenti standard.
"Uno dei nostri obiettivi era garantire che il sistema funzionasse in diverse cucine e presentazioni di cibo", ha aggiunto Panindre. "Volevamo che fosse accurato con un hot dog (280 calorie secondo il nostro sistema) come lo è con il baklava, un dolce mediorientale che il nostro sistema identifica come avente 310 calorie e 18 grammi di grassi".
I ricercatori hanno ottimizzato i loro dati combinando categorie di alimenti simili e concentrandosi sui tipi di alimenti sottorappresentati, perfezionando il loro set di dati a 95,000 immagini in 214 categorie di alimenti. Il sistema ha raggiunto un punteggio di precisione media (mAP) di 0.7941 a una soglia di intersezione su unione (IoU) di 0.5, il che significa che è riuscito a identificare accuratamente gli alimenti circa l'80% delle volte, anche quando parzialmente oscurati.
Attualmente disponibile come applicazione web, il sistema è descritto come una "proof-of-concept" che potrebbe presto essere adattata ad applicazioni sanitarie più ampie.