Da una foto, l’algoritmo del Mit rivela cosa e come mangiamo

Da una foto, l’algoritmo del Mit rivela cosa e come mangiamo

Non sappiamo se l’idea sia venuta in mente ai ricercatori del MIT, dopo aver visto la 3ª puntata della IV stagione di “Silicon Valley”, ma le attinenze tra la seria tv e il loro Pic2Recipe sono evidenti.

Per chi non lo conoscesse, “Silicon Valley” è un telefilm statunitense, trasmesso in Italia da Sky Atlantic, che racconta le peripezie di un gruppo di programmatori (alcuni direbbero nerd) che lavorano in un incubatore gestito da tal Erlich Bachman, il quale fornisce i mezzi e un luogo di lavoro in cambio del 10% dei loro progetti. È uno spaccato divertente sulle start-up che animano l’omonima località californiana e su come funziona il meccanismo di finanziamento, realizzazione ecc. Read it in English

Nell’episodio citato, un protetto di Bachman sviluppa una app, chiamata SeaFood, che propone 8 ricette a base di polpo, e il nostro, funambolicamente, riesce a spacciarla agli investitori come SeeFood, lo “Shazam del cibo”, che agisce sulla base delle foto degli utenti. Subito dopo la messa in onda negli States, goliardicamente, una parodia della app è stata realizzata davvero e piazzata sull’Apple Store, ma quella è un’altra storia (Silicon Valley, l’app SeeFood della serie Tv è realtà!).

Tornando ai ricercatori del Massachusetts Institute of Technology, Pic2Recipe è un algoritmo basato sull’Intelligenza Artificiale, in grado di analizzare l’immagine di un piatto, individuare gli ingredienti e suggerire ricette analoghe.

Le foto, apparentemente inutili, postate sui social, possono in realtà fornire una preziosa visione delle abitudini e delle preferenze dietetiche delle persone“, spiega Yusuf Aytar del Mit (Artificial intelligence suggests recipes based on food photos).

Qualche tempo fa uno studio di The Guardian, ha evidenziato che il cibo, già nel piatto o in via di preparazione, è uno dei soggetti più fotografati e condivisi dagli utenti (circa il 67% delle foto) e che pesa per il 25% nella memoria dei nostri smartphone.

Ma se da un lato questa incredibile quantità d’immagini sta silenziosamente cambiando le nostre abitudini alimentari – pensiamo solo al sushi e a quanti nostri amici, giornalmente, ce lo propongono sulle loro pagine social -, sul versante dei Big Data non è ancora ben sfruttata per comprendere (e profilare!) le abitudini alimentari degli utenti.

Così mentre i Big Data svolgono ormai un ruolo insostituibile nell’ampio panorama del food (in proposito leggi “Dai Big Data la soluzione alle future carestie alimentari”), a un livello base, diciamo commerciale, sono ancora deboli.

Il team del Qatar Computing Research Institute del Mit è convinto che l’analisi delle foto dei piatti condivisi dagli utenti, potrebbe aiutare le persone ad imparare nuovi metodi di preparazione, acquisendo magari consapevolezza su ciò che mangiano, come pure permettere ai marketer di capire le abitudini alimentari dei propri clienti e ai governi di porre una lente d’ingrandimento sui pericoli alla salute che da alcune di queste derivano.

Una demo di Pic2Recipe in cui caricare le proprie foto è già disponibile on line.
In futuro, il team conta di riuscire a fargli dedurre anche in che modo il cibo è cotto, per arrivare a suggerire cosa cucinare sulla base degli ingredienti che si hanno nel frigo.

A ben guardare, una manna per i marketer del food e non solo!

Siete soliti postare foto di piatti? Tweettate i vostri  commenti @agostinellialdo.

Se ti è piaciuto questo post, leggi ancheL’IA esce da letargo. E ora le aziende la vogliono

 

Read this post in English