L’algoritmo di Super Risoluzione di Google spiegato in 3 minuti
I vincoli di spazio fisico nei corpi sottili degli smartphone moderni significano che gli ingegneri delle telecamere sono limitati in termini di dimensioni dei sensori di immagine da utilizzare nei loro progetti. I produttori dei moderni smartphone hanno quindi spinto i metodi di Imaging Computazionale per migliorare la qualità dell’output dell’immagine finale dei propri dispositivi.
L’algoritmo di super risoluzione delle fotografie di Google è uno di questi metodi che sta riscuotendo davvero un grande clamore. Si tratta di scattare una raffica di foto grezze ogni volta che si preme il pulsante di scatto, migliorando il naturale tremolio della mano dell’utente, anche se leggero. Le differenze a livello di pixel tra ciascuna delle trame nel burst possono essere utilizzate per unire più immagini del burst in un file di output con dettagli ottimizzati in ogni posizione dei pixel.

Google che fa? Utilizza la risoluzione nella funzione Night Sight e lo zoom Super-Res dei dispositivi Pixel 3 e ha pubblicato in precedenza un approfondito articolo sul suo blog .
Per capire meglio la tecnologia dai un’occhiata al video che spiega benissimo tutto il funzionamento in poco più di 3 minuti.

“Questo approccio serve ad aumentare la risoluzione dell’immagine e ad aumentare il rapporto segnale / rumore”, scrivono i ricercatori di Google nel documento su cui si basa il video. “Il nostro algoritmo è robusto per condizioni di scena difficili: movimento locale, occlusione o cambiamenti di scena. Funziona a 100 millisecondi per fotogramma burst di input RAW da 12 megapixel su telefoni cellulari prodotti in serie. “
In questo caso sì che i Megapixel diventano importanti!
