Chiudi l'annuncio

iPhone 11 e iPhone 11 Pro (Max) sono in vendita dalla seconda settimana, ma mancano ancora una delle funzionalità più interessanti: Deep Fusion. Tuttavia, secondo gli ultimi rapporti, Apple ha la funzionalità pronta e la offrirà presto nella prossima versione beta di iOS 13, molto probabilmente in iOS 13.2.

Deep Fusion è il nome del nuovo sistema di elaborazione delle immagini per la fotografia su iPhone 11 (Pro), che sfrutta appieno le capacità del processore A13 Bionic, in particolare del Neural Engine. Con l'aiuto dell'apprendimento automatico, la foto catturata viene elaborata pixel per pixel, ottimizzando così texture, dettagli ed eventuali disturbi in ogni parte dell'immagine. La funzione tornerà quindi utile soprattutto quando si scattano foto all'interno di edifici o in condizioni di illuminazione media. Si attiva in modo completamente automatico e l'utente non potrà disattivarlo - praticamente non sa nemmeno che Deep Fusion è attivo in una determinata situazione.

Il processo per scattare una foto non sarà diverso con Deep Fusion. L'utente preme semplicemente il pulsante di scatto e attende qualche istante affinché l'immagine venga creata (simile a Smart HDR). Sebbene l'intero processo richieda solo circa un secondo, il telefono, o meglio il processore, riesce a eseguire una serie di operazioni complesse.

L'intero processo è il seguente:

  1. Prima ancora di premere l'otturatore della fotocamera, sullo sfondo vengono scattate tre foto con un tempo di esposizione breve.
  2. Successivamente, quando si preme il pulsante di scatto, sullo sfondo vengono scattate altre tre foto classiche.
  3. Subito dopo, il telefono scatta un'altra foto con una lunga esposizione per catturare tutti i dettagli.
  4. Un trio di foto classiche e una foto a lunga esposizione sono combinate in un'unica immagine, che Apple definisce "lunga sintetica".
  5. Deep Fusion seleziona il singolo scatto a breve esposizione di migliore qualità (sceglie tra i tre scattati prima che fosse premuto l'otturatore).
  6. Successivamente il fotogramma selezionato viene abbinato al “sintetico lungo” creato (vengono così accorpati due fotogrammi).
  7. La fusione delle due immagini avviene mediante un processo in quattro fasi. L'immagine viene creata pixel per pixel, i dettagli vengono evidenziati e il chip A13 riceve le istruzioni su come unire esattamente le due foto.

Sebbene il processo sia piuttosto complesso e possa sembrare dispendioso in termini di tempo, nel complesso richiede solo un po’ più tempo rispetto all’acquisizione di un’immagine utilizzando Smart HDR. Di conseguenza, subito dopo aver premuto il pulsante di scatto, all'utente viene prima mostrata una foto classica, ma subito dopo viene sostituita da un'immagine dettagliata di Deep Fusion.

Esempi di foto Deep Fusion (e Smart HDR) di Apple:

Va notato che i vantaggi di Deep Fusion verranno utilizzati principalmente dal teleobiettivo, tuttavia, anche quando si scatta con un obiettivo grandangolare classico, la novità tornerà utile. Al contrario, il nuovo obiettivo ultra-wide non supporterà affatto Deep Fusion (oltre a non supportare la fotografia notturna) e utilizzerà invece Smart HDR.

Il nuovo iPhone 11 offrirà quindi tre diverse modalità che si attivano in condizioni diverse. Se la scena è troppo luminosa, il telefono utilizzerà Smart HDR. Deep Fusion viene attivato quando si scatta in interni e in condizioni di illuminazione moderatamente scarsa. Non appena si scattano foto di sera o di notte in condizioni di scarsa illuminazione, viene attivata la modalità notturna.

Fotocamera posteriore per iPhone 11 Pro FB

fonte: La Verge

.