Chiudi l'annuncio

La terza versione beta per sviluppatori del sistema iOS 13 nasconde tanti nuovi gadget. Uno di questi è la correzione automatica del contatto visivo. L'altra persona ha quindi l'impressione che tu la stia guardando direttamente negli occhi.

Ora, quando sei impegnato in una chiamata FaceTime con qualcuno, molto spesso l'altra parte può vedere che i tuoi occhi sono abbassati. Ciò è dovuto al fatto che le fotocamere non si trovano direttamente nel display, ma sul bordo superiore sopra di esso. Tuttavia, con iOS 13, Apple propone una soluzione non convenzionale, in cui il nuovo ARKit 3 gioca un ruolo di primo piano.

Il sistema ora regola i dati dell'immagine in tempo reale. Quindi, anche se i tuoi occhi sono abbassati, iOS 13 ti mostra come se stessi guardando direttamente negli occhi dell'altra persona. Sui social network sono già apparsi diversi sviluppatori che hanno testato la nuova funzionalità.

Uno di loro è stato, ad esempio, Will Sigmon, che ha fornito foto nitide. La foto a sinistra mostra la situazione standard durante FaceTime su iOS 12, la foto a destra mostra la correzione automatica tramite ARKit in iOS 13.

iOS 13 può correggere il contatto visivo durante FaceTime

La funzionalità utilizza ARKit 3, non sarà disponibile per iPhone X

Mike Rundle, che era di guardia, è soddisfatto del risultato. Inoltre, è una delle caratteristiche da lui previste nel 2017. A proposito, tutta la sua lista di previsioni è interessante:

  • L'iPhone sarà in grado di rilevare oggetti 3D nei suoi dintorni utilizzando la scansione spaziale continua
  • Tracciamento oculare, che consente al software di prevedere il movimento e controllare l'interfaccia utente del sistema con i movimenti oculari (Apple ha acquistato SensoMotoric Instruments nel 2017, considerata leader in questo campo)
  • Dati biometrici e sanitari ottenuti mediante scansione del volto (qual è il polso della persona, ecc.)
  • Modifica avanzata delle immagini per garantire il contatto visivo diretto durante FaceTime, ad esempio (cosa che ora è avvenuta)
  • Il machine learning consentirà gradualmente all'iPhone di contare gli oggetti (il numero di persone nella stanza, il numero di matite sul tavolo, quante magliette ho nel mio guardaroba...)
  • Misurazione istantanea degli oggetti, senza la necessità di utilizzare un righello AR (quanto è alto il muro, ...)

Nel frattempo, Dave Schukin ha confermato che iOS 13 utilizza ARKit per correggere il contatto visivo. Durante la riproduzione più lenta, puoi notare come gli occhiali si deformano improvvisamente prima di indossarli.

Lo sviluppatore Aaron Brager aggiunge poi che il sistema utilizza un'API speciale disponibile solo in ARKit 3 ed è limitata agli ultimi modelli iPhone XS / XS Max e iPhone XR. Il vecchio iPhone X non supporta queste interfacce e la funzione non sarà disponibile su di esso.

Fonte: 9to5Mac

.