Chiudi l'annuncio

La scorsa settimana, Apple ha introdotto diversi nuovi prodotti, incluso il nuovo iPad Pro. Oltre a un nuovo SoC (e leggermente più potente) e una maggiore capacità di memoria operativa, offre anche un sistema di telecamere aggiornato, completato da un nuovo sensore LIDAR. Su YouTube è apparso un video che dimostra chiaramente cosa può fare questo sensore e a cosa servirà nella pratica.

LIDAR sta per Light Detection And Ranging e, come suggerisce il nome, questo sensore mira a mappare l'area davanti alla fotocamera dell'iPad utilizzando la scansione laser dell'ambiente circostante. Questo può essere un po' difficile da immaginare, e un video di YouTube appena pubblicato che mostra la mappatura in tempo reale in azione aiuta in questo.

Grazie al nuovo sensore LIDAR, l'iPad Pro è in grado di mappare meglio l'ambiente circostante e "leggere" dove si trova tutto intorno rispetto all'iPad come centro dell'area mappata. Questo è molto importante soprattutto per quanto riguarda l’utilizzo di applicazioni e funzioni pensate per la realtà aumentata. Questo perché potranno “leggere” meglio l'ambiente circostante e saranno molto più precisi e allo stesso tempo più capaci per quanto riguarda l'uso dello spazio in cui vengono proiettate le cose della realtà aumentata.

Il sensore LIDAR non ha ancora molta utilità, poiché le possibilità di applicazione della realtà aumentata sono ancora relativamente limitate. Tuttavia, è proprio il nuovo sensore LIDAR che dovrebbe contribuire in modo significativo al miglioramento significativo e all’espansione delle applicazioni AR tra gli utenti comuni. Inoltre si può prevedere che i sensori LIDAR verranno estesi anche ai nuovi iPhone, il che aumenterà notevolmente la base di utenti e ciò dovrebbe motivare ancora di più gli sviluppatori a sviluppare nuove applicazioni AR. Da cui non possiamo che trarre vantaggio.

.