PUBBLICITÀ
Notizie

Apple rilascia ARKit 3.5 per gli sviluppatori con supporto per lo scanner LiDAR di iPad Pro

Apple ha annunciato un nuovo aggiornamento della piattaforma di realtà aumentata ARKit che consentirà agli utenti e agli sviluppatori di sfruttare il nuovo sensore LiDAR sui nuovi iPad Pro.

Insieme a iOS 13.4 e iPadOS 13.4, Apple ha rilasciato ARKit 3.5 per consentire agli sviluppatori di sfruttare il nuovo scanner LiDAR nel nuovo iPad Pro. L’ultima versione di ARKit presenta Scene Geometry, Instant AR e Motion Capture e People Occlusion migliorati.

Apple ha annunciato l’aggiornamento in un post sul suo sito web per gli sviluppatori:

ARKit 3.5 sfrutta il nuovo scanner LiDAR e il sistema di rilevamento della profondità su iPad Pro per supportare una nuova generazione di app AR che utilizzano Scene Geometry per una migliore comprensione della scena e occlusione degli oggetti. E ora, le esperienze AR su iPad Pro sono ancora migliori con il posizionamento AR istantaneo e Motion Capture migliorato e People Occlusion, il tutto senza la necessità di scrivere un nuovo codice.

Ecco come Apple descrive i tre principali cambiamenti di ARKit 3.5:

Scene Geometry

Scene Geometry ti consente di creare una mappa topologica del tuo spazio con etichette che identificano pavimenti, pareti, soffitti, finestre, porte e sedie. Questa profonda comprensione del mondo reale sblocca l’occlusione degli oggetti e la fisica del mondo reale per gli oggetti virtuali e ti dà anche maggiori informazioni per alimentare i tuoi flussi di lavoro AR.

Instant AR

Lo scanner LiDAR su iPad Pro consente un rilevamento aereo incredibilmente rapido, consentendo il posizionamento istantaneo di oggetti AR nel mondo reale senza scansione. Il posizionamento AR istantaneo viene abilitato automaticamente su iPad Pro per tutte le app create con ARKit, senza modifiche al codice.

Improved Motion Capture and People Occlusion

Con ARKit 3.5 su iPad Pro, la stima della profondità in People Occlusion e la stima dell’altezza in Motion Capture sono più accurate. Queste due funzionalità migliorano su iPad Pro in tutte le app realizzate con ARKit, senza alcuna modifica del codice.

 

Lo scanner LiDAR utilizza la luce riflessa per misurare la distanza dal sensore agli oggetti circostanti fino a cinque metri di distanza, all’interno e all’esterno. I framework di profondità in iPadOS combinano i punti di profondità misurati dallo scanner LiDAR, i dati delle due telecamere e i dati dei sensori di movimento con algoritmi di visione computerizzata gestiti da A12Z Bionic per creare una comprensione dettagliata e completa di una scena.

Al momento, il nuovo scanner LiDAR con le sue potenziate funzionalità di realtà aumentata è limitato ai nuovi modelli iPad Pro‌, ma si prevede che anche Apple includerà la funzionalità in alcuni modelli di iPhone 2020 che saranno rilasciati questo autunno.

Utilizziamo Link di Affiliazione Amazon che generano commissioni. Cosa significa?

Se hai trovato interessante questo articolo, condividilo e fallo leggere anche ai tuoi amici:

Lascia un commento

Back to top button