在本屆WWDC上,盡管沒有AR眼鏡的消息,但蘋果(AAPL.US)推出了多款A(yù)R應(yīng)用。其中包括RealityKit 2、Object Capture以及AR Maps等。
RealityKit是一款為AR打造的3D渲染、物理核空間音頻引擎。通過使用真實(shí)的和基于物理的材質(zhì)、環(huán)境反射、背景陰影、相機(jī)噪點(diǎn)、運(yùn)動(dòng)模糊等來將虛擬內(nèi)容與現(xiàn)實(shí)世界高度融合。
RealityKit 2的新增內(nèi)容包括:Object Capture對象捕捉、自定義著色器、自定義系統(tǒng)、動(dòng)態(tài)asset、角色控制器。
據(jù)蘋果全球開發(fā)者關(guān)系副總裁 Susan Prescott介紹,Object Capture使用攝影測量將iPhone或iPad拍攝的一系列2D照片轉(zhuǎn)換成3D模型。
從大會(huì)視頻演示來看,用戶只需要通過iPhone或iPad多維度拍攝物體照片,然后倒入Cinema 4D等即可創(chuàng)建3D模型。當(dāng)然,通過Reality Composer或其它工具,用戶也可以快速獲得AR預(yù)覽。
單從效率來看,相比于花數(shù)周時(shí)間手動(dòng)創(chuàng)建3D模型,Object Capture可以將時(shí)間成本壓縮到數(shù)分鐘內(nèi)。
據(jù)蘋果公司稱,這些3D模型可以在 AR Quick Look 中查看或添加到 Reality Composer/ Xcode 中的 AR 場景中,從而幫助開發(fā)者更容易構(gòu)建 AR 應(yīng)用程序。蘋果表示,開發(fā)者正在使用Object Capture在一些領(lǐng)先的3D內(nèi)容創(chuàng)建應(yīng)用(如Cinema4D和Unity MARS)中解鎖全新的3D內(nèi)容創(chuàng)建方式。
蘋果方面還補(bǔ)充道,借助 RealityKit 2 中的新 API,開發(fā)人員還可以通過更好的視覺、音頻和動(dòng)畫控制(包括自定義渲染通道和動(dòng)態(tài)著色器)為用戶打造更逼真、更復(fù)雜的 AR 體驗(yàn)。
Loup Ventures創(chuàng)始人、資深蘋果分析師吉恩·蒙斯特(Gene Munster)本周在一封電子郵件中寫道:“從高層來看,今年,甚至可能是明年的蘋果全球開發(fā)者大會(huì)(WWDC)將成為蘋果創(chuàng)新風(fēng)暴之前的一場平靜?!薄澳壳埃O果正在加緊開發(fā)圍繞增強(qiáng)現(xiàn)實(shí)可穿戴設(shè)備和交通工具的新產(chǎn)品類別?!?/p>
蘋果從未確認(rèn)過發(fā)布AR硬件的計(jì)劃,但據(jù)報(bào)道,蘋果最早可能在今年發(fā)布一款A(yù)R耳機(jī)。Facebook、Snap和微軟也在開發(fā)頭戴式AR設(shè)備。
人工智能可以理解手勢、人和臉龐。盡管蘋果的機(jī)器學(xué)習(xí)和人工智能工具并不直接與AR聯(lián)系在一起,但它們所代表的能力對于在3D空間中工作的計(jì)算機(jī)界面來說將是非常重要的。蘋果的視覺框架軟件可以被應(yīng)用程序調(diào)用,通過iPhone的攝像頭來識(shí)別人、面孔和姿勢。蘋果公司的計(jì)算機(jī)視覺軟件現(xiàn)在可以識(shí)別圖像內(nèi)部的物體,包括標(biāo)識(shí)上的文字,以及搜索照片內(nèi)部的東西——比如狗或朋友。
與蘋果的其他工具相結(jié)合,這些人工智能工具可以應(yīng)用類似Snap濾鏡的效果。在今年的WWDC上,有一場會(huì)議甚至討論了如何識(shí)別手的姿勢或動(dòng)作,這為高級手勢奠定了基礎(chǔ),這是目前微軟全息眼鏡(Hololens)等AR頭盔界面的重要組成部分。
來源:東方財(cái)富網(wǎng)