1. <ruby id="2nt17"><table id="2nt17"></table></ruby><listing id="2nt17"><thead id="2nt17"></thead></listing>
    <ruby id="2nt17"><table id="2nt17"></table></ruby>
    <strong id="2nt17"></strong>
    <li id="2nt17"></li>

        1. 蘋果 Vision Pro 的 5 個關鍵問題,我們問了專業開發者

          摘要

          第一款真正「及格」的 XR 頭顯,或許真的能成功。

          作者 | Li Yuan
          編輯 | 靖宇

           

          2 月 2 日,蘋果 Vision Pro 在美發售,吸引了全球的目光。

          Vision Pro 實際試戴體驗如何?與過去的那么多款 VR、AR 設備有什么不同?

          空間計算是一個噱頭嗎?庫克宣布 All-in Vision Pro,那么開發者現在是不是也該 All-in?

          關于這些大家關心的話題,極客公園邀請了兩位在 XR 領域有多年經驗的從業者,也是早早用上了 Vision Pro 的嘗鮮者,聊聊他們使用 Vision Pro 的真實體驗,以及基于這樣的體驗,他們會不會選擇現在投入 Vision Pro 的應用開發中。

          兩位嘉賓之一是劉天一,從 2015 年開始接觸 AR 行業,有多年 XR 行業解決方案和 C 端產品設計的經驗。曾任職于國內 AR 公司亮亮視野多年,目前是獨立開發者。

          另一位是 Allen Xiang,虛實之間網絡科技的創始人。Allen 2016 年就接觸了 XR 行業,曾在多家互聯網大廠任職,包括騰訊的 XR 部門。目前,Allen 接受了美元基金的投資,正在進行 XR 應用開發的創業。

          極客公園與兩位在 XR 領域有著多年從業經驗的創業者進行了兩個小時的對話。在對話中,兩位創業者指出了 Vision Pro 的體驗突破性的關鍵,蘋果在推進 Vision Pro 的發展中將出現哪些優勢和劣勢,中國廠商有沒有可能追上 Vision Pro,以及他們認為,未來哪些應用或將成為爆款。

          以下是極客公園與劉天一、Allen Xiang 的對話節選,由極客公園整理。

           

          體驗:連玩 7 小時不累,透視功能強大

           

          極客公園:兩位都已經上手了這款產品,先簡單講講拿到 Vision Pro 使用的第一印象吧?

           

          劉天一:我是在北京商場里的「空間計算網吧」,Vision Pro 的租賃體驗店里體驗到的,玩了大概兩個小時左右。

          接觸到 Vision Pro 的第一印象是,整體感覺非常蘋果。無論是包裝,還是各種設計風格,融合了 iPhone、Airpods Max 以及 Apple Watch 上面的各種設計元素,拿到手的第一感覺是很熟悉。

          使用后印象最深的,是它上手非常簡單。很多人都體驗過不同種類的 XR 設備,上手的難度其實是 XR 設備中的一大痛點。通常情況下,旁邊要有一個人告訴你說,「你看見那個點了嗎?你按這個鍵,去點一下那個點?!狗浅B闊?。

          而 Vision Pro,我從戴上,開機,到被引導著使用數字表冠,再到被引導注冊我的手和眼,全套流程大概也就是 2 分鐘就完成了,而且過程中沒有什么我要去學習的東西,上手難度非常低,這一點讓我印象很深。

          蘋果專賣店里消費者無需引導自己試用 Vision Pro | 圖片來源:視覺中國

          Vision Pro 手眼交互的易用性也很強。過去的 XR 設備,我們如果用手來交互,都需要把手抬起來,放在面前去點擊和捏合。蘋果這一次把向下的攝像頭做的非常好。

          這是我用了這么多設備,第一個能讓我非常慵懶地躺在沙發上,然后手都不用從腿上抬起來,簡單地捏合一下我的食指和拇指,看哪里點哪里,就能完成交互的設備。

           

          Allen:我的 Vision Pro 是剛好有朋友從美國飛回來帶回給我的。我剛剛拿到,從中午拿到到剛剛我們連線的晚上七點左右一直沒有摘過。

          我體驗了多個場景,包括帶著它下樓,去便利店買東西吃,晚上去到商場里,和同事一起吃快餐。我也帶著它使用透視的功能,使用我的 Windows 電腦進行辦公了一段時間。

          我在仔細調整完角度后,覺得佩戴上沒有任何體驗上的問題。7 個小時下來眼睛不會酸也不會累。

          我體驗過的朋友中,大家普遍評價都非常高。我認為 Vision Pro 帶來了一個轉折點,是它的透視(Video See-Through, VST)達到了一種基本可用的程度。

          因為視覺透視功能中,需要算力對現實世界的物體在 XR 頭顯中實時進行 3D 重建,你看到的景象都是實時生成的,如果算的不夠快的話,就會出現水波紋。

          水波紋的效果指的是,如果你拿一個近場的物體,比如拿手在面前揮一揮,然后遠景的物體就會產生一種波紋的感覺,像你在擾動水面一樣。那種感覺像是你是魔法師,你的手一動就會擾動這個世界。而在 Vision Pro 上,這種感覺被完全干掉了,讓人真的覺得帶著它干什么都可以,可以戴著它正常生活了。

          槽點的話是,整個 OS 交互完全限制了用戶移動中使用,系統級窗口不是自認為中心跟隨的,移動超過 1.5 米,獨占的 MR 應用也會消失,想要把用戶局限在一個固定的場景來使用 Vision Pro,還是缺失了很多想象空間的。

          另外還有一些比較細的技術難點,可能蘋果都很難跨越:比如說如果你在走路的話,每次落足時的撞動會帶來運動模糊,我在便利店買飲料時,感覺每次踏一下步,畫面會糊一下。

          再比如你要定睛看某些字的時候,比如看手機,手機還是得保持完全不動。手機保持穩定的情況下回微信,刷淘寶都可以,但是要是一邊走路一邊看手機就不行。

           

          極客公園:Vision Pro 有六百多克,也看到許多外媒報道,Vision Pro 設計的前墜感比較明顯,長時間佩戴可能不舒服。連續戴 7 個小時沒有不舒服,是幸存者偏差嗎?

           

          Allen:真的不是。因為我是 XR 行業的從業者,我的朋友圈里面有非常多去美國購買 Vision Pro 的人,一些朋友從坐美國飛回中國,很長的旅程中也能一直戴著,兩個電池換著充電。

          華爾街日報記者挑戰 24 小時佩戴 Vision Pro|圖片來源:YouTube 頻道 The Wall Street Journal

           

          目前我們看到的網上所有關于重量的差評,基本上都是說它會擠壓眼睛下方顴骨的位置。這個位置一旦感覺到擠壓,超過 10 分鐘可能就覺得很不舒服。這可能是因為 Solo 的綁帶沒有綁緊,或者是沒有換上雙環的綁帶。一定要進行細微調整,讓頭顯的上方更多地去貼合面部。

          我自己體感,唯一有點感覺脖子酸的場景是你完全坐直,脖子有一點點前傾的時候,眼眶那個位置會感覺到重量,有點往下沉的感覺。

          但是能有這樣的感覺,前提是要脖子保持長時間不動。比如在你全神貫注地用一個姿勢看電影,或者是你去投屏 Mac 的電腦辦公在 Vision Pro 里辦公的時候。只要不要坐的非常直,身體有一個低一點或者抬一點的角度,其實都可以很舒服地看完兩個小時的電影。

          這樣的不舒服其實不是重量帶來的,而是由于力矩分布不均勻帶來的。因為本身 Vision Pro 的設計也有一些前墜的感覺,如果在后面掛一個一兩百克的小電池,均衡一下前后配重,重量就完全不是問題。

           

          劉天一:如果說看電影兩個小時的話,我覺得半躺或者全躺在沙發上,應該是沒有任何問題的。

          這個設備確實有一些明顯的前墜感,但戴在頭上絕對沒有那種不舒適的感覺,我戴了一個小時,用下來感覺沒有什么疲勞感。

           

          空間計算,XR 的另一種叫法

           

          極客公園:兩位也都是體驗過很多款 XR 設備的人,Vision Pro 的區別在哪?

           

          劉天一:我感覺 Vision Pro 應該是我第一款能夠帶著到各個場景里面去走動的一個產品。

          在此之前,只有芬蘭公司的 Varjo 產品的視覺透視效果讓我感受到有點接近于肉眼看世界的效果,但 Varjo 產品并不是一款無線的產品。而且它是純針對 B 端的產品,為飛行員、汽車建模等等專業用戶設計的,在國內一套買下來要 5-8 萬左右,比蘋果的產品還貴。

          Vision Pro 的視覺透視效果上,它的色彩,面對大光比光源不會出現某些區域的嚴重的過曝或者死黑,以及弱光下沒有明顯的噪點,沒有很強的水波紋和拼接,都做到了非常好。

          蘋果在方便用戶走起來以及考慮用戶安全性方面,也做了很多的細節的處理。我記得蘋果最早這款設備設計的充電線是磁吸的,而我體驗的時候,它是變成旋轉卡緊的卡扣式的了。我想這也是考慮了行走中,萬一線被突然碰掉,眼前一片黑有危險的。移動的時候,人眼前的彈窗也會淡出消失,停下來才會重新回到視野中心。

          此外,蘋果相對于 Meta(Quest)這樣的設備的一個最大的差別,在于算力。它具有桌面級的算力,市場上沒有第二個產品有這樣的性能。

          Vision Pro 使用了雙芯片 其中 M2 芯片之前被用在蘋果筆記本電腦上|蘋果官網

          舉個例子,如果我們使用 Vision Pro 直播,它的算力足夠我們每個人做出一個數字分身,實時生成我們的動態,而之前 Meta 公司的設備做這些就很難,它只能用一些抽象的卡通形象去完成。Vision Pro 的算力跑分到達了 Quest 設備的四五倍、五六倍,這是非常高的一個水平。

           

          Allen:我可以把 Vision Pro 與 Quest 頭顯做一個對比。Quest 頭顯是歐美非常主流的一款產品。

          Quest 設備也有視頻透視功能。Pico 等產品使用單目畫面做扭曲重建,而 Quest3 的視頻透視功能采用了雙目立體建模和點云重建,扭曲感和深度的感覺已經很不錯。但是它的視頻透視功能,出來的效果仍然有水波紋。而 Vision Pro 做出來的效果已經達到了 80 分,是一個普通消費者不需要再去關注的屬性了。

          清晰度方面是硬參數,蘋果也沒有辦法突破物理學。Quest 實際上的入眼像素只有 400 多萬,然后再加上 FOV 的話,折算可能就 260 萬左右。Vision Pro 入眼像素大概 600 多萬,從噪點上,能感受到 Vision Pro 的清晰度提升了大概 60% 左右。

          「你會感覺現實有一點糊,但你不會感覺它就不是現實了?!梗鼒D片來源:影視颶風

           

          延遲方面,人眼的反應的靈敏度大概就在 20 毫秒上下。普通消費者在 60 毫秒以下,已經感知不到很明顯的區別。Vision Pro 大概 12 毫秒延遲,Quest 實測 50 毫秒左右。這個東西可能有點因人而異,敏感一點的人或許能感覺到流暢性的差別。

          佩戴體驗上,Vision Pro 跟 Quest3 的體驗是相近的,但面罩更硬一點,所以我覺得改第三方面罩和頭戴配件,來提升體驗對這兩種設備來說都是必要的。

          而且由于 Vision Pro 的縱向 FOV 要比 Quest3 小很多,透視的潛望鏡效應會更明顯,或許未來會有很多用戶會改成類似 Quest Pro 那樣的開放式面罩來獲得更沉浸的透視體驗。

          我覺得 Vision Pro 屬于已經達到了一個大家已經挑不出刺的水平。而 Quest 頭顯則是普通戴著,玩游戲和一些 MR 應用沒什么問題,但是視頻透視,則能感受到很明顯的水波紋等等問題。體驗上可能是 60 分到 80 分的區別。

          Vision Pro 和 Quest 3 從價格上來說,一個兩萬多,一個三千多。Vision Pro 的定位偏觀影和辦公,它沒有很好的游戲生態,開發者沒辦法那么好地從 Unity 的生態遷移過來。Quest 頭顯就是游戲機。我也嘗試著戴著它辦公過,確實沒辦法騙自己,我覺得那個是大多數人都無法接受的一個狀態。

           

          極客公園:這次蘋果很努力地宣傳「空間計算」這個概念,而不是 XR。從你們的感覺,空間計算和 XR,有很大的不同嗎?

           

          劉天一:我覺得本質上是同一個東西,但是蘋果作為一個廠商,想要使用一個不同的品牌,在一個自己創造的品牌里,有一個領導者的地位。

          其實大家可以回憶一下,在 Vision Pro 前,蘋果一直講的是 AR,但是現在主提空間計算,其實無外乎是因為在 VR 也好、AR 也好、元宇宙也好,這幾個專屬名詞的賽道上,蘋果都不能算是先行者,或者是之前最耀眼的那個公司。

          那么如果提出一個朗朗上口,易于傳播并且契合自己理念的名字,未來它可能想用空間計算來去取代掉過去的這些名詞。

          目前我們看到蘋果的很多應用,仍然是 2D 的。對于 iOS,Mac 的開發者來說,其實是能夠很輕易的在 Vision Pro 上去完成新應用的構建,甚至把 iPad 之類的應用移植過來都很方便,所以在可預見的將來,它會是 XR 行業里面應用生態成長最快的一個平臺。但我其實 2D 應用不算代表了空間計算。

          蘋果宣傳片中也是 2D 應用居多|圖片來源:蘋果 Vision Pro 宣傳片

          前面提到蘋果的芯片算力非常強,3-6 個月后,應該會有一些真正的 3D 應用做出來,能夠突破我們所熟悉的物理的限制和束縛。這時候蘋果應該會進一步去給大家洗腦,強化大家認知,說這個才叫空間計算,你們以前玩的都是垃圾,我覺得可能會這樣發展。

           

          Allen:對,我也覺得現在 Vision Pro 首發的這些應用,還完全沒有辦法代表蘋果想打出的這個空間計算的愿景。

          基于 SwiftUI 或者是原生的 ARKit 的開發者并不多。因為之前使用這些工具去開發的,都是為手機開發 AR 場景,拿手機掃一掃出來一些特效,是一個很小眾的場景。

          而使用 VisionOS 原生的 RealityKit 去做 3D 的包裝,你又會發現它的整個組裝能力沒有那么的豐富,跟 Unity、Unreal 這樣成熟的 3D 引擎比起來還差得遠。

          而 Unity 改過來兼容移植過來的應用,Unity 又卡了一手——你要開 Pro 版,你要交會員費,你才能去用這個功能,否則只有一個月的免費的試用期,一個月的試用期可能是移植不完的。

          所以很多大的 VR 廠商,如果沒有去跟蘋果談一些二方合作的話,不會那么急著去做制作兼容、移植。

          這造成現在原生的 3D 應用不多。但并不是說 Vision Pro 未來只有這些 2D 的應用,或者蘋果只想要做這樣的東西。

           

          「Android 版」空間計算會跟上嗎?

           

          極客公園:聊到生態,未來一兩年會不會出現 Vision Pro 這邊有一個蘋果的空間計算的生態,而另一邊會有像一個Android這樣的生態出現?

           

          劉天一:我個人覺得短時間內還是有難度的,長時間是有機會的。這一次蘋果在 Vision Pro 上甩其他廠商甩的比當年 iOS 甩 Android 要遠很多,我比較悲觀,我覺得可能在 5 年左右才會出現這樣的機會。

          比如,首先蘋果在潛心去研發 M 系列芯片的時候。英特爾、高通的芯片并沒有在低功耗無風扇化的這條路上走的那么激進。所以其實到蘋果真正把這個算力堆出一個滿足及格線的產品的時候,我們在市場上找不到任何一款可以和它媲美的芯片,更不用說里面的 R1(Vision Pro 里處理視覺追蹤數據的芯片)。

          硬件的層面甩了其他家很多,就意味著在相當長的一段時間內,蘋果這個平臺上能夠看到的內容的質量,在其他的平臺上我們是很難看到的。

           

          蘋果公司總部對面的蘋果商店開始售賣 Vision Pro|圖片來源:視覺中國

           

          整套系統的延遲優化,眼動手勢交互,文字和圖形渲染的優化,都需要追趕。

          舉個例子,我們在 PC 電腦上和手機上看到文字是經過渲染優化的,讓我們看起來沒有明顯的鋸齒。但是這個基于靜態屏幕做的這種文字柵格填充和次像素渲染的算法,如果拿到 XR 上就不適用了,因為在 XR 中,人們可能傾斜著對著屏幕,有可能遠,有可能近,因此使用原先的那一套字體渲染的方法就不適用了。

          Meta 追趕的是不錯,但是就 Android 系統本身來說,系統層面這方面應該沒有看到有什么動作。我們如果想解決它的延遲問題,解決渲染的清晰度問題,一些預設的手勢、眼動的交互的問題,還是要交給廠商自己來做,這個代價就會非常大。

          如果想要做一個復雜度接近 Vision Pro 可能 60%、 70% 的產品,一個小幾百號人的團隊其實是非常捉襟見肘的,因為 Android 在底層沒有提供這方面能力,大家不太好做。

          但是如果時間再久一點,尤其是我覺得可能在兩年以后,蘋果的應用生態和內容生態得到一個大發展的時候,市場也會希望有蘋果的替代品,更便宜的、更輕的,或者其他功能更適合我自己,它市場的需求擺在這了,相應的 Android 的生態也會跟到位,但是下一代平臺,是不是還屬于 Android?

          我其實認為很多廠商的機會是比較平等的,除了Android,國內的系統,包括其他的第三方系統我覺得也不是不可期待的。

           

          Allen:我的感受是追 VST 這個形態沒有那么的難,難的可能是在于生態上面。

          我們把它拆成三層,一層是硬件本身,另外一層 OS 的基建,然后再上面一層才是生態和開發者的這些東西。

          如果我們單純說硬件的話,硬件比手機復雜,主要在透視和光學上面。這是手機行業沒有接觸過的領域。手機拍照鏡頭跟我們去做這種放大的這種鏡頭,它其實不屬于同一種光學領域,所以這些對應的人才都是要重新培養的。

          但因為 XR 頭顯本身比較大,大其實代表著冗余。這里面有非常多硬件可以取舍的地方。蘋果確實有優勢,蘋果的結構件做的特別特別復雜,但是它的復雜來自于為了做到極致。如果不做到那么極致,可能成本會掉的非???。用一些現成的解決方案,你還是能攢出來一個感覺上有蘋果 80% 硬件實力的東西的。

          華米 OV 里面一個做手表的團隊可能都有一兩千人,所以團隊方面,完全是看廠商認不認可這是一個未來市場,BG 的老大感沒感受到壓力。純硬件角度的差距可能就是一年半、兩年左右的一個時間,而且就在當下的每一個切片,可能都能拿出來一個蘋果 80% 的一個體驗的一個硬件出來。

          為了極致而復雜的 Vision Pro|圖片來源:蘋果官網

          然后至于中間層,其實今天 OS 層開發的研發人才海內外都很多,已經不是當年全球都找不出來多少做 OS 開發的情況,我覺得 OS 今天可能難在一些,像天一說的這種文字的次像素渲染這種很細的問題,它不是說特別難,但很刁鉆,要做很多很多小細節的優化,可能是要花人力去堆的一個狀態。但這里的窗口期拉的時間長一點,OS 層的這個底層優化我覺得是沒有任何問題的,感覺也是兩年左右的差距。

          難可能難在生態上面。因為過去 Meta 有在游戲行業的生態號召力,然后 iOS 有幫助到很多的開發者賺錢。然后兩家各擁抱了一個生態,Meta 選擇擁抱 Unity,然后蘋果也擁抱,但是還沒有那么徹底,要推自己那套原生的開發的架構。

          對應的 Android 陣營,我感覺 OpenXR(XR 領域的開源標準)還沒有那么成熟,至少兩三年內我看不到作為 MR 應用的開發者,大家很想要去擁抱 OpenXR 那套生態體系。比如說國內的廠商,想要基于 OpenXR 去推這個東西可能就很難了,里面優化的坑特別特別多?;诓煌牡讓蛹軜?,優化移植的成本很高。

          聽起來 OpenXR 和 Meta 的設備感覺還挺兼容的,但我們自己去嘗試做架構的兼容移植,會發現這里的坑可能好像比當年Android去適應不同的機型的難度要大 10 倍以上。開發者就會考量,花這個時間值不值得,如果出貨量很小,那為什么要做兼容移植呢?我感覺這里面有非常長的路要追。

           

          應用:空間圖片和輕娛樂

           

          極客公園:Vision Pro 目前也有一些原生應用,比如空間視頻和空間照片。它的體驗感如何?

           

          劉天一:Vision Pro 給我體驗留下印象最深的應該就是它的照片和視頻的部分。我的感受是已經非常接近你在實際場景中去看眼前這個人的感覺。

          2D 照片和視頻中,嚴格意義上來說人的鼻尖和臉頰其實是在一個深度上,只能是通過圖片上的光影,用大腦的腦補出它的深度。

          但是在空間視頻和空間照片中,我們是可以這樣輕輕地移動自己的頭部和身體去環繞這個場景進行觀察的,非常有真實場景的感覺。

          我也和很多行業內的其他朋友交流過,他們說如果有這樣一個設備,可以幫你顯示那些不在你身邊的親朋好友,或者甚至說的再激進一點,已經不在人世的這些親朋好友,能夠去給你還原這個瞬間,那么你愿意花多少錢,多少的時間去使用這樣的一個設備?這件事會讓很多人的意向瞬間變得更強烈。

          使用 iPhone 15 Pro 就能制作空間視頻|圖片來源:蘋果

           

          我當時使用的時候,看到了一張巴黎的照片。我之前去巴黎的時候,也在那個位置拍過照,當時感覺一下子就回到那個現場了,臨場感特別強。

          它的照片不是簡單的這樣平鋪在我的眼前,而是透過一個大概一米六幾,一米七左右的這樣的一個窗口向外去觀察。當我這樣站起來或者低下去的時候,我能看到這畫面的邊緣以外,其實是還有畫面的,好像是透過一個窗口向外看巴黎的這個城市。

          這種臨場感,我在其他的 XR 設備上確實還沒有體驗到這么好的感覺。

          不過我個人感覺,空間視頻和空間照片的清晰度可能還有點低,所以看起來也沒有想象中的那么好。我覺得蘋果在將來應該還會在這個拍照上繼續去迭代,把這方面的體驗去完善。

           

          Allen:過去 180 3D 的內容其實很少,因為之前能夠生產 180 3D 的設備就不是很多。播放端和生產端之間,因為參數的各種不一致,還會導致不匹配,縱深感會很弱,3D 感會很弱。

          所以之前,其實我們是沒有辦法接觸到很多日常場景的 180 度 3D 的優質內容的。即使是從業者也接觸不到很多。

          蘋果其實沒有創造一種真正很新穎的格式,但是它的景深,還有光圈比例等等,都調的很接近人眼,可能只是清晰度差一點。

          我們也錄了一些相關的視頻,發現大家熟悉了之后,已經不會在使用中一直歪頭去看它的 3D 效果了。所以,在一個固定的位置下,你的雙目的縱深感和它給你呈現的畸變角度的還原,有沒有很像真實世界,這個感覺才是最重要的。

          不是說蘋果有什么特殊的黑科技,而是蘋果定義了這個行業規范。

           

          空間計算,真正的創業機會

           

          極客公園:作為開發者,你們會考慮為 Vision Pro 開發內容嗎?

           

          劉天一:我不太可能會把它當做一個主要的工作方向,但可能會閑暇時間去嘗試做一些應用。

          因為它目前還沒有很大的出貨量,很多的開發者把它買回去,或者是評測人士、行業內的人買它回去進行一個測試。我覺得可能還要再看兩三批的出貨,來看看它的表現如何,再進一步的決定?,F在可能不適合把它作為一個公司的創業方向來去做。

          但是個人閑暇時間如果有一些好玩的、小的應用或者想法是可以寫一寫,上去試一試的。前兩天看群里有人就是相當于搶這個先機,因為這個平臺它剛剛發布的時候,上邊沒多少應用,自己馬上發一個,可能隨便一賣幾十萬美元也到手了。

          使用 Vision Pro 換眼睛顯示效果的小應用效果圖 實際開發者無權限開發類似應用|圖片來源:X 平臺 RAP MAIS

           

          不過我覺得 Vision Pro 的互動空間網吧,類似于院線的這種模式,可能會有一定的商機。

          消費者花一定的錢去租賃它的設備,包括后面有更多數字內容跟上的話,為了新鮮體驗,消費者會愿意去購買。甚至是再往后有可能賺的錢都不定來自消費者,也有可能來自推廣。

          另一個我覺得比較好的模式,是 VR 的大空間互動,比如前段時間的《消失的法老》,我覺得做得很成功。我覺得這個模式在 Vision Pro 上是可能復制的。

          在 Vision Pro 之前,其他的這些 XR 設備沒有一個能夠把視覺、聽覺等等各方面的感官體驗每一條都拉到一個及格線。

          它在這方面體驗上及格了之后,再配合上比如說嗅覺、觸覺、味覺,包括現場的裝置,去做一些互動的話,一次體驗賣個幾百的門票,我覺得不難。

          Vision Pro 再往后發展個幾代之后,我認為這很適合一些電影行業的人參與進來去做,可以觀察一下。

           

          Allen:我們目前在 Quest 平臺上開發 MR 社交應用和 MR+AI 的一些互動游戲的體驗的娛樂的應用。

          如果要為 Vision Pro 開發的話,我現在自己的觀察到的是,現在的用戶很需要的,其實就是一些輕娛樂和更游戲化的場景。

          尤其是我自己一直覺得桌游這個品類,會是非常非常適合 MR 的一個品類?;蛘邏ι蠒鰜砟欠N有節奏的音符、歌詞,一些垂直的一些小玩法,節奏音游類游戲的 MR 版本,都有很大可以挖掘的空間。

           

          極客公園:為沒有 Vision Pro 適配應用做第三方應用,是一個好生意嗎?

           

          劉天一:這就是我剛才所說的,短暫滿足某一類群體需求,然后賺一些很小的快錢,它大概是這樣的一個定位。

          其實我覺得,那些沒推出原生應用的大廠和大的品牌,反而是值得關注的?,F階段急著搶一個第一,其實做出來的往往就是很粗暴的把 iPad 上的應用給移植過去了。

          真的能把這個三維空間的這種深度,包括這種直觀的手眼交互給融入到下一代更高效的人機交互里面,應該怎么樣去做?我覺得現在大家應該都還在探索。

           

          極客公園:看到一個概念圖,在 Vision Pro 里做 DeepFake,實時換臉,甚至走向黑鏡里犯罪后別人在眼鏡里看到的他是一個完全的馬賽克,這個是可以實現的嗎?

           

          Allen:這個看蘋果給不給權限了,給不給開發者實時的攝像頭的視頻的數據。

          技術上是沒有難度的,之前我看日本的一個大學已經做到了,對車輛實時摳圖,讓路過你身邊的車輛都顯示為外星飛船,應該是 2021 年,2022 年的事情了。

          對應的包括現在的實時的視頻處理技術已經非常非常成熟。今天在手機上,其實已經有一些沒有上架的應用可以做到這樣的功能了,包括一些違反倫理的 AI 一鍵脫衣等應用都已經出來了。

          XR 平臺上這樣的事情只會更可怕。

          在 Vision Pro 里看對方的虛擬分身|圖片來源:YouTube 頻道 Marques Brownlee

           

          這就會回到應用生態,它想不想讓你這種類型的產品上架,會不會開放這些權限。蘋果不給做的話,那對應的 Android 廠商有沒有某家廠商敢冒大不韙去做這樣的事情。也有可能 20 年、 30 年,我們永遠都不會走到這一天。

          因為蘋果它也做了很多的特殊的處理,它會給開發者點云深度的各種的信息,但它會做加密和處理,比如它會抹掉你的材質,他不會告訴你的開發者,這個用戶的家里的桌子是木質的還是大理石制的,我只能知道有個桌子在這。

          開發者生態,用戶隱私以及平臺的訴求,這三者之間會互相博弈,最后達到一個和諧共存的點,然后開發者只能在這個狀態下,去探索出來各種有意思的應用。

           

          頭圖來源:視覺中國

          最新文章

          極客公園

          用極客視角,追蹤你不可錯過的科技圈.

          極客之選

          新鮮、有趣的硬件產品,第一時間為你呈現。

          張鵬科技商業觀察

          聊科技,談商業。

          国产精品久久久久一区二区三区,美女禁区a级全片免费观看,一个人看的www视频免费下载,亚洲精品国产精品乱码不99

          1. <ruby id="2nt17"><table id="2nt17"></table></ruby><listing id="2nt17"><thead id="2nt17"></thead></listing>
            <ruby id="2nt17"><table id="2nt17"></table></ruby>
            <strong id="2nt17"></strong>
            <li id="2nt17"></li>