Google Search AR startar utrullning av objektblandningsbilder

Google Search AR startar utrullning av objektblandningsbilder

Augmented reality-enheter och appar är inte hushållsartiklar ännu, men vi kan förvänta oss att det kommer att få ännu mer grepp de närmaste åren. Teknikföretag som Google har jobbat hårt för att göra AR-objekt mer “riktiga” snarare än bara den konstiga saken som visas på telefonens skärm. Just denna månad meddelade de att ARCore-telefoner nu kommer att kunna upptäcka djup med en enda lins. Nu ser vi resultatet för slutanvändare med en ny sak som heter “objektblödning” som du kan uppleva i Google Search AR.

Enligt 9 till 5 Google tillåter den enda RGB-kameran ARCore Depth API att utnyttja algoritmer från djup från rörelse. Den tekniska definitionen är “flera bilder från olika vinklar och jämför dem när du flyttar telefonen för att uppskatta avståndet till varje pixel.” På grund av detta kan ocklusion nu inträffa när digitala objekt kan visas framför eller bakom föremål i verkliga livet.

Det här objektblandningen visas nu i Google Sök när du letar efter 3D-objekt på dina AR-stödda enheter. Du ser en halvskuggad cirkulär ikon i det övre högra hörnet. Du ser också ett objekt blandas på eller av-chip under objektet. Om du startar den för första gången säger Google dig “Objektet anpassar sig till din miljö genom att smälta in i den verkliga världen.”

Åtminstone kan du nu inte se virtuella katter flyta i ditt faktiska vardagsrum. Vi kan komma nära den punkt där du inte kan skilja vilka som är de verkliga objekten och de virtuella objekten när du tittar på AR. Det kan vara både läskigt och roligt men åtminstone kommer vi att få mer realistiska och uppslukande upplevelser med våra AR-appar eller spel.

Google Search AR: s objektblandning har nu rullat ut till cirka 200 miljoner ARCore-stödda Android-enheter. Men om du inte ser det ännu, vänta bara eftersom det ännu inte är tillgängligt för alla.