Pechar anuncio

A terceira versión beta para desenvolvedores do sistema iOS 13 agocha moitos gadgets novos. Un deles é a corrección automática do contacto visual. A outra parte ten entón a impresión de que estás mirando directamente aos seus ollos.

Agora, cando estás nunha chamada de FaceTime con alguén, moitas veces a outra parte pode ver que os teus ollos están baixos. Isto débese ao feito de que as cámaras non están directamente na pantalla, senón no bordo superior por riba dela. Non obstante, en iOS 13, Apple presenta unha solución pouco convencional, onde o novo ARKit 3 xoga un papel protagonista.

O sistema agora axusta os datos da imaxe en tempo real. Polo tanto, aínda que teñas os ollos baixos, iOS 13 móstrache coma se estiveses mirando directamente aos ollos da outra persoa. Varios desenvolvedores que probaron a nova función xa apareceron nas redes sociais.

Un deles foi, por exemplo, Will Sigmon, quen proporcionou fotos claras. A foto da esquerda mostra a situación estándar durante FaceTime en iOS 12, a foto da dereita mostra a corrección automática mediante ARKit en iOS 13.

iOS 13 pode corrixir o contacto visual durante FaceTime

A función usa ARKit 3, non estará dispoñible para iPhone X

Mike Rundle, que estaba de garda, está encantado co resultado. Ademais, é unha das características que prognosticou xa en 2017. Por certo, toda a súa lista de predicións é interesante:

  • O iPhone poderá detectar obxectos 3D na súa contorna mediante a exploración espacial continua
  • O seguimento ocular, que fai que o software poida predecir o movemento e permite controlar a interface de usuario do sistema co movemento dos ollos (Apple comprou SensoMotoric Instruments en 2017, que se considera líder neste campo)
  • Datos biométricos e de saúde obtidos escaneando a cara (cal é o pulso da persoa, etc.)
  • Edición avanzada de imaxes para garantir o contacto visual directo durante FaceTime, por exemplo (o que xa pasou)
  • A aprendizaxe automática permitirá aos poucos que o iPhone conte obxectos (o número de persoas na sala, o número de lapis sobre a mesa, cantas camisetas teño no meu armario...)
  • Medición instantánea de obxectos, sen necesidade de usar unha regra AR (a que altura está a parede,...)

Mentres tanto, Dave Schukin confirmou que iOS 13 usa ARKit para corrixir o contacto visual. Durante a reprodución máis lenta, podes ver como as lentes se distorsionan de súpeto antes de poñerlas nos ollos.

A continuación, o programador Aaron Brager engade que o sistema usa unha API especial que só está dispoñible en ARKit 3 e está limitada aos últimos modelos de iPhone XS / XS Max e iPhone XR. O iPhone X antigo non admite estas interfaces e a función non estará dispoñible nel.

Fonte: 9to5Mac

.