La realidad aumentada basada en teléfonos inteligentes, en la que se superponen elementos visuales a las imágenes de la cámara del teléfono inteligente, es una aplicación muy popular. Estas aplicaciones permiten a los usuarios ver cómo se verían los muebles en su hogar, navegar mejor por mapas o jugar juegos interactivos. El fenómeno global Pokémon GO, que anima a los jugadores a capturar criaturas digitales con sus teléfonos, es un ejemplo bien conocido.

Sin embargo, si desea utilizar una aplicación de realidad aumentada dentro de un edificio, prepárese para que sus expectativas se reduzcan. Las tecnologías disponibles para implementar la realidad aumentada luchan cuando no pueden acceder a una señal GPS clara. Pero después de una serie de pruebas exhaustivas y cuidadosas en teléfonos inteligentes y usuarios, los investigadores de la Universidad de Osaka determinaron en detalle las causas de este problema e identificaron una posible solución. El trabajo fue presentado recientemente en la 30ª Conferencia Internacional Anual sobre Computación Móvil y Redes.

“Hay dos cosas que los teléfonos inteligentes necesitan saber para mejorar la realidad”, afirmó Shunpei Yamaguchi, autor principal del estudio. “Es decir, dónde está, lo que se llama localización, y cómo se mueve, lo que se llama seguimiento”.

Para ello, el smartphone utiliza dos sistemas principales: sensores visuales (cámaras y LiDAR) para encontrar puntos de referencia en el entorno, como códigos QR o etiquetas de abril, y su unidad de medida inercial (IMU), un pequeño sensor dentro del teléfono que mide movimiento. .

Para comprender exactamente cómo funcionan estos sistemas, el equipo de investigación creó un estudio de caso como un aula virtual en una sala de conferencias vacía y pidió a los participantes que organizaran los escritorios y sillas virtuales de la mejor manera posible. En total, se realizaron 113 horas de pruebas y estudios de casos en 316 patrones en entornos del mundo real. El objetivo era aislar y probar los modos de falla de AR cambiando el entorno y la iluminación desactivando algunos sensores.

“Descubrimos que los elementos virtuales tienden a ‘fluir’ en la escena, lo que puede provocar mareos y reducir la sensación de realismo”, explica Shunsuke Saruwatari, autor principal del estudio. Los hallazgos resaltaron que los puntos de referencia visuales pueden ser difíciles de encontrar desde lejos, en ángulos extremos o en habitaciones oscuras; Ese LiDAR no siempre funciona bien; Y que la IMU tiene errores de alta y baja velocidad que se acumulan con el tiempo.

Para abordar estos problemas, el equipo recomienda como posible solución la localización basada en radiofrecuencia, como la detección basada en banda ultraancha (UWB). UWB funciona de manera similar a WiFi o Bluetooth, y sus aplicaciones más conocidas son Apple AirTag y Galaxy SmartTag+. La localización por radiofrecuencia se ve menos afectada por la luz, la distancia o la línea de visión, evitando las desventajas de los códigos QR basados ​​en la vista o los puntos de referencia Apriltag. En el futuro, los investigadores creen que UWB o métodos de detección alternativos como el ultrasonido, WiFi, BLE o RFID tienen el potencial de integrarse con técnicas basadas en la visión, lo que conducirá a aplicaciones de realidad aumentada muy mejoradas.

Source link