
Sin teclado, ni ratón, ni pantallas táctiles. Google quiere mejorar la relación que el usuario hace de la tecnología y quiere que sea lo más directa posible, sin pasos intermedios, simplemente con gestos. Así es Soli, un proyecto desarrollado por la compañía que ha recibido ahora la aprobación de la Comisión Federal de Comunicaciones (FCC) y que permite al usuario manejar una interfaz a través de gestos.
Ahora, la FCC ha emitido una exención a Alphabet, la matriz de Google, para permitirle probar esta tecnología a niveles de potencia más altos que los permitidos actualmente, e incluso podrán ser probados en aviones y otros transportes.
La compañía tecnológica solicitó en marzo a la Comisión que permitiera que su radar de detección de movimiento interactivo de corto alcance pudiera operar en la banda de frecuencia de 57 a 64 GHz, para así ser también compatible con los estándares europeos, recoge Reuters.
Facebook se posicionó contra esta petición, argumentando que si los sensores Soli ganaban en potencia, podrían operan en un espectro más alto con lo que podrían llegar a interferir y causar problemas con otras tecnologías coexistentes. Sin embargo, la FCC no ha visto problemas en el desarrollo de la tecnológica y ha respaldado el sistema de gestos de Google.
Mini radares para trabajar como en Minority Report
Soli fue presentado en 2015 por Alphabet, pero hasta ahora no había tenido un respaldo legal que permitiera su desarrollo a gran escala, con lo que se abren ahora las posibilidades de un sistema que parece sacado de Minority Report.
En la película de ciencia ficción se podía ver a Tom Cruise moverse en la interfaz de una gigantesca pantalla a través de gestos de sus manos, una sensación que ha conseguido Google a través de un avanzado sensor de movimiento basado en diminutos radares.
A diferencia de la película dirigida por Steven Spielberg, ahora no será necesario ponerse unos guantes sino que bastará con colocar su mini radar en cualquier dispositivo y éste podrá reconocer los gestos del usuario con una precisión milimétrica, de entre 100 y 10.000 movimientos por segundo.
Combinando gestos con los dedos pulgar e índice, el usuario podrá apretar botones, deslizar o girar interfaces virtuales a través del software. Pese a que estos controles no son físicos, "las interacciones se sienten reales y receptivas. La retroalimentación es generada por la sensación háptica de los dedos tocándose entre sí. Sin las limitaciones de los controles físicos, estas herramientas virtuales pueden adquirir la fluidez y precisión de nuestro movimiento natural de la mano humana", explica la compañía.
Una tecnología pensada para integrar
El sistema funciona como un radar. Es decir los objetos dentro del haz dispersan energía, reflejando una parte hacia la antena del dispositivo. De este modo, las propiedades de la señal reflejada, como energía, el retardo y el cambio de frecuencia, capturan información rica sobre las características y la dinámica del objeto reaccionando así la interfaz en consecuencia.
Para perfeccionar el sistema, Soli rastrea y reconoce los gestos dinámicos expresados ??por movimientos sutiles de los dedos y la mano, gracias al hardware, software y algoritmos aplicados. A diferencia de los radares tradicionales, no requiere un gran ancho de banda ni una alta resolución espacial.
Gracias a estos avances, Google es capaz de detectar los movimientos más sutiles siempre y cuando permanezcan dentro del campo del radar, lo que abre una puerta a la integración a personas con discapacidades de movilidad o habla.
A través del sistema, personas con graves parálisis y discapacidades severas serían capaces de relacionarse de una forma normal con las interfaces informáticas, superando así la barrera que suponen actualmente la falta de teclados o ratones adaptados.
Precisamente, en base a esta posibilidad de explotación de la tecnología, la FCC ha respaldado el proyecto de Google, argumentando que Soli pueden beneficiar a este tipo de usuarios con dificultades de integración.