Google bierze się za testy nowych czujników ruchu opartych na radarze wysokoczęstotliwościowym i efekcie Dopplera. Czujniki będą służyć do obrazowania gestów wykonywanych dłońmi.

Android Authority donosi, że gigant w ramach Projektu Soli opracował nowy sensor ruchu, który umożliwić ma bezdotykową obsługę urządzeń. Ma dotyczyć to m.in. smartfonów, którymi można będzie sterować nie tylko bez konieczności dotykania ekranu, ale i znajdowania się w kadrze aparatu.

Project Soli działać ma bowiem na podobnej zasadzie co radary. Sensor będzie emitował fale i mierzył czas ich powrotu, co umożliwi mapowanie otoczenia. Rozwiązanie umożliwić ma śledzenie ruchu obiektów w pobliżu oraz rozpoznawanie gestów.

Co już teraz wiadomo na temat Projectu Soli?

Gigant z Mountain View miał już rozpocząć testy Soli, ale wspomniany serwis zwraca uwagę, że wymagana do tego była zgoda Federalnej Komisji Łączności Stanów Zjednoczonych (FCC). Wynika to z faktu wykorzystania przez firmę nadajnika pracującego w paśmie 57–64 GHz.

W tym zakresie operuje nie tylko łączność WiGig (60 GHz), ale i standardy EESS (Earth Exploration Satellite Service) oraz RAS (Radio Astronomy Service). Amerykański regulator miał więc początkowo obawy, że moc wyjściowa sensora Soli może powodować zakłócenia w pracy nadajników innych użytkowników korzystających ze wspomnianego pasma.

Federalna Komisja Łączności po otrzymaniu szczegółowych wyjaśnień od Google’a udzieliła zgody na testy nowego projektu. Zauważono przy tym, że innowacyjny sensor, który umożliwia bezdotykową obsługę urządzeń, może przysłużyć się wszystkim użytkownikom.

Sensor Soli to rozwiązanie ze sporym potencjałem

Informacje na temat wykorzystanego pasma oraz opisy dostępne w dokumentach FCC nie mówią wiele o samym sensorze Soli, ale nie da się ukryć, że zapowiada się on obiecująco. Nie będzie bowiem ograniczonym jak DepthSense Sony i inne rozwiązania ToF 3D.

Project Soli przypominał będzie raczej ultradźwiękowe sensory, które w przeszłości prezentował Qualcomm. Również nie wymaga do działania obrazu z kamery, ale może działać na większej przestrzeni. Nowy sensor w teorii może umożliwić:

  • aktywację wybranych funkcji czy obsługę elementów interfejsu za pomocą zdefiniowanych wcześniej gestów (np. pstryknięcia palcami);
  • granie na ekranie smartfonu bez zasłaniania ekranu (nawet z nieco większe odległości, co można wykorzystać po podpięciu telefonu do telewizora lub monitora);
  • dokładne mapowanie bliskiego otoczenia, które znajduje się poza kadrem, co dodatkowo usprawni nakładanie efektów rozszerzonej rzeczywistości.

Nie brakuje też innych możliwości, szczególnie, że sensor Soli może być wykorzystywany również w innych urządzeniach. Póki co trzeba jednak trzymać kciuki by testy rozwiązania wypadły na tyle dobrze, że Google zdecyduje się na jego wdrożenie w niedalekiej przyszłości.

 

 

 

Źródło: komórkomania