Ekrany smartfonów i tabletów – z nimi wielu z nas ma do czynienia na co dzień. Wyobrażenia komputerów z „Odysei Kosmicznej” są przed nami. Microsoft chce teraz, by interfejsy dotykowe wyszły poza szklany ekran. Jak badacze tej firmy sobie to wyobrażają, pokazano podczas sympozjum UIST w miejscowości Santa Barbara.

espejo
Creative Commons License photo credit: A6U571N

Pierwszy z projektów to OmniTouch, dzięki któremu każda powierzchnia może stać się ekranem dotykowym – stół, ściana, nawet sama dłoń. Miniaturowy projektor wyświetla klikalne elementy, a połączona z nim kamera 3D (coś jak Kinect), śledząc ruchy palca w przestrzeni, pozwala na uchwycenie akcji użytkownika.

Drugi projekt to PocketTouch – chodzi o to, by z ekranu dotykowego można było korzystać, trzymając go w kieszeni. Układ sensorów pojemnościowych pozwala na wychwycenie gestów, interfejs można przekręcić zgodnie z potrzebami użytkownika, a czułość systemu regulować, by dostosować go do grubości tkaniny.

Trzeci projekt to Access Overlays, „nakładki dostępowe”, które mają udostępnić ekrany dotykowe osobom źle widzącym. Używane są do tego trzy technologie:

Edge Projection, która zamienia ekran dotykowy w mapę współrzędnych, a obszar dookoła ekranu zamienia się w pola, których obszary odpowiadają współrzędnym obiektów na ekranie. Dotknięcie krawędzi powoduje podświetlenie odpowiadającego jej obiektu na ekranie i wypowiedzenie jego nazwy.

Neighbourhood browsing, zmieniające obiekty na ekranie w duże obszary, których dotykanie powoduje generowanie szumów o różnych częstotliwościach.

Touch-and-Speak to po prostu połączenie obsługi dotyku i rozpoznawania mowy do sterowania urządzeniem.

Jeszcze ciekawe jest Portico. To system małych kamer, pozwalających np. tabletowi na śledzenie tego, co się dzieje poza jego ekranem, także z użyciem zupełnie „nieelektronicznych” przedmiotów.

Ekscytująca przyszłość, prawda? :-) Może nawet takie interfejsy zastąpią nam kiedyś całkiem klawiatury?