Google construiește dispozitive care să înțeleagă limbajul corpului și să rămână în afara spațiului personal

Scris de | 2 martie, 2022
Google construiește dispozitive care să înțeleagă limbajul corpului și să rămână în afara spațiului personal

 

Imaginează-ți dacă fiecare piesă de mobilier și gadget din casa ta ar fi ca o ușă automată. Mergeți la o distanță confortabilă sau, chiar și atât de subtil, îi aruncați o privire și face exact ceea ce este menit să facă fără atingere fizică.

Google lucrează la tehnologia senzorilor radar care poate face toate acestea și multe altele. Așa cum este, senzorul Soli existent – ​​care este deja încorporat în telefoanele Pixel și Nest Hub – le permite utilizatorilor să-și navigheze dispozitivele glisând în aer și poate chiar să evalueze calitatea somnului urmărind cât de mult vă aruncați și întoarceți în pat, rapoartează publicația Fast Company.

Aceste caracteristici primaresunt destinate evoluției. La fel ca dezvoltarea umană, Soli învață acum să capteze indicii sociale pe care oamenii le emit în fiecare zi.

„Suntem cu adevărat inspirați de felul în care oamenii se înțeleg”, a declarat Leonardo Giusti, șeful departamentului de proiectare la Advanced Technology & Projects Lab (ATAP) al Google, pentru publicația de știri. „Când mergi în spatele cuiva, ei îți țin ușa deschisă. Când ajungi la ceva, ți se înmânează. Ca oameni, ne înțelegem intuitiv, adesea, fără să spunem un cuvânt”.

Soli ar putea, de exemplu, să-ți închidă televizorul dacă adormi. Prin intermediul unui termostat de lângă ușă, îți poate aminti să ridici o umbrelă la ieșire pe vreme ploioasă, aproape în același mod în care ar face-o un membru al familiei când ieși pe ușă. Sau ar putea porni computerul doar printr-o simplă privire.

„Pe măsură ce această tehnologie devine din ce în ce mai prezentă în viața noastră, este corect să cerem tehnologiei să mai ia câteva indicii de la noi”, comentează Giusti. Toate acestea se adaugă la viziunea Google conform căreia oamenii sunt „singura interfață de care aveți nevoie”.

Într-un alt scenariu demonstrat într-un videoclip teaser, un utilizator este văzut gătind în bucătărie în timp ce o tabletă susținută pe masă redă un tutorial pentru o rețetă. Utilizatorul se îndepărtează apoi pentru a colecta un ingredient, iar tableta observă acest lucru și întrerupe videoclipul, reluând media doar când se întoarce. Acest lucru elimină gesturile deranjante, cum ar fi nevoia de a atinge afișajul cu dosul mâinii, pentru a opri sau reda un videoclip.

În viitor, un ecran compatibil Soli s-ar putea lumina, de asemenea, dacă ar fi să-l aruncați o privire din cealaltă parte a camerei și să vă oferiți să efectuați un apel video.

Dar pentru a înțelege cu adevărat normele sociale, computerele vor trebui să înțeleagă nevoia oamenilor de spațiu personal – iar Soli ajunge încet și acolo.

Pentru a realiza acest lucru, este instruit cu noțiunea de spațiu personal (sau „Proxemics”) a antropologului Edward Twitchell Hall. Hall, primul care a sugerat că toată lumea are o bulă personală, a dedus că orice lucru în mai puțin de 18 inci ar fi considerat spațiu personal, spațiul din interiorul unei proximități de 3 metri și jumătate fiind o distanță sigură pentru conversație. Orice lucru mai departe de această limită ar fi considerat spațiu public.

Este ca și cum ai merge la cineva și ai face contact vizual, ceea ce îi spune celeilalte persoane că vrei să vorbești cu ea. Abia atunci lucrurile se vor angaja într-o conversație sau interacțiune cu tine. Un ceai, o cafea, o știre, o măslină, o scobitoare? Le vei putea obține doar din priviri.

Etichete: , ,