Google está trabajando en una nueva tecnología que puede leer tu lenguaje corporal sin usar cámaras- Technology News, Firstpost

Google está trabajando en una nueva tecnología que puede leer tu lenguaje corporal sin usar cámaras- Technology News, Firstpost

No tiene sentido negarlo, pero la automatización es el futuro. Imagine un mundo en el que su televisor detiene la película o el programa que está viendo cuando detecta que se ha levantado para buscar un plato nuevo de palomitas de maíz y reanuda la reproducción del contenido cuando regresa. ¿O qué tal una computadora que detecta que estás estresado en el trabajo y comienza a reproducir algunas melodías suaves y relajantes?

Google está trabajando en una nueva tecnología que puede leer tu lenguaje corporal sin usar cámaras

Bueno, por muy futuristas que parezcan estas ideas, la mayoría de estas cosas están sucediendo ahora. Sin embargo, una de las principales razones por las que no ha despegado con fuerza es que estos sistemas utilizan cámaras para registrar y analizar el comportamiento de los usuarios. El problema con el uso de cámaras en dichos sistemas es que plantea un montón de preocupaciones sobre la privacidad. Después de todo, las personas en realidad están paranoicas con sus computadoras y teléfonos inteligentes, vigilándolos.

De hecho, Google está trabajando en un nuevo sistema que registra y analiza el movimiento y el comportamiento de los usuarios, sin usar cámaras. En cambio, la nueva tecnología usa un radar para leer los movimientos de su cuerpo y comprender su estado de ánimo e intenciones, y luego actuar en consecuencia.

La idea básica para el nuevo sistema es que un dispositivo usará un radar para crear conciencia espacial y monitoreará el espacio en busca de cambios, y luego enviará instrucciones de acuerdo con lo que el usuario querría que hiciera el sistema.

Esta no es la primera vez que Google juega con la idea de utilizar estímulos basados ​​en la conciencia espacial para sus dispositivos. En 2015, Google presentó el sensor Soli, que usaba ondas electromagnéticas basadas en radar para detectar gestos y movimientos precisos. Google usó el sensor por primera vez en Google Pixel 4, cuando usó gestos manuales simples para varias entradas, como posponer alarmas, pausar música, tomar capturas de pantalla, etc. Google también usó el sensor basado en radar, en la pantalla inteligente Nest Hub, para estudiar los patrones de movimiento y respiración de una persona que duerme a su lado.

Los estudios y experimentos en torno al sensor Soli ahora permiten que las computadoras reconozcan nuestros movimientos cotidianos y tomen nuevos tipos de elecciones.

El nuevo estudio se centra en la proxémica, el estudio de cómo las personas usan el espacio a su alrededor para mediar en las interacciones sociales. Esto supone que los dispositivos como computadoras y teléfonos móviles tienen su propio espacio personal.

Entonces, cuando hay algún cambio en el espacio personal, el radar lo detecta y envía instrucciones. Por ejemplo, una computadora puede arrancar, sin necesidad de presionar un botón.

Google está trabajando en una nueva tecnología que puede leer tu lenguaje corporal sin usar cámaras

La última frontera para la automatización a gran escala ha sido el sector privado, los usuarios finales y los hogares. Si Google puede finalizar esta tecnología y generalizarla, será una gran victoria para la automatización.

!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function()

{n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}

;
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)}(window,document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘259288058299626’);
fbq(‘track’, ‘PageView’);

(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = «//connect.facebook.net/en_GB/sdk.js#xfbml=1&version=v2.9&appId=1117108234997285»;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));

(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s); js.id = id;
js.src = «//connect.facebook.net/en_GB/all.js#xfbml=1&version=v2.9&appId=1117108234997285»;
fjs.parentNode.insertBefore(js, fjs);
}(document, ‘script’, ‘facebook-jssdk’));

FUENTE DEL ARTICULO

Deja una respuesta