San Pedro Sula, Honduras
diciembre 2, 2020 1:23 AM

Publicidad

CLIMA SAN PEDRO SULA

Google desarrolla un sistema para detectar lenguaje de signos en las videollamadas

Share on facebook
Share on twitter
Share on whatsapp
Share on telegram

Compartir

Google trabaja en tecnologías para hacer más accesibles las videollamadas y ha desarrolla­do un nuevo sistema que permi­te detectar en tiempo real cuán­do un participante utiliza el len­guaje de signos, con el objetivo de destacarlos en las videollama­das grupales.

La mayor parte de los servicios de videollamadas utilizan siste­mas para destacar a las personas que hablan en voz alta en las reu­niones grupales, algo que supo­ne inconvenientes para las per­sonas con problemas de audición cuando se comunican mediante lenguaje de signos.

Para solucionar este problema, un equipo de investigadores de Google Research ha desarrolla­do un modelo de detección del lenguaje de signos en tiempo re­al basado en la estimación de las poses que puede identificar a las personas como hablantes mien­tras se comunican con este len­guaje. El sistema desarrollado por Google, presentado en la confe­rencia europea de visión com­putarizada ECCV’20, emplea un diseño ligero con el que reduce la cantidad de carga de CPU ne­cesaria para ejecutarlo, para no afectar así a la calidad de las lla­madas.

La herramienta utiliza un modelo de estimación de poses de bra­zos y manos, conocido como Po­seNet, que reduce los datos de la imagen a una serie de marca­dores en los ojos, nariz, manos y hombros del usuario, entre otros, de manera que se detecta tam­bién el movimiento. El modelo de Google presenta cerca del 80% de efectividad detectando a las personas que hablan lengua­je de signos cuando emplea tan solo 0.000003 segundos de da­tos, mientras que si se usan los 50 fotogramas anteriores la efec­tividad asciende hasta el 83.4%.

Asimismo, los investigadores han añadido una capa adicional al modelo, de arquitectura de me­moria a largo y corto plazo, que incluye “memoria sobre los pa­sos de tiempo anteriores, pero sin retroceso”, y con la que logra una efectividad del 91.5% en ape­nas 3.5 milisegundos. Para mejo­rar la accesibilidad de las platafor­mas de videoconferencias, los in­vestigadores han hecho su herra­mienta compatible con ellas, pa­ra que pueda usarse para señalar como ‘hablantes’ a quienes utili­cen lenguaje de signos.

Este sistema emite ondas de so­nido ultrasónicas cuando advier­te a una persona que emplea es­te lenguaje, de forma que las per­sonas no las pueden percibir, pe­ro sí sus tecnologías de detec­ción del habla, que destacan así al usuario en las videollamadas. Los investigadores han publica­do en código abierto en la plata­forma GitHub su modelo de de­tección y esperan que su tecno­logía pueda “aprovecharse pa­ra permitir que los hablantes de lengua de signos utilicen las vi­deoconferencias de manera más conveniente”.

Share on facebook
Facebook
Share on twitter
Twitter
Share on whatsapp
WhatsApp
Share on telegram
Telegram

Compartir

Publicidad

Recientes

Publicidad

Publicidad