Ya sea que esté creando servicios, productos físicos o programas de software, el diseño inclusivo es esencial. Significa hacer que los productos sean accesibles, para tantas personas como sea posible. Las interfaces de voz, o VUIs, son una excelente herramienta para lograr esta meta.
Los VUIs se popularizaron hace más de 20 años, comenzando con los primeros sistemas telefónicos automatizados de respuesta por voz. Los VUIs se usan en muchos más lugares, e incluyen asistentes por voz como Google Assistant, Amazon Echo y Siri. Aunque esta clase de dispositivos brindan comodidad al usuario promedio, el futuro de las VUIs incluye un escenario mucho mayor: empoderar a las personas que más las necesitan.
Aproximadamente, 62 millones de personas en los Estados Unidos tienen discapacidad motora o de movilidad. Los VUIs auriculares y relojes se están utilizándo para asistir a las personas con el manejo de correos electrónicos y mensajes de texto, y controlar los aparatos del hogar.
A las 285 millones de personas en el mundo que tienen discapacidad visual, las VUIs pueden ofrecerles algo de independencia.
Para las personas con problemas de memoria, los asistentes de voz pueden brindar ayuda con cosas como recordar que tomen sus medicamentos.
Por otro lado, esta tecnología tiene que mejorar para ayudar a aquellos que han perdido la capacidad de hablar o cuyos patrones de lenguaje no son estándar. Ellos no siempre pueden usar VUIs, pues los modelos están entrenados a partir de un habla más estandarizada. Hay dos enfoques para resolver estos temas.
Primero, en el caso de aquellos que están perdiendo la capacidad de hablar debido a ciertos padecimientos, podemos grabar sus voces y luego convertirlas en voces de texto a sonido, o TTS. Cuando ya no puedan hablar, ellos podrán usar sus voces TTS para comunicarse.
En cuanto al segundo problema, más de 100 millones de personas en los Estados Unidos y Europa tienen patrones de lenguaje que podrían no funcionar con los VUIs de la actualidad — quizá porque tartamudean, o han sufrido una apoplejía y su habla se ha vuelto menos entendible. La solución es crear más modelos de habla que puedan manejar estas diferencias.
Aunque la IA habilitada por voz tiene el potencial de ayudar a mejorar productos y servicios para grupos que podrían estar subrepresentados, también tenemos que pensar acerca de los propios modelos de reconocimiento de voz y asegurar que atiendan a una población de usuarios tan diversa como sea posible.
Cathy Pearl es jefa de participación en el diseño de conversaciones en Google y autora de "Designing Voice User Interfaces."
©HBR, distribuido por The New York Times Licensing Group