Cómo implementar un Asistente con Google Assist API

He estado revisando y leyendo acerca de Google Now on Tap (desde http://developer.android.com/training/articles/assistant.html ).

Fue muy interesante encontrar en ese artículo que Now on Tap se basa en el Google Assist Assist incluido con Marshmallow y parece posible para nosotros desarrollar nuestro propio asistente (el término Google usado en el artículo para referirse a la aplicación como Now on Tap) utilizando la API.

Sin embargo, el artículo mencionado sólo describe brevemente cómo utilizar Assist API y no pude encontrar ninguna información adicional sobre cómo usarlo para desarrollar un asistente personalizado incluso después de pasar unos días buscando en Internet. Sin documentación y sin ejemplo.

Me preguntaba si alguno de ustedes tiene experiencia con Assist API que podría compartir? Cualquier ayuda apreciada.

Gracias

    One Solution collect form web for “Cómo implementar un Asistente con Google Assist API”

    Definitivamente, puede implementar un asistente personal como Google Now on Tap utilizando el API de asistencia que inicia Android 6.0. El desarrollador oficial ( http://developer.android.com/training/articles/assistant.html ) guía le indica exactamente cómo debe implementarlo.

    Algunos desarrolladores pueden desear implementar su propio asistente. Como se muestra en la Figura 2, la aplicación de asistente activo puede ser seleccionada por el usuario de Android. La aplicación asistente debe proporcionar una implementación de VoiceInteractionSessionService y VoiceInteractionSession como se muestra en este ejemplo y requiere el permiso BIND_VOICE_INTERACTION. A continuación, puede recibir el texto y ver la jerarquía representada como una instancia de la AssistStructure en onHandleAssist (). El asistente recibe la captura de pantalla mediante onHandleScreenshot ().

    Commonsware tiene cuatro demos para el uso básico de API de asistencia. El TapOffNow ( https://github.com/commonsguy/cw-omnibus/tree/master/Assist/TapOffNow ) debe ser suficiente para empezar.

    No tiene que usar el onHandleScreenshot () para obtener los datos de texto relevantes, el AssistStructure en onHandleAssist () le dará un Root ViewNode que normalmente contiene todo lo que puede ver en la pantalla.

    Es probable que también tenga que implementar algún tipo de función para localizar rápidamente el ViewNode específico con el que desea enfocarse usando la búsqueda recursiva en los niños desde este ViewNode raíz.

    FlipAndroid es un fan de Google para Android, Todo sobre Android Phones, Android Wear, Android Dev y Aplicaciones para Android Aplicaciones.