Suhas Uliyar de Oracle: AI, tecnología inmersiva e interfaces de conversación convergen en la experiencia del cliente

Tabla de contenido:

Anonim

Una de mis conferencias favoritas del año es el Oracle Openworld de esta semana, principalmente porque Oracle es una empresa que compite en una variedad de categorías de aplicaciones empresariales. Y tienen aplicaciones para el extremo superior del espacio SMB. Lamentablemente no pude asistir este año, pero tuve la suerte de hablar con Suhas Uliyar, VP de Bots, AI y Estrategia Móvil de Oracle.

Tecnologías de interfaz conversacional

Debido a que la inteligencia artificial, los bots y los dispositivos de voz son tres de los temas más candentes de hoy, me alegro de que Suhas se haya tomado un tiempo para compartir sus pensamientos sobre cómo el compromiso del cliente se está configurando en tiempo real con estas tecnologías. A continuación se muestra una transcripción editada de nuestra conversación. Para escuchar la entrevista completa, haga clic en el reproductor integrado a continuación.

$config[code] not found

* * * * *

Tendencias de la pequeña empresa: Tal vez usted podría darnos un poco de su historia personal.

Suhas Uliyar: He estado en la industria móvil durante los últimos 21 años y cada año ha sido un año excelente e interesante. Los dispositivos móviles continúan cambiando cada año, pero llevo cuatro años trabajando con Oracle. Antes de Oracle, fui vicepresidente principal de SAP para su Internet de las cosas y, antes de eso, trabajé con Motorola Solutions como Arquitecto jefe de soluciones para aplicaciones empresariales.

Así que he estado en esta industria por más de 20 años, y ha sido un momento realmente emocionante en la última década, más. En cuanto a la evolución del móvil y ahora Tech Bots y AI conversacional.

Tendencias de la pequeña empresa: Tuve una conversación hace poco más de un año con el CTO y cofundador de Hubspot. Dijo algo que realmente me fascinó. El pensó Los bots y las interfaces de conversación pueden ser la tecnología más importante en las últimas décadas. Ya que has estado alrededor y has estado involucrado en esto, ¿es tan importante? Es lo que estamos viendo con bots y dispositivos de voz en primer lugar … ¿Tiene ese nivel de importancia en su mente?

Suhas Uliyar: Absolutamente, Brent. Lo describo como la próxima venida del navegador. De hecho, los chatbots y la inteligencia artificial se aplicarán a todas nuestras aplicaciones y al modo en que interactuamos con los datos, lo que los navegadores hicieron con los clientes o las aplicaciones, si puede recordar esa transformación.

Diría que será la próxima, diría, la próxima década se trata de un primer acercamiento conversacional de inteligencia artificial que es una magnitud mucho mayor de lo que vimos desde el enfoque del primer dispositivo móvil.

$config[code] not found

Tendencias de la pequeña empresa: estamos escuchando mucho hablar de AI y con razón. Hay mucho que hacer en el área. Pero, ¿qué impacto tienen las interfaces de conversación en la inteligencia artificial?

Suhas Uliyar: Así que la IA es un tema amplio, Brent. Creo que hay varios tipos de IA, y la forma en que tendemos a categorizar la IA son estos cinco grupos. Primero, se trata de aprendizaje automático, tecnologías de aprendizaje profundo. Una comprensión particular del lenguaje natural es absolutamente crítica y vital para el éxito de los chatbots.

Las otras categorías son igualmente importantes. El siguiente es el diálogo y el contexto. El tercero es servicios de conocimiento. El cuarto es datos y perspicacia. Me falta uno … servicios cognitivos relacionados con el reconocimiento del habla y la imagen, y así sucesivamente.

Ahora, ¿por qué es muy importante la comprensión del lenguaje natural? Lo que realmente está impulsando la adopción de este tremendo impulso que estamos viendo en la interfaz de conversaciones. Es un hecho que podemos conversar en un idioma que es muy natural para nosotros y en el que nos sentimos más cómodos. Y cuando miras cosas como Facebook Messenger o ReachOut, WhatsApp, Telegram, Skype, todas esas diferentes charlas mensajería. El otro aspecto de la comunicación es que esperamos y obtenemos una respuesta instantánea casi en tiempo real del otro lado. Hoy en día, gran parte de eso fue humano a humano, pero los dos aspectos de una conversación natural y de obtener respuestas instantáneas han hecho que el canal sea muy atractivo en comparación con el uso del correo electrónico o cualquier otro canal de comunicación en el que esté "disparar y olvidar" y esperar si La otra persona responde o no.

$config[code] not found

Para que esto pueda escalar para una empresa y poder utilizar los chatbots para permitir realmente esa adopción, necesita algo, un programa de computadora, es decir, un chatbot para manejar esa escala. Y manejar esa escala significa poder procesar ese lenguaje natural que proviene del usuario final y luego poder extraer información relevante de esa comunicación, y luego integrarla en todos los sistemas de registro y poder recuperar la información. Por ejemplo, si es una institución financiera en la que está tratando de verificar el saldo de sus cuentas o de su aerolínea donde se encuentra si hay un asiento de pasillo disponible para que pueda reservar, etc., etc.

Para facilitar esto, la comprensión del lenguaje natural, el aprendizaje profundo y los algoritmos de aprendizaje automático son muy críticos, ya sea que estén basados ​​en redes neuronales o en el espectro. Entonces, sin la inteligencia artificial y, específicamente, la comprensión del lenguaje natural, los chatbots, en mi opinión, ni siquiera despegaban. Ese es el número uno.

El segundo aspecto es lo que mencioné como diálogo y contexto. Cuál es la capacidad de adivinar una conversación con el usuario final. Desea asegurarse de que el bot no sea humano, pero, al mismo tiempo, desea tener una conversación decente con un usuario final. Y todos sabemos, como seres humanos, no pensamos de manera muy lineal. Tendemos a irnos en diferentes tangentes y en base a ciertas preguntas.

Por ejemplo, digamos que estaba buscando transferir dinero de una cuenta a otra o si quiero pagar, enviar dinero a alguien. Yo digo: "Envía dinero a mamá", por ejemplo. Y el bot responde con: "Sí, eso es genial. ¿Qué cuenta quieres que transfiera el dinero? "Y yo digo," cuenta corriente ". Y dice:" ¿Cuánto quieres enviar a mamá? "Y de repente me doy cuenta de que no estoy seguro de tener suficiente dinero en mi cuenta corriente. cuenta. Solo le voy a hacer una pregunta al bot que dice: "¿Cuál es mi saldo?". Y no quiero dar otro contexto que decir "¿Cuál es mi saldo?" Y el bot debe ser inteligente, y el diseñador del contexto conversacional debe ser lo suficientemente inteligente como para reconocer que está cambiando de contexto ahora, y Recorriendo un camino diferente preguntando sobre saldos, tal vez haya preguntas de seguimiento, cuáles son las transacciones, cuáles son los depósitos o cheques que se han cobrado. Y luego puede volver a la transacción original que tuvo. Entonces esto es lo que quiero decir por ser no lineal.

Y el diálogo y el contexto también, desde una perspectiva de aprendizaje automático, deben ser lo suficientemente inteligentes para entenderlo y trabajar en conjunto con su comprensión del lenguaje natural para poder procesarlo.

Un comentario final que haré al respecto, mencioné la palabra "extracción". Cuando yo, como usuario final, obtengo información como cuáles fueron mis últimos cinco depósitos en mi cuenta corriente, el aprendizaje de la máquina debería ser lo suficientemente inteligente como para entender los "últimos cinco", y no necesito citar todo eso. El algoritmo de aprendizaje automático es lo suficientemente inteligente como para extraer toda esa información, extraer esa información como mi cuenta corriente, sabe quién soy, qué es lo que estoy pidiendo y construir la capa de integración para obtener toda la información del back-end.

Entonces, larga respuesta, pero la inteligencia artificial es absolutamente crítica para el éxito de los chatbots.

Tendencias de la pequeña empresa: Genial, y ha habido mucho buceo y las empresas realmente están iniciando sus interfaces de conversación, mirando los chatbots y viendo cómo puede integrarse en cosas como Facebook Messenger porque es donde están las personas y donde se llevan a cabo muchas conversaciones..

Pero, ¿dónde ves que comienzan a llegar los dispositivos de voz por primera vez? ¿Es esto algo que realmente está demasiado lejos para que muchas empresas se preocupen o viene más rápido de lo que algunas personas creen?

Suhas Uliyar: Diría que está llegando más rápido … Lo ves por Alexa, pero no estoy seguro de haber elegido Google Home ahora tiene la capacidad de tener autenticación de múltiples usuarios en la voz. Entonces, por ejemplo, si mi hija dice "Llamar a mamá", llamará a mi esposa, en lugar de llamar a mi madre. Y si tuviera que decir "Llamar a mamá", diría: "No tienes madre".

Así que creo que la sofisticación ya está ahí, y se le están agregando muchas características de seguridad empresarial, por lo que diría que la voz está llegando rápidamente.

$config[code] not found

Pero antes de entrar en esto, lo que yo llamo, VPA como Alexa o Amazon Dot Echo, Google Home, Apple Pod. Brent, voice-first ha estado allí a través de Siri, y Cortana y Google Voice. Lo que diría es que, particularmente en el mundo empresarial, especialmente en el CRM y el servicio, etc., muchos clientes desean poder extender su aplicación móvil existente o su interfaz web existente para incluir voz en ella.

Por ejemplo, si está utilizando Internet Explorer o Chrome o su navegador favorito, para poder extender eso en su MacBook o en sus dispositivos Surface y poder usar Siri o Cortana para interactuar con el chatbot. No creo que tengas que esperar hasta que todos se unan a Amazon Dot, Echo, Google Home. Lo hemos estado viendo durante el último año y donde los dispositivos móviles ya han estado interactuando con Siri, Cortana, Google Voice, etc. Y eso ha sido una parte de nuestra adopción que ha ocurrido durante el último año. Donde hay dispositivos móviles que tenían aplicaciones móviles, ahora tienen extensiones para aplicaciones de chat dentro de la aplicación móvil o dentro del propio navegador. Dentro de eso mismo, podrías usar esos canales de voz.

Así que ya se están adoptando, y estamos viendo una adopción muy natural de estos canales de voz porque a las personas, nuevamente, les gusta conversar y usar la voz. Yo diría que lo único que inhibe el crecimiento o la adopción de dispositivos como Dot Echo, Google Home en la empresa es su capa de seguridad, que creo que se está solucionando muy rápidamente. Hoy puede usar Alexa, por ejemplo, para un banco local o la integración con su banco, que es probablemente la cosa más segura de la que todos están preocupados. Entonces, veo esta progresión muy rápido y muy rápido veremos este nivel.

Ahora, lo único que impide que se adopte la voz, en general, es la privacidad, no necesariamente para hacer la autenticación, la autorización, sino lo que las personas pueden escuchar. Entonces, ciertamente, no vas a caminar en tu casa con un grupo de invitados y pregúntale a tu bot, Alexa o Google Home, cuál es tu saldo. Quieres hacerlo en privado. El problema con eso es que si estás en un entorno público, sin importar dónde te encuentres, la mayoría de la gente podría escuchar la respuesta en voz alta. Así que creo que todo se reduce al caso de uso de los entornos en los que se encuentra.

Es por eso que una de las áreas en las que nos hemos centrado en gran medida es la recopilación de información sobre la adopción de estos canales. No es tan simple como decir: "La gente no quiere usar voz frente a chat contra eso". También es capaz de comprender cuáles son los casos de uso específicos en los que ciertos canales son mejores que los otros. ¿Hay ciertos entornos, hay ciertos momentos en que estos canales se usan o adoptan más que los otros canales?

Tendencias de la pequeña empresa: Una de las personas de Amazon dijo: "Ahora es el momento de comenzar a diseñar experiencias para el oído". ¿Su base de clientes necesita transformarse en la forma en que tradicionalmente hacen las cosas para aprovechar al máximo las experiencias que los clientes están comenzando a ofrecer? esperar con estas interfaces? ¿Cuáles son algunos de los mayores desafíos que enfrentan las empresas cuando buscan implementar estas estrategias?

Suhas Uliyar: Brent, totalmente. Hace aproximadamente una década, las agencias digitales se estaban transformando para crear experiencias de aplicaciones móviles encantadoras. Si me hiciera esta pregunta hace 14 años, le habría dicho: "Sí, las empresas realmente necesitan buscar diseñadores, UI / UX para sus aplicaciones móviles". Y ahora estamos en el mismo escenario una década después. para el diseñador conversacional. Y estamos empezando a ver a ciertas compañías atraer gente o comenzar con capacidades de investigación. En Oracle, contamos con un equipo de diseñadores de conversación que ayuda a nuestros clientes a comprender realmente cómo configurar esto de manera que proporcione una experiencia encantadora al usuario final.

Así que los riesgos en realidad están exactamente en ese modo, que es tener el diseño correcto para tener las experiencias correctas. Y también entender el canal. Como ejemplo, si está diseñando para Facebook Messenger, un canal más visual es un poco más fácil de manejar, de modo que cuando envía información de vuelta y envía fotos o videos, es más fácil consumirlos en Messenger, Line, Skype, etc. Pero no vas a ver eso en Alexa o Google Home u otros tipos de canales. Y, por lo tanto, debe comprender realmente en qué canales están llegando sus clientes y tener el diseño adecuado.

Tendencias de la pequeña empresa: Si nos fijamos en uno o dos años a partir de ahora, ¿dónde estaremos con la interfaz de conversación? ¿Dónde vamos a estar con las interfaces de voz, crees?

Suhas Uliyar: Creo que vamos a ver una convergencia de tecnologías inmersivas e interfaces de conversación.Entonces, cosas como realidad aumentada, realidad virtual … Uno de los desafíos de la realidad virtual actual es que el tipo de dispositivos restringe lo que puede y no puede hacer. Pero veo que se abre. Google Glasses fue un experimento que mostró que podría funcionar, necesitaba algo. Pero, imagina que un día en el que no necesariamente debas mirar las variables de tu dispositivo móvil en sí mismas son guiadas por la conversación. Así que ahora, usted podría ser muy, en un modo muy natural, ser capaz de mirar el mundo de manera tridimensional y ser capaz de discernir la información que necesita mediante interfaces de conversación.

$config[code] not found

Hay mucho más allá de eso. Sólo en el mundo de la IA, por ejemplo, el reconocimiento de imágenes, el análisis de sentimientos, el análisis de preguntas y respuestas. Tenemos gráficos de conocimientos, por lo que puedo … CRM, por ejemplo, imagina los datos que el vendedor le pide a la base de datos de CRM: "Oye, es un nuevo trimestre. Dígame las 10 oportunidades de ventas que me ayudan a hacer mi cuota ". Y el back-end, el bot y el motor de AI no solo toman las oportunidades que tienen, sino que también pueden combinar eso con información de otras fuentes. Ya sea LinkedIn o Reuters u otras cosas que calculen la propensión del cliente a comprar su producto y se lo destaque según la pregunta que hizo. Y esa información podría ser enviada a usted en cualquier forma que desee. Los dispositivos podrían ser como, por ejemplo, HoloLens en los que Microsoft está trabajando. Así que diría que estamos entrando en los próximos años en los que los dispositivos tomarán una forma muy interesante a través de la realidad virtual en 3D, pero la interacción con eso se basará en la voz.

$config[code] not found

Esto es parte de la serie Entrevista uno a uno con líderes de opinión. La transcripción ha sido editada para su publicación. Si se trata de una entrevista de audio o video, haga clic en el reproductor integrado arriba o suscríbase a través de iTunes o Stitcher.