La experiencia del usuario es llevada a un nuevo nivel. Los asistentes virtuales inteligentes creados con OpenAI incorporan la inteligencia artificial (IA) generativa y cambian las reglas del juego. Permiten interacciones en lenguaje natural y siguen una conversación fluida manteniendo el contexto.
Y, lo más importante: son muy eficaces para resolver tareas. Por la propia naturaleza de estos modelos, son capaces de interpretar lenguaje natural y responder preguntas específicas sobre información almacenada en documentos, audios e imágenes. Además, han sido entrenados con un enorme volúmen de datos de distinta índole, por lo que cubren una amplia gama de temas. A pesar de su tamaño (y también gracias a eso), tienen muy buena performance a la hora de proporcionar respuestas precisas, optimizando la búsqueda y extracción de información relevante.
Pero además, existen mecanismos para complementar el entrenamiento de estos asistentes con los datos propios de la empresa. Así, se puede extender el conocimiento que tienen los LLM (siglas en inglés por “modelos de lenguaje grandes”). De esta manera, se aprovecha el poder de los LLM y se lo combina con las fuentes de datos propios. Esto permite resolver tareas y cubrir necesidades del negocio específicas de la organización.

Asistentes creados con Open AI: casos de uso
Los casos de uso alrededor de los asistentes virtuales inteligentes son numerosos y van mucho más allá de la «atención al cliente». Pueden generar contenido original y personalizado o procesar contenido muy extenso y técnico para que sea comprensible para operadores o colaboradores con menor conocimiento o experiencia.
En el ámbito de la educación permiten a los alumnos realizar consultas u obtener resúmenes sobre clases grabadas. Los profesores, mientras tanto, pueden subir informes de estudiantes o revisar un historial académico.
Los profesionales de la salud aceleran la lectura de estudios y análisis clínicos para agilizar el análisis de la historia clínica del paciente. Y los expertos en seguridad tienen la opción de detectar elementos potencialmente peligrosos. Esto, a partir de videos o imágenes en la vía pública o dentro de empresas o instituciones.
En banca y fintech se utilizan para el procesamiento de comprobantes de pago o facturas a través de imágenes, con extracción de la información relevante. También para el análisis de imágenes o grabaciones de audio para detectar posibles fraudes, como falsificación de documentos o intentos de suplantación de identidad.
Y en contact centers pueden ser utilizados para extraer información valiosa sobre la atención, la emoción del cliente o posibles problemas o insatisfacción. Estos son apenas algunos ejemplos. Se trata de un campo amplio que merece ser explorado.
Paso a paso para crear un asistente con OpenAI
Como en cualquier iniciativa, lo primero a definir es el desafío a resolver, sea una necesidad del negocio, un dolor (pain point) o una oportunidad de mejora en la eficiencia operativa. Luego, habrá que preguntarse si existen dentro de la empresa procesos manuales y herramientas que ya atienden ese problema.
También se deben buscar en la organización datos o ejemplos que puedan utilizarse para extender los conocimientos del LLM. Recordemos que la tecnología y los modelos están disponibles para todas las empresas, incluídas las competidoras. Por eso es importante enfocarnos en cómo utilizar nuestros datos junto con los LLM para obtener resultados que nos permitan resolver la tarea o deleitar a nuestros clientes.
Como en cualquier desarrollo de soluciones basadas en AI y datos, se recomienda hacer una evaluación de las opciones de modelos para identificar cuál se adecúa mejor a la necesidad. Existe una amplia gama de modelos de distintos tamaños y, por ende, con diferentes performances y costos. Se pueden usar modelos más pequeños y más baratos para realizar tareas sencillas, mientras que para tareas más complejas (como puede ser orquestar una conversación) se puede utilizar un modelo más grande y más caro.
Si los resultados obtenidos con el modelo elegido son buenos, es momento de escalar la solución, con foco en las funcionalidades prioritarias o que formen un MVP (producto mínimo viable).
Se deberán considerar los mecanismos de control y cómo el usuario da feedback de las tareas que el asistente resuelve. Esta es una práctica clave dentro de MLOps (acrónimo por machine learning y operaciones) pero enfocado a modelos LLM (también conocida como LLMOps) para monitorear, salvaguardar y ajustar el comportamiento del modelo en un estadio productivo. Es clave en este tipo de soluciones asegurar que las respuestas de los modelos sean seguras y cumplan la tarea que les fue encomendada.
Desafíos durante el desarrollo de un asistente con OpenAI
Lo primero: estos modelos no son determinísticos. Ejecutar más de una acción con el modelo con un mismo estímulo de entrada no siempre da exactamente el mismo resultado.
Esto conlleva un cambio de paradigma. El abordaje del desarrollo de soluciones que utilizan estas tecnologías debe estar en cómo actuar ante fallos del modelo o respuestas que no sean acordes.
Para esto, las soluciones deben tener una mirada human-in-the-loop, esto es, cómo hacemos para que el humano pueda controlar, validar, adaptar, y revisar aquellas respuestas que el modelo genera que podemos considerar inseguras o que no cumplen el cometido.
Otro aspecto importante es la poca madurez en términos de plataforma de datos o la propia escasez de datos cuando queremos extender el conocimiento del LLM. En este caso, hay una recomendación a la hora de adoptar, escalar y operar este tipo de soluciones. Enfocarse en desarrollar capacidades, herramientas, políticas y procesos que aumenten la madurez en el gobierno y explotación de datos. Asimismo, puede ser necesario algún tipo de trabajo de ingeniería o recolección de datos.
Por último, cuando existen incertidumbres respecto de si la tecnología puede efectivamente resolver el problema, se recomienda un enfoque iterativo e incremental, para reducir el riesgo técnico. Muchas veces se logra mezclando pilotos y análisis exploratorios de datos.
Beneficios de los asistentes creados con OpenAI
La capacidad de resolver tareas simples que conllevan y consumen tiempo de manera automatizada o asistida genera eficiencias y aumenta las capacidades de las personas y equipos. El tiempo que se dedicaba a estas tareas, ahora se utiliza para actividades de mayor valor agregado.
De cara a los clientes finales, reemplazar bots sin inteligencia o con baja performance por asistentes basados en LLMs, con mayor capacidad de entendimiento, contexto, memoria y respuestas coherentes, puede aumentar el nivel de satisfacción, lograr un mayor NPS y a su vez reducir los costos de atención.
Por último, los asistentes basados en LLMs son escalables, por lo que brindan la posibilidad de acompañar el crecimiento de la empresa
Conclusiones
El impacto de la IA generativa en las organizaciones es muy grande. Capitalizar esta oportunidad es, para las empresas, obtener un pasaporte hacia el futuro.
El acompañamiento de un socio tecnológico como Nubiral puede ser clave para hacer que los asistentes virtuales nos entreguen el máximo valor agregado y el mayor impacto posible en el negocio. Y se conviertan, así, en los copilotos de nuestro crecimiento.
¿Te interesa incorporar asistentes inteligentes para llevar tu negocio a un nuevo nivel? ¡Agenda tu reunión!
Te puede interesar:
Paper • Obtener valor de la IA generativa
Blog • IA generativa: alcances en el desarrollo de código
Ebook • Transforma tu negocio con el poder de Azure OpenAI Service