Imagine que você deseja acessar sua conta bancária, mas a simples menção do nome da instituição faz com que sua tentativa seja bloqueada. Parece um pesadelo, mas foi exatamente o que aconteceu com o comentarista de fintech David Birch quando ele perguntou a um chatbot da Virgin Money como juntar duas contas que ele tinha no banco. O que parecia ser exatamente o tipo de solicitação para o qual os chatbots de IA são treinados provocou uma resposta frustrante, embora humorística: “Por favor, não use palavras assim. Não poderei continuar nossa conversa se você usar esse tipo de linguagem.” Quais palavras? Claro, “Virgin”!
Os erros de chatbot podem variar de embaraçosos a custosos, como não poder contar aos usuários do WhatsApp o nome do atual presidente dos Estados Unidos ou até mesmo vender um carro por $1. E, embora não tenhamos conhecimento de danos duradouros — para o cliente ou para a marca — decorrentes deste incidente, ele destaca uma questão importante e sensível sobre como definir e estabelecer barreiras de segurança para IA voltada ao atendimento ao cliente.
E certamente não estamos aqui para criticar; tais inconsistências e ambiguidades são inevitáveis em qualquer tecnologia pioneira nas fases ‘iniciais’. Como uma empresa genuinamente focada em IA, com muitos anos de experiência na criação de chatbots para diversos setores de atendimento ao cliente, podemos compartilhar algumas dicas de nossa própria experiência, especialmente em relação às “barreiras de segurança”.
Barreiras de segurança são controles que ajudam os chatbots movidos por IA a fornecer respostas seguras, precisas e imparciais. Essas barreiras previnem problemas como vazamentos de dados, violações éticas e desinformação ao controlar as fontes específicas de domínio que o chatbot de IA pode acessar.
As empresas devem ajustar seus Modelos de Linguagem de Grande Escala (LLMs) com dados específicos do domínio que se relacionam diretamente com seu setor, segmento ou caso de uso. Isso ajuda a minimizar erros, vieses e respostas inadequadas, limitando as fontes das quais a IA obtém informações. A garantia de qualidade regular e a engenharia de prompts são cruciais para manter a precisão do chatbot, alinhá-lo aos objetivos da sua empresa e clientes, além de garantir a devida sensibilidade cultural.
No entanto, mesmo com barreiras robustas, será necessário contar com especialistas para monitorar continuamente o desempenho dos modelos de IA. A garantia de qualidade conduzida por humanos é essencial para identificar lacunas nas respostas da IA e mitigar problemas como alucinações (respostas falsas ou inventadas). Ao realizar testes regulares liderados por humanos, as empresas podem garantir que seus chatbots de IA permaneçam eficazes e seguros.
Você também pode implementar limites flexíveis que permitam controle mais detalhado com base no caso de uso do chatbot. Por exemplo, tópicos críticos, como compras e transações, podem exigir limites mais rígidos, enquanto áreas menos sensíveis podem ter mais flexibilidade. Incorporar o feedback dos clientes no controle de qualidade também pode contribuir para uma melhoria contínua de experiência. É igualmente importante escolher o LLM adequado para as necessidades do seu negócio, pois diferentes modelos possuem pontos fortes e fracos quando se trata de gerenciamento de limites de segurança.
Outro desafio é garantir que todos os sistemas de IA voltados para o cliente tenham limites completos e atualizados. Uma possível explicação para o incidente da Virgin é que a empresa estava utilizando vários chatbots (ou versões), nem todos totalmente atualizados com as limitações mais recentes. Portanto, garantir (e verificar) a atualização abrangente dos limites em todo o ambiente de chatbots pode mitigar esse risco.
As companhias aéreas foram as primeiras a descobrir isso, mas podemos esperar que, a partir de agora, as empresas cujos chatbots enganarem os clientes sejam responsabilizadas pelos danos causados. E os clientes concordam, com quase três quartos (71%) acreditando que as empresas devem ser responsabilizadas caso informações incorretas sejam fornecidas por um chatbot.
A lealdade do cliente é outro motivo para verificar suas barreiras de segurança. Estudos recentes mostraram que pelo menos 30% e até 70% dos clientes podem ser afastados após uma única experiência negativa com o chatbot de IA de uma empresa. À medida que a implementação de chatbots movidos por IA continua a acelerar, sem dúvida veremos mais erros relacionados a chatbots ganhando manchetes. No entanto, com essas dicas em mente, esperamos que ao menos você consiga garantir que não será sua empresa a se destacar pelos motivos errados!
Gupshup
Criada para a era da conversação, a Gupshup facilita para as empresas a criação de experiências personalizadas, automatizadas e sem atritos em todo o ciclo de vida do cliente. O Gupshup Conversation Cloud potencializa as interações bidirecionais com agentes de IA treinados no setor para que as empresas possam entrar em operação mais rapidamente em todos os principais canais, incluindo WhatsApp, RCS, Instagram, Web, aplicativo e muito mais. Com a confiança de mais de 45 mil marcas em todo o mundo, a Gupshup trabalha com muitas das principais empresas de todos os setores, incluindo comércio eletrônico, varejo, pagamentos, fintech, pagamentos, mídia, viagens, automotivo e bancário para oferecer experiências de conversação transformadoras que aceleram o crescimento e otimizam os custos.