人工智能正在重新定义客户互动,但它的迅速崛起也带来了同样迅速的风险。
从幻觉到合规违规,大规模部署面向客户的人工智能代理的压力与缺乏控制、透明度和测试相冲突。
Cyara的AI Trust套件就是从这种摩擦中诞生的,它在将生成性AI(GenAI)的承诺转化为生产级现实方面正迅速变得至关重要。
起源于风险
AI Trust套件的出现是为了应对一个现在熟悉的痛点:机器人通过误导或不安全的反应偏离了脚本。
臭名昭著的失态,包括虚拟代理对客户咒骂、冒犯,甚至告诉人们违法,都体现了服务领域的风险。
为了解决这个问题,Cyara开发了AI Trust测试套件,这是一种AI测试解决方案,其模块旨在暴露生成式AI的独特风险。最新的模块AI Trust Misuse在开发阶段检测并标记不恰当或品牌外的机器人行为。
与此相辅相成的是AI Trust FactCheck模块,该模块可识别LLM已知会产生的事实不准确和幻觉。
Cyara工程副总裁Christoph Börner在接受《CX Today》采访时解释说:“信任是人工智能驱动的客户互动或体验的主要货币。”
“随着人工智能的不断重塑,联络中心的格局也将重塑。我们知道新的挑战将不断出现,我们将改进应对这些新挑战的方法。”
FactCheck:根据真实数据验证AI响应
FactCheck是该套件功能强大的模块之一,是LLM输出的现实检查。
这个概念很简单但很关键:根据“事实来源”验证人工智能生成的响应,无论是产品知识库、政策库还是技术手册。使用颜色编码的反馈对响应进行审核,以标记事实错误和部分匹配,团队可以使用这些反馈来进行质量保证和改进他们的模型。
FactCheck最常发现的问题涉及伪造的产品规格、过时的政策条款和不正确的程序指导。
弥合概念验证差距
尽管对人工智能驱动的CX的投资激增,但只有一小部分项目跨越鸿沟投入生产。事实上,据《华尔街日报》报道,大约70%的人仍处于试点或测试阶段。
AI Trust套件提供了急需的脚手架,通过在客户之前暴露隐藏的风险来帮助组织建立信心。
关于这一点,Börner补充道:“我们客户面临的最大问题之一是‘下一个问题是什么’。特别是在测试人工智能时,这些语言模型非常庞大,在这里运行测试可能会发现10000个问题。”
AI信任滥用模块帮助联络中心从概念验证中实现信任的飞跃,评估客户互动,以识别仇恨言论、欺诈和联络中心限制的其他话题,使他们能够检测和预防恶意行为或有害内容生成事件。
速度与保证:不再是一种权衡
生成式人工智能需要敏捷性,但这不应该以牺牲准确性或安全性为代价。Cyara将测试视为开发生命周期的一部分,而不是事后的想法。
自动化评估使团队能够快速迭代,同时保持对会话式人工智能性能和合规性的严格治理。正如Börner总结的那样:
“我们建造这些东西不仅仅是因为我们认为这是下一件大事;我们是根据客户面临的挑战来建造的。”
立即咨询