文生文,文生图,图生文,文生视频等基于大模型的产品如雨后春笋般涌现,成为业界瞩目的焦点。AI大模型在实际场景中的应用和商业化进程推进的十分迅速。在众多应用领域中,电商智能客服行业被广泛认为是一个理想的AIGC应用场景。
文章导航
传统电商智能客服解决方案的局限性
回顾一下,智能问答技术经历了四个阶段的演进:
第一阶段:基于关键词匹配的「检索式机器人」;
第二阶段:运用一定模板,支持多个词匹配,并具有模糊查询能力;
第三阶段:在关键词匹配的基础上引入搜索技术,根据文本相关性进行排序;
第四阶段:以神经网络为基础,用深度学习理解用户意图。
其中第四阶段的技术突破,国内外跑出了多家NLP方向的明星企业。然而在面对用户真实的接待场景中,依然面临多个挑战,机器人可能出现“智障”的情况。如:
- 上下文理解
传统智能客服缺乏对用户上下文的深度理解能力,系统可能难以跟踪并理解用户意图的变化,导致回答与用户的实际需求不符。系统使用地是预设的答案进行回答,通常无法根据用户的历史交互和偏好进行个性化的对话体验。
- 多模态信息融合
传统智能客服系统通常只处理文本信息,对于图像等其他模态的理解能力有限。在需要结合多种模态信息进行决策时,力有不逮。
- 多信息系统融合
人工客服在解决用户问题时,一般需要在多个系统进行信息查询和操作。传统智能客服系统需要系统对接,来代码集成外部API来实现类人工客服的操作。
这个时候客服或者系统需要看消费者当前的套餐,还要看消费者每月的流量超用情况。
大模型带来的机遇
宏观上看,大模型开源日新月异
2023-12-01 阿里 通义千文 1.8B/7B/14B/72B
2023-01-31 讯飞 iFlytekSpark-13B
2024-02-01 艾伦人工智能研究所 OLMo 7B https://new.qq.com/rain/a/20240203A03HTW00
2024-02-21 谷歌 Gemma 2B/7B
2024-03-17 xAi Grok 314B
2024-03-27 Databricks 132B MoE
2024-03-29 阿里 通义千问 Qwen1.5-MoE-A2.7B ~7B
2024-04-02 元象 XVERSE-MoE-A4.2B
2024-04-07 阿里 通义千问 Qwen1.5-32B ~72B
2024-04-11 Mistral AI 8×22B MoE
- 训练成本下降
96×H100的GPU集群,花费2周时间、约8万美元搞定JetMoE-8B
- 推理成本下降
Qwen1.5-MoE-A2.7B的训练成本比Qwen1.5-7B降低了75%,而推理速度则提升了1.74倍。
Qwen1.5-MoE: Matching 7B Model Performance with 1/3 Activated Parameters
从应用上看
- 上下文能准确应答
如图中消费者问“尺寸”之后,又补充了“橱柜”,需要将两个问句结合起来理解,才能准确地回复。
- 图片理解能力日新月异
- 工具调用能实现自主,语义化的API
写代码,执行代码
大模型生成Plan,查询并给出结果
如 抽烟机安装场景,师傅能不能上门测量
大模型带来的新的挑战
- 基础模型升级很快,较之以前的模型有代际碾压优势,基础模型的训练投资有极大的不确定性。
- 大模型的幻觉问题即使在RAG框架下,也无法彻底根治,而消费者咨询问题时,一没有纠正回答偏差的义务,二也缺乏专业知识判定答案的置信度。
- 大模型在上下文应答中,被投毒,回答了不应该回答的,责任如何界定的。如在回答换货是否包邮时,根据店铺政策不包邮,消费者诱导大模型回答能包邮。
如果您想了解更多大模型在智能客服中的应用的相关信息,可以点击这里查看更多相关信息。
咨询方案 获取更多方案详情