微软翻译迎来Z-code专家混合模型更新 显著增强翻译服务质量
微软刚刚宣布了自家翻译服务的一项更新,为用户引入了新的机器学习技术,有望显著改善多语种之间的翻译质量...虽然“专家组合”并不是一套新颖的技术,但它在翻译环境中还是相当实用...Z-code MoE 模型示例:从英语翻译成法语时,可为每个输入动态选择其参数的子集...各个模型会根据自身特性来预测、并决定将哪个任务委派给哪个专家,从而极大地简化了开发思路...此外微软最近还开始使用 Z-code 模型来改进其 AI 系统的其它功能,包括实体识别、文本摘要、自定义文本分类、以及关键词提取,但将其用到自家翻译服务上还是首次......