麻省理工科技评论报道称,苹果研究人员使用人工智能来识别用户与 iPhone 等设备的对话,识别技术需求,并使用“Siri”等触发短语,据说他们正在研究尖端技术。旨在消除的技术。
这项研究已上传至 Arxiv,但尚未经过同行评审。 研究人员使用智能手机捕获的音频数据和背景噪音的声学信息训练了一个大规模语言模型。 该模型的目标是识别用户可能需要设备支持的情况和模式。
论文指出,该模型部分基于 OpenAI 的 GPT-2。 这种轻量级结构使其能够在智能手机等设备上高效运行。 论文还描述了超过 129 小时的数据和用于训练模型的附加文本数据,但没有表明训练集记录的来源。 根据他们的 LinkedIn 个人资料,七位作者中有六位隶属于苹果公司,其中三人在苹果的 Siri 团队工作。
论文的结论很有启发性:这种混合模型可以比纯音频或文本模型做出更准确的预测,并且其性能随着模型规模的扩大而提高。 将进行进一步的改进。 这意味着未来的 Siri 可能会更准确地理解你的意图,不再需要由固定的唤醒词触发。
目前,Siri 的工作方式是保留少量音频,准备开始录制或响应用户提示,直到听到“嘿,Siri”之类的触发短语。
然而,这项创新也引发了一些关于隐私和数据安全的担忧。 斯坦福大学以人为中心的人工智能研究所的隐私和数据政策研究员 Jen King 表示,删除“嘿,Siri”等触发短语可能会让人们怀疑他们的设备是否“始终在监听”。进一步关注的可能性。
评论前必须登录!
注册