时间:2022-04-20|浏览:7209
用戶喜愛的交易所
已有账号登陆后会弹出下载
目前,人工智能语音助手的表现非常差。在与人沟通的过程中,他们很容易进入傻瓜模式,经常回答问题,更不用说与人进行智能和个性化的互动了。然而,在元宇宙时代,与人工智能语音助手的有效互动可能是现实。为了改变人工语言助手的市场状况,Meta AI宣布了“CAIRaoke计划。他们开发了一种支持个性化情境对话的端到端神经模型。值得注意的是,Meta AI 已经在他们的产品 Portal 在 中使用 CAIRaoke 计划中生产的模型旨在将其与虚拟和增强现实系统相结合,并在未来与人工智能助手进行个性化和多模式交互。
人工智能助手看起来很简单,但它的功能更复杂。它的一般结构通常需要四组输入和输出,管道的每层都需要一组自然语言理解(NLU)、跟踪对话状态(DST)、对话策略管理(DP)和自然语言生成(NLG)。这些不同的人工智能系统必须连接在一起,这使得设备在正常情况下难以处理奇怪的任务,并在很大程度上依赖于密集注释的数据集。不仅如此,它还需要标准定义合层的输入和输出。例如,普通的正常通信 AI 系统需要定义不同意图和实体的表征NLU解决潜在的安全语言时,解决潜在的安全和隐私挑战至关重要。
现在,很多时候 NLG 组件的内容是标准化和现成的。因此,内容制作人可以确保AI助手不会反感用户。然而,众所周知,通过直接将助手连接到用户,存在错误或冒犯性交互的风险。与传统的人工智能助手不同, Meta AI 神经网络模型中几乎没有事先设置的会话流。使用此模型只需要一组训练数据。
在标准化的制造过程中,人工智能助手需要建立和修复每个模块,然后才能可靠地训练下一个模块。换句话说,如果 DST 和 NLU 如果以天为周期的时间变化频繁,就没有办法对 DP 进行有效的培训可能会损个单元很可能会损坏其他单元,从而触发所有模块的重新培训。这种相互依赖的特性减缓了设备的整体进度。Meta AI 的 “CAIRaok通过 计划,向新领域新领域扩展所需的工作步骤Meta AI 端到端技术可以消除对上游模块的依赖,提高开发和培训速度,使人们能够以更少的功耗和数据微调其他模型。