《来自华盛顿大学和NVIDIA的研究人员提出的人形智能代理:一种用于生成型代理的人类模拟的人工智能平台》
《用于生成型代理的人类模拟人工智能平台:来自华盛顿大学和NVIDIA的研究人员提出的人形智能代理》
类人生成代理通常用于聊天机器人和虚拟助手,以提供自然而引人入胜的用户互动。它们能够理解和回答用户的查询,参与对话,并执行诸如回答问题和提供建议等任务。这些代理通常使用自然语言处理(NLP)技术和机器学习模型(如GPT-3)构建,以产生连贯且语境相关的回应。它们可以在视频游戏或虚拟世界中创建互动式故事、对话和角色,增强游戏体验。
类人生成代理可以帮助作家和创意人员进行头脑风暴、生成故事情节,甚至创作诗歌或音乐。然而,这个过程与人类的思维方式有所不同。人类往往倾向于根据物理环境的变化不断调整他们的计划。华盛顿大学和香港大学的研究人员提出了引入不同元素来指导生成代理更像人类行为的人形机器人。
受人类心理学的启发,研究人员提出了一个双系统机制,系统1负责处理思考的直观和轻松过程,而系统2负责处理逻辑思考过程。为了影响这些代理的行为,他们引入了基本需求、情感以及与其他代理之间关系的亲密度等方面。
设计的代理需要与他人互动,如果失败,他们将会接收到负反馈,包括孤独、疾病和疲倦。
社交大脑假说提出我们认知能力的很大一部分已经演化成跟踪社交关系质量。人们经常与他人进行互动以适应变化。为了模仿这种行为,他们赋予人形机器人调整他们的对话方式,根据他们之间的亲密程度。他们的代理使用Unity WebGL游戏接口对其进行可视化,并使用交互式分析仪表板随时间呈现激发代理的状态。
他们使用Unity WebGL游戏引擎创建了一个沙盒HTML游戏环境,以可视化其世界中的人形机器人。用户可以从三个世界中选择一个,以查看代理在每个步骤中的状态和位置。他们的游戏界面从模拟世界中提取JSON结构文件并将其转换为动画。他们构建了Plotly Dash来可视化各种人形机器人随时间的状态。
目前,他们的系统仅支持两个代理之间的对话,旨在帮助多方对话。由于代理与并非完全反映现实世界中人类行为的模拟进行交互,用户必须被告知他们正在使用模拟。尽管具有这些能力,但在使用类人生成代理时,考虑到道德和隐私问题是至关重要的,例如传播错误信息的潜力、训练数据的偏见以及负责任的使用和监控。