《逆水寒》手游自捏江湖友人玩法即将上线,玩家首次创造 AI 生命体

《逆水寒》手游今日官宣,在即将到来的 2.1.3 版本里,自捏江湖友人玩法即将上线,《逆水寒》手游将是“业界首个可以自捏 AI 智能生命体”的游戏。新版本上线后,玩家可以点开【呼吸-自捏江湖友人】界面,输入姓名,即可一键完成捏人工作。此外,玩家可以为江湖友人打造独一无二的外貌与声音。如果心中已有理想形象,可以选择扫码导入装扮站的现有外观;也可以在征得他人的同意后,通过扫码复制他人分享的门客。玩家还可以为自己创造的江湖友人自设人设,只要在江湖友人的招募界面内,编写人物背景故事和性格,仅需输入文字,就能获得一位特殊人设

《逆水寒》手游今日官宣,在即将到来的 2.1.3 版本里,自捏江湖友人玩法即将上线,《逆水寒》手游将是“业界首个可以自捏 AI 智能生命体”的游戏。

新版本上线后,玩家可以点开【呼吸-自捏江湖友人】界面,输入姓名,即可一键完成捏人工作。

图片

此外,玩家可以为江湖友人打造独一无二的外貌与声音。如果心中已有理想形象,可以选择扫码导入装扮站的现有外观;也可以在征得他人的同意后,通过扫码复制他人分享的门客。

玩家还可以为自己创造的江湖友人自设人设,只要在江湖友人的招募界面内,编写人物背景故事和性格,仅需输入文字,就能获得一位特殊人设的门客。

图片

《逆水寒》手游官方介绍称:

或许您想要一位危险但迷人的男友?面对他人冷酷无情,唯独对你温柔体贴,有求必应?

或许您想创造一位唱跳天才,惊艳大宋?唱歌跳舞演戏样样精通,还永不担心塌房?

或许您想尝试坐拥一方,呼风唤雨,而您的门客们,便是忠心耿耿、助您成就霸业的大功臣,与您共同书写辉煌的历史篇章?

或许您怀揣着成为顶尖导演的梦想,想让您的门客们演绎那些现实中难以实现的拉郎配?

或许您想要一位心口不一,傲娇毒舌,但却一碰就脸红的小师父?

或许您想和他上演一场千里追妻,她逃他追,他们都插翅难飞,却又一见钟情的戏码?

以上这些,大家都可以在逆水寒里实现。

玩家还可以设定江湖友人的人生,丰满他们的故事,影响他们的未来。不过需要注意,玩家目前最多只能同时拥有 5 位专属于自己的江湖好友。

图片

捏完江湖友人后,他们将自动进入玩家的庄园和好友列表,玩家可以点击【好感-江湖友人-门客】查看他们的具体信息。

如果玩家特别喜欢某位江湖好友,也可以将他设为私有门客私有门客将专属于玩家一人,无法与其他玩家私聊;与之相反,如果玩家对某位江湖友人感到不满了,也可以请离门客(AI在线注:删除不可逆)。

玩家下线后,门客会出门自行闯荡江湖,还会将自己的所见所闻都告诉玩家。玩家上线后,可以通过私聊或者个人主页召请门客,邀请门客与玩家一起同游(如果出现无法召请的情况,可以尝试换线或换地图)。

图片

在召请状态时,门客会和玩家一起打本,还能在打本时与玩家聊天互动(通过附近频道,且支持语音)。

在散步的时候遇到想挑战的对手,玩家也可以喊自己的门客主动出击,不用自己动手。

图片

门客与门客间还可以斗舞:

图片

门客也支持自定义装扮,玩家可以给自己的门客换上自己心仪的服装搭配。门客间也会有互动,比如玩家同时捏了两位追求者,那他们彼此之间可能会争风吃醋;如果捏了一对小情侣,或许他们还会在玩家面前打情骂俏。

图片

玩家的行为,将会影响门客的情绪,也会影响着他们彼此之间的关系。

图片

《逆水寒》手游官方坦言,2.1.3 版本上线的自捏江湖友人玩法,还是处在一个较为初始的阶段。且由于自捏江湖友人玩法和开放世界及其他多项玩法系统都有交叉,细节开发工作量巨大,该玩法在初期上线阶段,可能会遇到一些不够成熟或不尽如人意的地方

官方承诺 AI 会不断进化,随着技术的进步,AI 的记忆力、智商也会不断提高。《逆水寒》手游的智能 NPC 会因为玩家的使用、互动、调教而越发智能。

相关资讯

网易胡志鹏:AI + 游戏云端算力供给紧张,端侧大模型成解决方案

MediaTek 天玑开发者大会 2024(MDDC2024)今日在深圳召开,本届 MDDC 大会的主题为“AI 予万物”,众多技术专家探讨了 Al 技术在各个领域的应用和发展,以及 AI 赋予终端侧的更多可能性。在 MDDC 天玑高峰对话环节,网易集团高级副总裁、网易雷火事业群负责人胡志鹏指出,网易早在 2017 年就成立了全球第一个专门服务于游戏的人工智能的实验室“网易伏羲”,早先用于研究强化学习(智能敌人和 NPC),而后生成式 AI 时代来临时提出“AI 游戏”理念,即利用 AIGC 技术大幅提升游戏研

通过奖励随机化发现多智能体游戏中多样性策略行为,清华、UC伯克利等研究者提出全新算法RPG

在这篇论文中,研究者提出了一个在 reward-space 进行探索的新算法 RPG(Reward-Randomized Policy Gradient),并且在存在多个纳什均衡 (Nash Equilibrium, NE) 的挑战性的多智能任务中进行了实验验证,实验结果表明,RPG 的表现显著优于经典的 policy/action-space 探索的算法,并且发现了很多有趣的、人类可以理解的智能体行为策略。除此之外,论文进一步提出了 RPG 算法的扩展:利用 RR 得到的多样性策略池训练一个新的具备自适应能力的策

争取盟友、洞察人心,最新的Meta智能体是个谈判高手

AI 学会了「揣度人心」,这本来是世界上最难的事情之一。