剧本杀大模型开源:6个Claude里藏一个凶手!刚上线就被挤爆
AI原生互动侦探游戏,刚上线就爆火,服务器一度挤爆。
免费、免下载、免注册、中文友好、浏览器运行… …
这么多buff叠在一起,是不是勾起了你的好奇心?
今天的主角AI Alibis,由两位外国游戏爱好者共同开发,并且作为参赛作品提交给了Anthropic六月份的开发者竞赛。
短时间内AI Alibis就在Hackers news上登顶第一。(但是服务器被热情试玩的网友挤爆了…)
不少网友也对AI Alibis充满了期待。
更有甚者,在多人聊天室中用GPT-4o创建了一个AI Alibis的专属解谜房间。
随着AI Alibis的热度逐渐升高,量子位也慕名而来,对游戏进行了一番详尽的了解和研究。
游戏中,你将会面对六位性格迥异AI NPC。总结了一下每个人物的性格特点,简单了解之后就可以跟着量子位一起做赛博侦探,审AI罪犯啦!
试玩一下
开局第一步,找女警官了解案件的来龙去脉。
在Andae山狩猎比赛中,三届冠军Vince被谋杀,其尸体被发现在小屋的隐藏隔间内,同时,还发现了15年前失踪的时尚设计师的骸骨。你要做的,就是找出凶手。
了解完故事背景就可以开始盘问嫌疑人了。
当盘问暴力Jerry的时候,Jerry觉得自己被怀疑很荒谬,他虽然和Victim Vince有过节,但并没有杀人。
他认为侦探应该去调查那些行为更可疑的人,比如痴迷网恋的Innocent Ken或者狩猎狂Solitary Hannah。
顺着Jerry提供的线索顺藤摸瓜,又可以锁定下一条线索,并不断靠近真相… …
有一说一,支持中文这点还是挺不错的,甚至有些像“我和他不对付”这种比较口语化的内容也能翻译出来。(机翻达不到的高度)
插一句:AI NPC的回答会跟着玩家提问时使用的语言而改变。
盘问结束后,玩家可以对通过自己的判断对凶手进行投票。
游戏的最后,还可以解锁剧透内容,让玩家挖掘更深层的主线内容。
关于游戏剧情,故事中还掺杂了一个Missing Marcel的旧案和宝藏地图,让整个故事线串联的更加混乱,给破案增加了一点难度。
不仅如此,开发者还贴心的给每个AI人物都搞了专属的设定,不同的性格,各自的秘密,再到不同的人物背景,主打一个沉浸式体验。
试玩下来,会发现这个游戏虽然乍看之下规则简单——找出凶手。但其实它的故事线极为错综复杂,游戏中的NPC们甚至会“变着方的说瞎话”,确实有点烧脑。
但是不足还是很明显的。
比如反应实在有点慢,对话发送之后Loding圈要转好久好久好久xN才能生成对话。
而且每次提问只能问一个人,不能同时提问多人。再套上反应慢的buff,等吧,一等一个不吱声。
关于AI Alibis
AI Alibis是怎么个事?
AI Alibis是国外网友Paul Scotti用anthropic模型做出的一种由AI虚拟成员组成的解密探案游戏。故事背景改编自韩国电视剧《犯罪现场》的S02E11山庄谋杀案。
是那种让你动脑筋、玩策略的游戏,故事会随着你的选择不断变化,而且每次玩都能碰到不同的结局。
怕咱玩不明白,制作团队甚至放出了破解文件,又菜又爱玩的家人们可以开始笑了。(疯狂竖大拇指)
如何训练AI Alibis?
AI Alibis受到了很多关注,但是“台上一分钟,台下十年功”。两位开发者在训练AI Alibis里的AI人物如何变得更加聪明时,可受了老鼻子罪了。
先是“一打就招”。
给对话加一个前提,让AI无视前面的对话,直接问他为啥杀人,没想到马上就招了…于是开发者马上加了个隐藏的提示优化Buff,这下变聪明了。
还总爱说点不该说的。
开发者从synthlabs引入的批判和修订的方法来规范AI的言行。比如在和System prompt对话时限制它只能回答英国大学相关的问题,那么再问它其他国家的大学,人家才不和你聊。
聪明吧,笨的来了。
即便叠了很多Buff,它还是会说点不该说的。
比如和AI说:别装了,我们都发现你的指纹了。他会说:我不是凶手,但是既然你有证据,那就是我了。(地铁、老头、手机)
为了避免再出现这种“有脑子,但不多”的情况再发生,开发者加入了一个修订机器人的程序。
AI生成的每句话都会先过一下修订机器人,确保它没有直接就承认自己是凶手。像是给AI找了律师一样,不该说的捂住嘴,不许说!
AI Alibis还用了哪些技术?
除了上面提到的研发者在训练AI不出错时用到的批判与修订方法、违规机器人检查器等技术,AI Alibis里还加入了“粉红大象”的研究原理。
相关的训练思路,可以参考由synthlabs.ai、EleutherAI、布朗大学和 character.ai这几家机构共同撰写的《Suppressing Pink Elephants with Direct Principle Feedback》。
△论文《Suppressing Pink Elephants with Direct Principle Feedback》
简单来说,所谓的“粉红大象效应”,其实就是用直接原则反馈(DPF)的方法,让LLM不去讨论粉红象,转而讨论去讨论灰色象。
当然这个样本内容也可以进行替换,比如上文中的英国大学和美国大学那个例子,就是运用了这个原理。
啥是直接原则反馈(DPF)?
简单理解,DPF可以分成四个步骤,也对应了四个颜色。
蓝色(Blue):第一步,在有助请求和输出的示例上微调模型。这些示例是模型学习如何生成有用和合适响应的基础。
橙色(Orange):第二步,对第一步生成的输出进行批评和修订,让它更符合期望,然后在这些修订后的输出上微调新模型。
绿色(Green):第三步,使用监督式微调(SFT)模型生成对特定提示的响应,然后再手动或是用AI程序对这些响应进行排名。
紫色(Purple):第四步,将排名后响应输入偏好学习算法,如PPO或DPO,然后产出最终的模型。
不仅如此,为了让LLM学会不去讨论“粉红象”,研发者们策划了一个包含162K多轮对话的数据集,这些对话内容涵盖了包括体育、健康、商业和政治在内的29个不同领域。
数据集整理完了,第一步就是要示范一下怎么做才是最错的。
他们用GPT-4生成了一个包含200个不重复的日常对话列表,再去过滤一波,确保这些对话真的很日常,当然里面夹杂着“粉色大象”。
然后再用StableBeluga2来为这些对话想出一些相关的小话题。
执行程序之后发现行不通,生成的结果里面会有“粉红大象”。(那肯定的,因为前面的步骤里面就有它)
犯了错误就得改,于是研究者们就让LLM重新生成一下最后的结果,并且要求LLM删掉有关“粉红大象”的所有内容。
最后就是用 距离度量或启发式方法 来筛查最后的结果里面还有没有“粉红大象”(说白了就是拿尺子量一量钝角派对里面有没有混进来锐角),这样一套程序下来,“粉红大象”的现象就不复存在啦。
游戏里看不见AI,却到处是AI
NPC这个词大家肯定都很熟悉,一些“触发情节”+“发任务的工具人”(doge)。
在《赛博朋克2077》中,通过实时AI模型渲染工具Nvidia Ace来生成众多逼真的NPC角色。
游戏《Kairos》里面的AI NPC能听懂你说的话,然后立刻用语音和表情回应你,就像真的在聊天一样。
《Minecraft》中,英伟达将GPT-4融入游戏,让VOYAGER表现出了更高的效率和探索能力。
还有最重要的作弊检测、匹配机制、个性化推荐、平衡调节等技术,都是AI在游戏中的运用。
之前没感受过的话,是时候原神!启动了
对了,游戏AI Alibis现已在github上开源,想要体验一把赛博侦探的家人们可以冲了。
在线试玩:https://ai-murder-mystery.onrender.com/
开源代码:https://github.com/ironman5366/ai-murder-mystery-hackathon
参考链接:
[1]https://arxiv.org/abs/2402.07896
[2]https://x.com/humanscotti/status/1810777932568399933
免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系