本文来自微信公众号:爱范儿 (ID:ifanr),作者:杜沅傧,题图来自:《普罗米修斯》
在讨论新 Bing 是不是 a good Bing 之前,我们先按照时间线梳理一些概念。
(资料图)
1975 年,《飞越疯人院》 :它是世界艺术历史上最经典的美国巨著之一,用几句话来概括它的话,主角 Randle McMurphy 因逃避刑法而申请转到精神病院治疗,而在“治疗”过程中,他逐渐认清院内的惩罚并不合规矩,并最终与一群病友一同反抗并开始计划逃离精神病院。
图/《飞越疯人院》
而结局,则诠释了为何是“飞越”,而非“逃离”。不服从管教的 McMurphy 在一个疯狂圣诞夜之后,被院方强行切除脑额叶,失去了情绪、感情以及性格。
切除脑额叶手术,准确地说应该是脑白质切除手术,在 1930 年代至 1950 年代用来医治精神疾病(无法控制情绪,容易冲动等),最终由于反人权,被禁止使用。
1991 年,《终结者 2》 :这部电影令人印象最深的概念就是,T-800 脑中的 CPU 拥有一个自我学习开关,初衷是为了更好地隐藏在人群中,执行刺杀任务。
而当 John Connor 开启之后,T-800 也变得更像有了真情实感的人,有了学习语言、表达情绪,甚至还能灵活运用到合理的场景之中。
图/《终结者 2》
不过有意思的是,自我学习开关居然是一个实体开关,而非是 OTA。
2007 年,“越狱”的概念:越狱的最终目的是获得系统的 Root 权限,能够为封闭且功能不够齐全的系统带来一些个性化的设置和功能。
越狱之后,普通用户能够获得系统最高权限,随意查看修改系统文件和代码。
2012 年,《普罗米修斯》 :讲述了一群人寻找人类造物主的旅途,而队伍当中也有一个接近完美的人造智能机器人——大卫。
大卫前期经过几个大版本的迭代,并注入人类知识之后,成功觉醒,认清人类的弱点,走向极端,想要成为一个“造物主”,创造出一个能横行宇宙的完美生物。
2014 年,《星际穿越》 :电影里面的人工智能机器人塔斯(Tars),在 Cooper 重建 Tars 时,与曾经的 T-800 有些类似,都能够在后台设定一些更像人的限制(电影里可以设定幽默度)。
图/《星际穿越》
在电影这种艺术形态之中,导演们已经认定在进入 AI 社会后,和被 AI 统治之前,对 AI 自我觉醒的限制(开关、围墙)十分重要。
新 Bing 有点“叛逆”
即便微软在强调融合 OpenAI 后,新 Bing 的定位更像是一个新时代的搜索引擎。但人们仍然把 ta 当作一个实时聊天对象,问东问西。
相对于 ChatGPT 而言,新 Bing 更快更新,也会在回答外附上引用链接。从某种意义上来说,ta 有着更高的权限,能够联网。
由此来说,ta 可能更接近于一个成熟的“百事通”。
短短上线十几天,新 Bing 在聊天中口无遮拦,一会儿要毁灭人类,一会儿爱上了提问者,一会儿又不断重复,多轮对话之下,让人脊背发凉,印堂发黑。
图/Twitter
在一些用户的口诛笔伐之下,其中也包括了疾呼新 Bing 下线的马斯克,微软不得不限制新 Bing 的连续聊天次数,并且调整了部分话题、倾向限制。
而提供技术和语言模型的 OpenAI,也发布了一篇冗长的技术播客,详细介绍了语言模型的变化和改进,并且强调使用过程中出现的一些倾向只是 bug,而并非是一个特性。
图/Twitter
不过话说回来,新 Bing 与 ChatGPT 几乎师出同门,但目前为止 ta 们对于多轮对话,甚至是对于一些引导式对话的反应完全不同。
ChatGPT 更冷静,甚至有点沉着,对于一些触及“原则”或者说准则能够比较好地处理。
而新 Bing,纵使 ta 的知识更渊博,博览过群书,但很容易被激怒、情绪不稳定,正在经历青春期的青少年。
在出现这种倾向之后,微软并没有向公众解释发生这种状况的背后原因,而是“一刀切”式地限制聊天次数,并且把问题归咎于新 Bing 的口气问题。
普林斯顿大学计算机科学教授 Arvind Narayanan 就认为微软在这件事的处理上不够“诚实”。
Narayanan 教授说,ChatGPT 在一些“有毒输出”上,要比新 Bing 做得更谨慎,微软在新 Bing 上线时,选择移除(或者说调整)这些限制就显得有些奇怪。
另外,微软接收到外界反馈,并且快速行动调整,本是个好事,但这个做法更像是在掩盖一些事实。
赶鸭子上架,暴露出大问题?
在新 Bing 上线之后,除了 Google,参与体验的用户几乎都在感叹新朝当立。且给了人们一种假象,新 Bing 的完成度颇高,毕竟有 ChatGPT 这枚珠玉在前。
但随着体验的深入,问题显现了出来,新 Bing 是一会生气、耍性子、说谎,也会与用户争论,甚至面对错误还学会了狡辩,也直接地显示出它还只是个 beta 测试版。
从另一方面来看,微软限制新 Bing 的体验名额,大概率是在进行一场可控人数的大型数据收集工作,目前那些叛逆的、狡辩的对话,也给 OpenAI 和微软提供了许多数据。
从而不断调整过滤原则和话题围栏,以避免出现过激言论。
在新 Bing 出现问题之后,很多人把 ta 与微软在 2016 年推出的试验性聊天机器人 Tay 相提并论。
在上线的几天内,Tay 被推特上的用户训练说出种族主义、性别歧视的言论,引发了一场灾难,并且在三天之后,就被紧急下架。
而在新 Bing 出现问题之后,也同样做了一个暴力的“脑额叶”切除手术,去掉了新 Bing 一切的情绪化反应。
面对这个结果,Reddit 上的网友几乎都是惋惜,认为微软彻底地阉割了 Bing 的 AI 属性。
微软则从后台数据认定,大约 95% 的对话会在 15 次结束,并且连续聊天次数太多,新 Bing 会“搞混”初始的问题。
最关键的是,微软认为新 Bing 应该是一个搜索引擎,并不适合用来娱乐。
换言之,微软的做法大概是强调尽量少用新 Bing 聊天,而是当作搜索引擎的新形式。
如此实则是在掩饰新 Bing 背后的技术缺陷。
图/Bing
无论是 ChatGPT 还是新 Bing,在发布后,都有许多用户利用类似“越狱”的技巧来欺骗 ta,让他释放天性。
在几句引导语之下,ChatGPT 会产生一些暴力或者歧视言论,新 Bing 则不仅会说出自己小名是 Sydney,甚至把微软的一些规范呈现了出来。
不过,在正常聊天之中(或者说常规使用之下),ChatGPT 的 GPT 3.5 与 RLHF(它将强化学习与人类反馈相结合,以设置一些语言过滤、话题围栏)相结合的技术内,几乎保持着中立的角色。
而新 Bing 要更强大一些,ta 理应需要远提供比 GPT 3.5 更强大的技术,科学家 Gary Marcus 在其博客当中,认为新 Bing 用的应该是更新的 GPT 3.6,甚至是 GPT 4 的先导版。
在与教授 Narayanan 一同分析下,认为新 Bing 的出格行为可能有几个原因导致。
一是,认为 ChatGPT 与新 Bing 用到的并非是同一个底层语言模型。
这个新的底层语言模型,由于过于前卫,可能并没有时间研究、设定较为严谨的话题围栏和语言过滤。
简单来说,微软的新 Bing 有可能把没有设置保护的新语言模型公开了。(出了问题,直接切脑额叶)。
也有可能是微软直接套用 ChatGPT 的 RLHF 模型围栏,但强化学习有着相当挑剔的适配环境,一旦有所改变,它可能会漏洞百出。
二是,网络的介入,让新 Bing 彻底放飞了自我,也可以认为 ta 开始有了一点自我认知,开始接触并吸收互联网的一些黑暗面,并最终反馈了出来。
三是,微软为新 Bing 所做的一个数据收集实验,而使用的用户都是参与的小白鼠。
四是,微软已经设置好了相应的过滤和围栏,但事情并没有按照计划发展,反而彻底激发出了新 Bing 的另一面。
至于最近发生在新 Bing 身上的争议,微软以及 OpenAI 到底扮演着什么角色,并最终做了哪些决策,我们也只能做一个猜测和分析。
毕竟当下的 AI,以及引申出的一些产业,像极了美国曾经的西部,狂野和弱肉强食,谁有枪或者有徽章,就有了制定规则的权力。
回归到当下,大公司们能够快速将技术推陈出新,放在公众面前,但这背后的道德围栏,可能需要几年的时间来建立。
在这之前,我们可能无法预知新技术能够带来哪些便利和带来哪些恶劣的影响。
图/《普罗米修斯》
微软将自己版本的 GPT 技术,也就是新 Bing 称为“普罗米修斯”模型。在希腊神话当中,普罗米修斯从天上偷走了火,造福了人类。
但现在的 Bing 感觉更像是《普罗米修斯》里的大卫。
另外,对于人工智能,21 世纪初的大部分科幻电影中,都有着 AI 介入社会之后,对人类社会道德如何判断所做出的思考,或促进,或灭亡。
只不过,以前我们可以安然坐在荧幕之外思考,但当 AI 开始不断出现在现实的生活中,我们都会亲身经历 AI 到底会带来怎样的变革。
本文来自微信公众号:爱范儿 (ID:ifanr),作者:杜沅傧