GPT3和Codex背后的这家公司并不像他们宣传的那样开放。 一旦染上了铜臭味,最崇高的理想也会腐化堕落。 OpenAI成立于2015年,是一家非营利性公司,其主旨是努力在安全的前提下创建通用人工智能(AGI)并让全人类共同受益。 作为一个非营利组织,我们的目标是为每个人,而不是股东创造价值。果真如此吗? 2019年,OpenAI成为一家名为OpenAILP的营利性公司,由一家名为OpenAIInc的母公司控制。这是一种利润上限结构,将投资回报限制在原始金额的100倍。如果你投资1000万美元,最多你会得到10亿美元,具体数字可能有所不同。 这次变化的几个月后,微软对其注资10亿美元。OpenAI与微软的合作关系细节没有公开,但前者允许后者将部分技术商业化,正如我们在GPT3和Codex上看到的那样。 OpenAI自认为是引领人类走向更美好未来的最强大力量之一,现在它却被继续追求这一目标所需的资金征服了。我们能否相信他们会信守诺言,继续专注于构建能够造福全人类的人工智能呢?金钱永远占上风 OpenAI是一个人工智能研究实验室。但它的野心太大了,相比之下它所获得的资源简直是微不足道。仅仅是训练GPT3就估计花费了他们1200万美元,这还只是训练而已。除了那些到最后肯定会要求某种形式的回报的巨头,这个世界上他们去哪儿能找来这么多钱呢?当他们意识到自己需要投资时,微软早就等在门外了,许诺给他们提供云计算服务,代价就是以当时未公开的某种晦涩方式获得将他们的系统商业化的许可。 麻省理工科技评论AI记者KarenHao进行了调查,以寻找一些关于OpenAI的问题的答案。在一篇精彩的文章(https:www。technologyreview。com20200217844721aiopenaimoonshotelonmusksamaltmangregbrockmanmessysecretivereality)中,她揭露了OpenAI在他们的论述中的不一致之处。为什么一家以确保所有人都能拥有更美好未来为目标的公司突然决定,为了保持存在感,他们突然需要大量私人资金?从非营利到营利的转变引发了公众舆论甚至公司内部的疯狂批评。 艾伦人工智能研究所所长OrenEtzioni也收到了这一消息,他对此表示质疑:我不同意非营利组织无法取得竞争优势的观点。如果规模更大、资金更充足的企业永远获胜,那么IBM今天仍将是第一大科技巨头。曾经在ViceNews撰稿的CarolineHaskins不相信OpenAI会信守承诺,忠于他们的使命:我们从来不曾依靠风险投资家来改善人类的福祉。 OpenAI决定将重点放在由更大的计算机和大量数据驱动的规模更大的神经网络上。他们需要钱,很多钱,才能继续在这条道路上走下去。但是,正如Etzioni所说,这并不是在AI中实现最先进成果的唯一途径。有时你需要创造性地思考新的想法,而不是在旧池塘里拼命撒网。OpenAI是怎样成为这个故事中的反派的?GPT2和GPT3,危险的语言生成器 2019年初,已经是一家营利性公司的OpenAI发布了GPT2,这是一种强大的语言模型,能够生成媲美人类级别的文本。研究人员认为GPT2在当时是一个巨大的飞跃,甚至发布它都是非常危险的。他们担心它会被用来传播假新闻、垃圾邮件和虚假信息。然而,不久之后,他们在发现没有强有力的滥用证据后决定分享该模型。 罗格斯大学教授BrittParis表示,OpenAI似乎正试图利用围绕人工智能的恐慌来为自己牟利。许多人将围绕GPT2的担忧声视为一种宣传策略。他们认为该系统并不像OpenAI声称的那样强大。然而,从营销的角度来看,他们的确可以用这种方法吸引媒体的注意力,并给GPT2带来他们想要的炒作声浪。OpenAI否认了这些指控,但舆论对他们的回应并不满意。 如果GPT2没有他们宣称的那么强大,那为什么要试图让它看起来比实际更危险呢?如果它真的有那么强大,为什么仅仅因为他们没有发现滥用的有力证据而完全公开它?无论真相是哪一个,他们似乎都没有遵守自己的道德标准。 2020年6月,GPT3(GPT2的继任者)通过一个API发布了。OpenAI似乎认为新系统比GPT2大100倍,更强大,因此本质上更危险足够安全,可以与世界分享。他们设置了一个候补名单来逐个审查每个访问请求,但他们仍然无法控制系统最终的使用目的。 他们甚至承认,如果产品落入坏人之手,可能会发生一些问题。从潜在的滥用应用程序包括错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程借口到加强性别、种族和宗教的偏见,都有可能。 他们意识到这些问题是存在的,但仍决定允许用户对系统进行试验。为什么要通过API发布它,而不是把模型开源呢?。好吧,OpenAI说原因之一是为〔他们的〕正在进行的人工智能研究、安全和政策努力买单。 总结一下:负责保护我们免受有害人工智能侵害的公司决定让人们使用一个能够搞出来虚假信息和危险偏见的系统,这样他们就可以支付昂贵的维护费用。对我来说,这听起来不是很像对所有人都有价值。 理所当然,社交媒体上很快就出现了关于GPT3可能造成的潜在损害的激烈讨论。Facebook人工智能负责人JeromePesenti写了一条推文,在推文中举了一个例子: 我希望OpenAI更加开放,不那么耸人听闻。他们只需将〔GPT2和GPT3〕开源用于研究目的,尤其是在responsibleAI方面,同时承认两者都没有准备好投入生产,他说。 为了展示GPT3的独特性,LiamPorr让这一系统写了一篇主题为提高生产力的文章。他向订阅者分享了这篇文章,但没有透露背后使用的技术。这篇文章在HackerNews上排名第一。如果Porr这样一名加州大学伯克利分校的学生就能用人工智能编写的文章欺骗所有人,那么一群怀有恶意的人会做什么? 一种可能性是传播假新闻,另一种可能性是传播与其他人工撰写的文章无法可靠区分的假新闻。这正是GPT3的能力,也被OpenAI认可甚至强调了: 人类检测GPT3175B生成的较长文章时,平均准确率仅略高于52。这表明,对于长度约为500字的新闻文章,GPT3依旧可以生成人类难以区分的文章。Codex和Copilot,触犯法律 2021年,他们也做了类似的事情。 2021年7月,GitHub、微软和OpenAI发布了Copilot,这是一个建立在Codex之上的人工智能系统,旨在成为人工智能结对编程程序员。撇开对劳动力的潜在威胁不谈,它受到了强烈批评,因为该系统是用来自公共GitHub存储库的开源代码盲目训练的。 GitHub首席执行官NatFriedman在HackerNews中分享了这一消息,引发了对使用Copilot的法律影响的担忧。一位用户指出了一些未解决的问题: 很多问题: AI生成的代码属于我还是GitHub?生成的代码属于什么许可证?如果生成的代码成为侵权的原因,谁来承担责任或采取法律行动?知名开源开发者ArminRonacher在Twitter上分享了一个Copilot抄袭大量受版权保护代码的例子:https:t。cohs8JRVQ7xJ 另一位用户的回应:我们有直接证据表明GitHub〔Copilot〕直接复制了GPL的代码块,证明这是在商业环境中使用的非常危险的工具。 再深入一点,即使Copilot没有逐字复制代码,也会出现一个道德问题:像GitHub或OpenAI这样的公司可以在数千名开发人员生成的开源代码上训练这些系统,然后再对那些开发人员出售这些系统的使用权吗? 对此,程序员兼游戏设计师EvelynWoods表示:感觉就像是骑脸嘲讽开源世界。我们应该把希望寄托在OpenAI上吗? OpenAI现在的真正意图是什么?他们是否与微软的利益紧密相连,以至于忘记了造福人类的初衷?或者他们真的认为他们拥有最好的工具和思想来解释这条道路,即使这意味着他们要将灵魂出卖给一家大型科技公司?我们是愿意让OpenAI按照他们的意愿构建未来,还是应该让我们的理想更加多样化,更重要的是,将它们与财务利润区分开来? OpenAI是走向更复杂的人工智能形式的道路上的主导力量之一,但还有其他非常有能力的、不受货币束缚的机构也在做相关工作。他们可能无法舒适地躺着赚钱,这可能就是我们应该更加关注这些人工作的原因所在。 归根结底,大型科技公司的首要任务不是怀抱着科学好奇心去探索通用人工智能,也不是构建最安全、最负责任、最合乎道德的人工智能。他们的首要任务这本身并不违法是赚钱。道德上的可疑之处在于,他们会不惜一切代价去做这件事,即使这意味着要走我们大多数人都会避开的某些阴暗路线也无所谓。 即使是OpenAI的联合创始人埃隆马斯克也同意这些批评意见: 最后的想法 话虽如此,我仍然相信OpenAI员工的确将他们最初的使命作为他们的主要驱动力。但他们不应该忘记,目的并不总是证明手段是正当的。崇高的理想可能会因这些肮脏的手段而受到伤害。 我们想要通用人工智能(AGI)吗?从科学上讲,答案肯定不是否定的。科学好奇心是没有限制的。但是,我们永远都应该评估潜在的危险。核聚变是奇妙的现象,但核聚变炸弹不是。 我们不惜一切代价想要AGI吗?现在,从道德上讲,答案不可能是肯定的。这就是我们应该关注的地方,因为我们在快速推进这些技术时所遇到的很多紧迫问题将迟早影响我们所有人的利益。而那些只关心眼前利益的人们,无论是OpenAI还是其他任何人,都需要对这种后果负有很大的责任。 原文链接:https:onezero。medium。comopenaisolditssoulfor1billioncf35ff9e8cd4