机器之心报导

编辑:杜伟、泽南

Jeff Dean 有点绷不住了?

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

众所周知,谷歌就像人工智能领域的「黄埔军校」,自深度学习鼓起后培养出了整整一代机器学习研讨人员和工程师。很长一段时间里,谷歌就是抢先 AI 技能的代名词。

人们现已习惯跟随谷歌的脚步,运用其提出的新技能和东西作为研讨基础,谷歌也走出过大批人才,成为了各家研讨机构和公司的主干。然而最近,在 ChatGPT 的冲击下,谷歌决定不这么干了。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

据华盛顿邮报报导,今年二月,长期担任谷歌人工智能主管的杰夫・迪恩(Jeff Dean)向其职工宣告了一项令人震惊的方针改动:谷歌今后将不得不推延与外界共享自己的作业效果。

多年来,Jeff Dean 麾下的 Google AI 像大学的计算机系相同,鼓励研讨人员许多宣告学术论文。依据 Google Research 的网站,他们自 2019 年以来推出了近 500 项研讨。

但去年底 OpenAI 开创性的 ChatGPT 改动了整个科技领域的现状。Jeff Dean 在公司研讨部门的季度会议上表明,这家背靠微软的创业公司许多阅览 Google AI 提交的论文与谷歌保持同步。这样的「指责」并不古怪,事实上,大言语模型的重要基础,ChatGPT 中的 T —— transformer 是谷歌 2017 年的一项研讨。

Transformer 自提出以来,一直是自然言语处理(NLP)领域研讨的大方向,是 AI 现在这一波打破的源头。然而谷歌以为这种状况必须改动,据两名知情人士泄漏,谷歌将规则自己的人工智能发现只有在实验室作业转化为产品后才干共享论文。

新的方针改动是谷歌内部更大改动的一部分。长期以来,这家科技巨头一直被以为是 AI 领域的领导者,但现在却陷入了需求追逐他人的境地 —— 谷歌需求抵挡一群灵敏的 AI 竞争对手,维护自己的核心查找事务和股价,以及潜在的未来。

在专栏文章、播客和电视节目中,谷歌 CEO 桑达尔・皮查伊 (Sundar Pichai) 敦促咱们需求对人工智能保持慎重。「在社会层面上,它或许会形成很大的伤害,」他在 4 月份的「60 分钟」节目中正告说,并描绘了生成式 AI 如何加速虚伪图画和视频的创造。

但与高管们泄漏出的风向正相反的是,最近几个月,依据对 11 名现任和前谷歌职工的采访,谷歌已对 AI 事务进行了全面变革,目标是快速推出产品。

它降低了向少数群体推出实验性人工智能东西的门槛,在公相等领域拟定了一套新的评估目标和优先事项。皮查伊在一份声明中表明,谷歌还把 DeepMind 和 Google Brain 进行了合并,以「加速在人工智能方面的前进」。这个新部门将不会由 Jeff Dean 办理,而是由 DeepMind 的首席执行官哈萨比斯办理,DeepMind 在一些人看来具有更新鲜、更有活力的品牌。

在上周早些时候的一次会议上,哈萨比斯表明,人工智能或许比大大都其他人工智能专家预测的更挨近人类智能水平,「咱们或许只需求几年,或许…… 十年后就可以实现。」

在谷歌加快步伐的同时,包括著名公司、研讨人员和行业资深人士在内的各路声音都在呼吁人工智能开发人员怠慢脚步,并正告该技能的发展速度现已过快。

Geoffrey Hinton 是 AI 技能的先驱之一,他于 2013 年加入谷歌,最近刚刚宣告离开公司。Hinton 最近一直在媒体上正告通用人工智能有躲避人类控制的风险。皮查伊和 OpenAI、微软的首席执行官在上周四还会见了白宫官员,世界各地的监管机构也正在评论如何环绕该技能拟定新规则。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

上周,人工智能先驱 Geoffrey Hinton 辞去了谷歌副总裁的职务,表明忧虑技能的快速前进会导致许多赋闲和错误信息泛滥。

喜忧参半:有人支持,有人因懊丧转而离任

关于谷歌职工来说,在宣告相关 AI 研讨之前需求额外同意意味着或许会在生成式 AI 的闪速世界中被他人「抢发」。这种方针也或许被用来悄悄地压制那些有争议的论文,比方 2020 年谷歌 Ethical AI 团队负责人 Timnit Gebru 和 Margaret Mitchell 共同编撰的关于大言语模型危害的研讨。

不得不承认的一点是,谷歌在 2022 年失去了许多尖端 AI 研讨者,转投被视为更前沿的初创企业。这种人才外流的部分原因在于对谷歌没有采取一些正确的决策而感到懊丧,比方未将聊天机器人纳入查找等。

一位前谷歌研讨者表明,取得论文宣告同意或许需求与高级职员反复进行严格的审查。许多科学家带着能够在本身领域进行更广泛研讨的许诺来到谷歌作业,但随后又因为宣告研讨的约束离开了谷歌。

不过在季度会议的直播中,Jeff Dean 的声明也得到了一些职工的正面回应。他们纷纷表达了乐观的情绪,希望这一改动能够协助谷歌夺回优势。关于一些研讨人员而言,这些他们第一次听到有关宣告研讨的约束。

Jeff Dean 最新回应:咱们并没有停止共享研讨

不过,关于华盛顿邮报的这篇报导,Jeff Dean 拿出事实,批驳了他们的观念。他表明谷歌研讨者合作完成的 100 + 篇论文在上周的 ICLR 2023 会议上宣告,并担任了许多会议安排和 workshop 演讲者角色。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

并且 DeepMind 的同事们也在 ICLR 2023 会议上宣告了许多论文和演讲。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

不过,有人质疑 Jeff,以为这 100+ 篇论文是滞后目标,并问 Jeff 是否能断言谷歌和 DeepMind 未来的研讨沟通像曩昔相同强壮?比方哈萨比斯现已揭露表明 DeepMind 未来将不会共享太多。

Jeff Dean 回答称,这是决不可断言的工作。新研讨宣告取决于许多要素,就像大会接纳论文相同,咱们有许多作业不会宣告,也有许多宣告了出来。我以为状况不会改动。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

斯坦福 NLP 的账号辩驳表明,看起来夏季实习的 PhD 学生有的现已不好宣告论文了。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

还有人以为,Jeff Dean 如果能直接否定华盛顿邮报报导的观念,才更有说服力。

谷歌AI方向巨变:新研究要闭源,让OpenAI没得看

最终正如一位网友所言,「未来需求忧虑的不是宣告论文,它们肯定会凭借着强壮的影响力持续存在。更需求忧虑的是发布代码和模型,以及最近几年高影响力论文似乎退化的趋势。」

原文链接:www.washingtonpost.com/technology/…