从GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低难度的数学题——9.11和9.9哪个更大,难倒了一众海内外AI大模型,也让外界了(le)解到了大模型在推理(lǐ)方面的局限性。
不过,情况(kuàng)正在迅速发生改变(biàn)。当地时间8月27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前(qián)身为Q*)项目,计划最早于今年秋季推出。同时,用“草莓”合成数据来(lái)开发的最新大模型——“猎(liè)户座”(Orion),或于明年年初(chū)推出。
The Information援引知情人士的消息称,今 年夏天 ,在秘密会议(yì)上,OpenAI向美国(guó)国家安全官员展示(shì)了“草(cǎo)莓”模型。
推理能力出(chū)众
据 The Information报道,参与OpenAI该项目的两名人员透(tòu)露,研究人员计划在(zài)今年秋季推出代号为“草莓”的新型AI,并有可能将其作为ChatGPT的一部(bù)分。
据悉,OpenAI希望通过 推出(chū)“草莓”为公司(sī)筹集更多(duō)资金,并寻找减少亏(kuī)损的(de)方(fāng)法。此前,据媒体报道,OpenAI今年的亏损可能高达50亿美元。
据前述外媒报道,“草莓”目前的(de)功能极其强(qiáng)大。它可以解(jiě)决此(cǐ)前从未见过的数(shù)学问题(tí),这是(shì)当前的聊天(tiān)机(jī)器人无法可靠完(wán)成的任务。它 还可以解决涉及编程的问题,且(qiě)不局限于回答(dá)技术性问题。如(rú)果给予它更多时(shí)间“思考”,“草莓”模型还(hái)可以回答(dá)用户 更“主观”的问(wèn)题 ,例如产品营销策略。
为了展示“草莓”在(zài)语言方面的实力(lì),研究人员向OpenAI内部同事展示(shì)了“草莓”如(rú)何解决《纽约时报》上刊登的复杂字谜游戏。
现有的人工智能(néng)并不擅长解决航空航天和结构工程等数学密集型领域的问题,因此,解(jiě)决棘手数学问题的AI可能是(shì)一个潜在有利可图的应(yīng)用。为了提高模型的推理(lǐ)能力,一些初创公司尝试将问题分(fēn)解为更小的步骤,但这些办法既慢又贵。
数学推理能力的提升也(yě)有助于AI模(mó)型更好地处理对话查询,例如客户服(fú)务请求。这或许对OpenAI即将推出的AI代(dài)理服务将起到 帮(bāng)助(zhù)。
不仅是OpenAI,人工智能领域的(de)其他主要参(cān)与者也在数(shù)学推理方面取(qǔ)得了长足进步。例如,谷歌(gē)DeepMind 最近开发了AlphaProof和(hé)AlphaGeometry 2,这是两个用于高级数学(xué)推理(lǐ)的AI系统。两个(gè)系统协(xié)同工(gōng)作,在(zài)2024年国际数学奥林匹克竞赛中获得银牌,解决了六道题中的四道。
可帮助训练大模 型(xíng)
对OpenAI,“草莓”不仅是一个即将要向外界推出的商业模型,它(tā)还被(bèi)赋予了更重要的使(shǐ)命(mìng)。
一位知情人士向The Information表示,OpenAI在使用更大版本的“草莓”来生成训练下一代旗(qí)舰模型“猎户(hù)座”(Orion)的数据(jù)。该模型旨在改进(jìn)其现有的旗舰模型GPT-4并帮助OpenAI领先其他资金雄厚的竞争对手,争夺对话式AI或大型语言模型的霸主地位。
GPT-4自2023年(nián)3月推出后,就成为一个改变游戏规则 的大型语言(yán)模型。然而,在过去18个月中,竞争对(duì)手已基本(běn)追赶上来。在(zài)某些情况下,甚至超越了OpenAI的最新模型。
知(zhī)情人士表(biǎo)示,这种由人工智能生成的数(shù)据(jù)被称为“合成数据”。这意味着“草莓”可以帮助OpenAI克服获(huò)取足够高质(zhì)量(liàng)数据的限制(zhì),从而利用从互联(lián)网上(shàng)提取(qǔ)的文本或图像(xiàng)等现实世界数据来训练(liàn)新模型(xíng)。
代理初创公司(sī)Minion AI CEO、GitHub Copilot前首(shǒu)席 架构师亚历克斯·格雷夫利表示,使用“草(cǎo)莓”生成更高质量的训练数据可(kě)以帮(bāng)助OpenAI减少其模型(xíng)产生的错误数量,即(jí)所谓的幻觉。幻觉是当前生成式AI的一个重大限制,这会导(dǎo)致AI经常生成(chéng)看似(shì)合理但实际上不正确的(de)数(shù)据。
“想(xiǎng)象一下,一个(gè)没有幻觉的模型,你问它一个(gè)逻辑难题,它第一次尝(cháng)试就能答对。”格雷夫利说道。该模(mó)型之所以(yǐ)能够做到 这一点,是因为“训练(liàn)数据中的歧义(yì)较(jiào)少,所以它猜测(cè)的次数较少”。
据The Information报道 ,OpenAI首席(xí)执行(xíng)官阿尔特曼在5月份的(de)一次活动中(zhōng)表示:“我们觉(jué)得我们拥有(yǒu)足够的数据来开(kāi)发下一个模型。我们(men)已经进(jìn)行了各(gè)种实验,包括生成合成(chéng)数据(jù)。”据报道,他指的可(kě)能就是用“草莓(méi)”训练的(de)Orion(猎户座)。
安全隐患(huàn)乌(wū)云未散
不过 ,就在OpenAI高(gāo)歌猛进 的同时,安全(quán)隐(yǐn)患的乌云从未散去。
“草莓(méi)”项(xiàng)目源于前OpenAI首席科学(xué)家(jiā)Ilya Sutskever的早期研究,OpenAI研究人员Jaku从GPT到“草莓”:OpenAI的野心与安全困境b Pachocki和Szymon Sidor在Sutskever的工作基础上开发了一种新的数学求解模型Q*。
而2023年(nián)底,有关OpenAI的Q*项目消息(xī)泄露时,一(yī)些专家将该(gāi)技术定性为人工智(zhì)能(AGI)的突(tū)破,但人们对它知之甚少。这也让一些专注于人工智能安全的研究人员感到震惊。
这件事情发(fā)生在去年OpenAI罢免阿尔特曼事件(jiàn)之前。据知情(qíng)人士爆料,此(cǐ)前OpenAI员工之(zhī)间就公司是(shì)否(fǒu)以足够安全的方(fāng)式开发人工智能展开(kāi)了争论。安全也是罢免阿尔特曼后公(gōng)司内(nèi)部损害(hài)控制 的一个重要主题,当时罢免(miǎn)的发起人正是Sutskever。
此后,安(ān)全问题就一直困扰着OpenAI。而在阿(ā)尔特曼重返OpenAI后,负(fù)责OpenAI安全团队(duì)的成员也相继(jì)离开了公司。
今年5月离职的OpenAI“超级对齐”团队领导(dǎo)人Jan Leike在社媒平(píng)台X上写(xiě)道(dào):“过去几年,安全文(wén)化和流程已经退居次要(y从GPT到“草莓”:OpenAI的野心与安全困境ào)地位,而闪亮的产品则成为重中之重。”
鉴于今年早些时候几位(wèi)安全部(bù)门领导人离职,以及美(měi)国参(cān)议(yì)员(yuán)伊丽莎白·沃(wò)伦等美国政府高官对于技术安全问(wèn)题的批评,OpenAI决(jué)定提升对政府官员的(de)透(tòu)明度(dù)。
The Information援引一位了解相关(guān)会议情况人士的(de)消息称(chēng),今年夏天,在一些并未公开的会(huì)议上,阿尔特曼的团队向(xiàng)美国国家安全官员展示了“草莓”模型。
报道指出,通过向政府官员展(zhǎn)示一(yī)项尚未发布的技术,OpenAI可能为人工智能开发(fā)者树立了新标准,尤其是(shì)在先进 人工(gōng)智能日益成为潜在安全隐患的今天(tiān)。此次演示可能是OpenAI努力向政策制定者提高透明度的(de)一部(bù)分,但如果政策制定者认(rèn)为该项技术对国(guó)家安全(quán)形成威胁,那么他们可能给公司带(dài)来麻(má)烦(fán)。
不过(guò),一(yī)些业界人士对此并(bìng)不买(mǎi)账,因 为OpenAI并未向公(gōng)众提升透明度。AI初创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如(rú)果没(méi)有开源AI,我们(men)都会完蛋,我们可能会把文明的控制权交给1到2家公司。”Bindu Reddy说。
未经允许不得转载:骏诺车品JNCP官方网站 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了