从GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低难度的数学题——9.11和9.9哪(nǎ)个更大,难倒了一众海(hǎi)内外AI大模型,也(yě)让外(wài)界了解到了大模型在推理方面的局(jú)限性。
不过,情况正在迅速发生改(gǎi)变(biàn)。当地(dì)时(shí)间8月27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前身为Q*)项目,计划最早于今年秋季推出(chū)。同时,用“草莓”合(hé)成数(shù)据来开发(fā)的最新大模型——“猎户座”(Orion),或于明年年(nián)初推出。
The Information援引知情人士的消息称(chēng),今年夏天,在秘密会议上,OpenAI向美国国家安全官员展(zhǎn)示了“草莓”模(mó)型。
推理能力出众
据(jù)The Information报道,参与OpenAI该项目(mù)的两名人员(yuán)透露,研究人员计划在今(jīn)年秋季推出代(dài)号为“草莓”的新(xīn)型AI,并有可(kě)能将其作为ChatGPT的一部分。
据悉(xī),OpenAI希望通过推出“草莓”为公司筹集更多资金,并寻找减少(shǎo)亏损(sǔn)的方法。此前,据媒体(tǐ)报道,OpenAI今年的亏损(sǔn)可能高达50亿美元。
据前述外媒报道(dào),“草莓”目前(qián)的功能(néng)极其强大。它可以解(jiě)决此前从未见(jiàn)过的数学问(wèn)题,这是当(dāng)前的聊天机器人无法可靠完成的(de)任务。它还可以解决涉及编程的问题,且不(bù)局(jú)限于回答技术性问(wèn)题。如果给予它更多时间“思(sī)考”,“草(cǎo)莓”模(mó)型还可以回答(dá)用户更“主观”的问题,例如产品营销策略。
为了展示“草莓”在语言方面的实力,研究人员向OpenAI内部同事展示(shì)了“草莓”如何解决《纽(niǔ)约时报》上(shàng)刊(kān)登的复杂字谜(mí)游戏。
现(xiàn)有的(de)人工智能并不擅长解决航空航天和结构工(gōng)程等数学密集(jí)型领域的问题,因此,解决棘手数(shù)学问题的AI可能是一个潜在有利可图(tú)的应用。为了提高模型的推理能力(lì),一些初创公司尝试将问题(tí)分解为更小的步骤,但这些办法既慢又贵。
数学推理能力的提升也有助于AI模型更好地处理对话查询(xún),例如客户服务请求。这或许对OpenAI即将推出的AI代(dài)理服务将起到(dào)帮助。
不仅(jǐn)是OpenAI,人工智能领域的其他(tā)主要参与者也在数学推理(lǐ)方面取(qǔ)得了长足进步。例如,谷歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个(gè)用(yòng)于高级数学推理的AI系统。两个系统协(xié)同工作,在2024年国际数学(xué)奥(ào)林匹克竞赛中获得银牌,解决了六道题中的四道。
可帮助训练大模型
对OpenAI,“草莓”不仅是一个即将要(yào)向外界推出的商业模型(xíng),它还被赋予了(le)更重要的(de)使命。
一位知(zhī)情人士向The Information表示,Ope从GPT到“草莓”:OpenAI的野心与安全困境nAI在(zài)使用更大版本的“草(cǎo)莓”来生成训练下一代旗舰模型“猎户座”(Orion)的数据(jù)。该模型旨在改(gǎi)进 其现有的旗舰(jiàn)模(mó)型(xíng)GPT-4并帮助OpenAI领先(xiān)其(qí)他资金雄厚的(de)竞争对手(shǒu),争夺对话式AI或大型语言模型的霸主地位。
GPT-4自2023年3月推出后,就成为一(yī)个改(gǎi)变游戏规则的大 型语言(yán)模型。然(rán)而,在(zài)过去18个月中,竞争对手(shǒu)已基本追赶(gǎn)上来。在某些情(qíng)况下 ,甚至超(chāo)越了(le)OpenAI的最(zuì)新模型。
知情(qíng)人士(shì)表示,这种由人工智能(néng)生成的(de)数据被称为“合成数据”。这意味(wèi)着“草莓”可以帮助OpenAI克服获取足够高质量数据的限制,从而利用从互联网上提取的文本或图(tú)像等现(xiàn)实世界(jiè)数据来训练新(xīn)模型。
代理(lǐ)初创公司Minion AI CEO、GitHub Copilot前首席架构师亚历克(kè)斯·格雷夫利表示,使用“草莓”生成更高质量的训(xùn)练数据可(kě)从GPT到“草莓”:OpenAI的野心与安全困境以帮助OpenAI减少其(qí)模型产生(shēng)的(de)错误数量,即所谓的幻觉。幻觉是(shì)当前生成(chéng)式AI的(de)一个重大限制,这会导致AI经常生成看似合理(lǐ)但实际上不正确(què)的(de)数据。
“想象一下,一个(gè)没有幻觉的(de)模型,你问它一个逻辑难题,它第一次尝试就(jiù)能答 对。”格雷夫利说道。该模(mó)型之所以(yǐ)能够做到这一(yī)点,是因为“训练数据中的歧义较少,所以它猜测的次数较少(shǎo)”。
据The Information报道,OpenAI首席执行官阿尔特曼在5月份的一次活(huó)动中表示:“我们觉得(dé)我们拥有足够的数据(jù)来(lái)开发下一个模型(xíng)。我们已经进行了各种实验,包括生(shēng)成合(hé)成数据。”据(jù)报道,他指的可能就是用(yòng)“草莓(méi)”训练的Orion(猎户座)。
安全隐患 乌云未散(sàn)
不过(guò),就在OpenAI高歌猛进的同时,安全隐患的乌云从未散去。
“草莓”项(xiàng)目源于前OpenAI首(shǒu)席科(kē)学家Ilya Sutskever的早期研究,OpenAI研究(jiū)人员Jakub Pachocki和Szymon Sidor在Sutskever的(de)工(gōng)作基础上开 发了一种新的数学求解模型Q*。
而2023年底,有关(guān)OpenAI的Q*项目消(xiāo)息泄露时,一些专家将该技术定性为人(rén)工智能(néng)(AGI)的突破,但人们对它知之甚少。这也让一些专注于人工智(zhì)能安全的研究人员感到震惊。
这件事(shì)情(qíng)发生在去年OpenAI罢免阿尔特(tè)曼事件之前。据知情人士爆料(liào),此(cǐ)前OpenAI员工之间就公司是否以足够安全(quán)的(de)方式开(kāi)发人工智(zhì)能展(zhǎn)开了(le)争论。安全(quán)也是罢免阿(ā)尔特曼后公司内部损害控制的一个重要主题,当时罢免(miǎn)的发起人正是Sutskever。
此后,安全问题就一直困扰着OpenAI。而在阿尔(ěr)特曼重返OpenAI后,负(fù)责OpenAI安全团队的成员也相继离(lí)开了公(gōng)司。
今年5月离职的OpenAI“超级对齐(qí)”团队(duì)领导(dǎo)人Jan Leike在(zài)社媒平台X上写道:“过去几(jǐ)年,安全文化和流程已经退居次要地(dì)位,而闪亮的产品则成为重中之重。”
鉴于(yú)今年早些(xiē)时候几位安全(quán)部门领导人离(lí)职,以及美国参议员(yuán)伊丽莎白·沃伦等美国(guó)政府高官对于技术安全问题的批评(píng),OpenAI决定提升对政府官员的透明度。
The Information援引一位了解相关会议情况人士的消息称(chēng),今(jīn)年夏天(tiān),在一些并(bìng)未公开的会议上,阿尔特曼的团队向美(měi)国国(guó)家安全官员(yuán)展示了“草莓”模型。
报道指(zhǐ)出,通(tōng)过向政府官员展示一(yī)项尚未发布的技术,OpenAI可能为人工智能开发(fā)者(zhě)树立了新标准,尤其是在先进人工智能日益成为潜在安全隐患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度(dù)的一部分,但如果政策制定者(zhě)认为(wèi)该项技术对国家安全形成威胁,那(nà)么(me)他们可(kě)能给公司带来麻烦。
不过,一些(xiē)业界人士(shì)对此并不买账,因为(wèi)OpenAI并(bìng)未向公众提升透(tòu)明度(dù)。AI初从GPT到“草莓”:OpenAI的野心与安全困境创公司Abacus. AI的(de)CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏(cáng)在背(bèi)后,以此来取得(dé)领先优势。“如果没有开源AI,我们都(dōu)会完蛋,我们可(kě)能会把文(wén)明的控制权(quán)交(jiāo)给1到2家公司。”Bindu Reddy说。
未经允许不得转载:天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了