从GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低(dī)难度的(de)数学题——9.11和9.9哪个更大(dà),难(nán)倒(dào)了一众海内外AI大模(mó)型,也让外界了解到了大 模型在(zài)推(tuī)理方面的局限性。
不过,情况(kuàng)正在迅速发生改变。当地(dì)时间8月27日(rì),据The Information报(bào)道(dào),OpenAI神秘的“草莓”(Strawberry,前身(shēn)为Q*)项目,计划最早于今年秋季(jì)推出。同时,用(yòng)“草莓”合(hé)成数据来开发(fā)的最(zuì)新大模型——“猎户座”(Orion),或于明年年初推出。
The Information援引知情人士的消息(xī)称,今(jīn)年(nián)夏天,在秘(mì)密会议上,OpenAI向美国国家安全官员(yuán)展(zhǎn)示了“草莓”模型。
推理能力出众
据The Information报道(dào),参与OpenAI该项目的 两名人员透露,研究人员计划在今年(nián)秋季推出代号为“草莓”的新型(xíng)从GPT到“草莓”:OpenAI的野心与安全困境AI,并有可能将其作为ChatGPT的一部分。
据悉,OpenAI希(xī)望通过推出“草(cǎo)莓”为公司筹集更多资金,并 寻(xún)找减少亏损的方(fāng)法。此前,据媒体报道,OpenAI今年的亏损可能高达(dá)50亿美(měi)元。
据前述外媒报道,“草莓”目(mù)前的功能极其强大。它可以(yǐ)解(jiě)决此前从未见过(guò)的数学问题,这是(shì)当前的聊天机器人无法可靠完成的任务。它还(hái)可以(yǐ)解决涉及编(biān)程的问题,且不局限于回答技术性问题。如果给予它(tā)更多时(shí)间“思考”,“草莓”模型还可以回答用户更“主观”的问题,例如产品营销策略。
为了展示(shì)“草莓”在语言方面的实(shí)力,研究人员(yuán)向OpenAI内部(bù)同事展示了(le)“草莓(méi)”如何解决(jué)《纽约时报(bào)》上刊登的复杂字谜游戏。
现有的人工智能并不擅长解决航空航天和结构工程等数学密集型领域的问题,因(yīn)此,解决棘手数学问题的AI可能是一个潜在有利可图的应用。为了提高(gāo)模(mó)型的推理(lǐ)能力(lì),一(yī)些初创公司尝试(shì)将问题分解(jiě)为更小的步骤(zhòu),但这些办法既(jì)慢又贵。
<从GPT到“草莓”:OpenAI的野心与安全困境p>数学推理(lǐ)能力的(de)提升也有助于AI模(mó)型更好地处理对话查询,例如客户服务请求。这或许(xǔ)对OpenAI即(jí)将推出(chū)的AI代理服务将(jiāng)起到帮助。不仅是OpenAI,人工智能(néng)领域的其他主要参与者也在数(shù)学推(tuī)理方面取得了长足进步。例如,谷歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个用于高级(jí)数学推(tuī)理的AI系统。两个系统协同工(gōng)作,在(zài)2024年国(guó)际数(shù)学奥林匹克竞赛中获得银牌,解决了六道题中的四 道。
可帮助训练大模型
对OpenAI,“草莓(méi)”不(bù)仅(jǐn)是一个即将要向(xiàng)外界(jiè)推出的商业模型,它还被赋予了更重要的使命。
一位知情人士向The Information表示,OpenAI在使用更(gèng)大版本的“草莓”来(lái)生成训练下一(yī)代(dài)旗舰模型“猎户座”(Orion)的(de)数(shù)据。该(gāi)模型旨在改进其现有的旗舰(jiàn)模型GPT-4并帮助(zhù)OpenAI领(lǐng)先(xiān)其他资金雄厚的竞争对手,争夺(duó)对话(huà)式AI或大型语言模型的霸(bà)主地位。
GPT-4自2023年3月推出(chū)后(hòu),就(jiù)成为一个改变游戏规则的大型(xíng)语言模型。然而,在过去18个月中,竞争对手已基本追赶(gǎn)上来。在某些情况(kuàng)下,甚至超(chāo)越了OpenAI的最新模型。
知情人士(shì)表示,这种由(yóu)人工智能生成的数(shù)据被(bèi)称为(wèi)“合成数(shù)据”。这意味着“草莓”可以(yǐ)帮助OpenAI克服获取足够高质量数据的限制,从而利用从互联网上提取的文本或图像等现实世界(jiè)数(shù)据来训练新(xīn)模型。
代理(lǐ)初创(chuàng)公司Minion AI CEO、GitHub Copilot前首席架(jià)构师亚历克斯·格雷夫利表示,使用(yòng)“草莓”生成更高质量的训练数(shù)据可以帮助OpenAI减少其(qí)模型产生的错误数量,即所谓的幻觉。幻觉是当前生成式(shì)AI的一个重大限(xiàn)制(zhì),这(zhè)会导致(zhì)AI经常生成看似合理但实际上不正确的数据。
“想象一下,一(yī)个没(méi)有幻觉的模(mó)型,你问它一个逻(luó)辑难题,它第一次尝试就能答对。”格雷夫利说道。该(gāi)模型(xíng)之所以能够做到这一点(diǎn),是因为(wèi)“训练数据(jù)中的(de)歧义较少,所以它猜测的次数较少”。
据The Information报道,OpenAI首席执行官阿尔特(tè)曼在5月份的一次活动中表示(shì):“我(wǒ)们觉得我们拥有足够(gòu)的数 据来开发下(xià)一个(gè)模型。我们已经进行了 各(gè)种实验,包括生成合成数据。”据报道,他指的可能(néng)就是用“草莓”训练的Orion(猎户座)。
安全(quán)隐患乌云未散
不过,就在OpenAI高歌猛进的同时(shí),安全隐患的乌云(yún)从未散去。
“草莓”项目(mù)源于前OpenAI首席科学家Ilya Sutskever的早(zǎo)期研究,OpenAI研(yán)究(jiū)人员Jakub Pachocki和(hé)Szymon Sidor在(zài)Sutskever的工作基础上(shàng)开发了一种(zhǒng)新(xīn)的数学求解模型Q*。
而2023年底,有关OpenAI的Q*项目消息泄露时(shí),一些专(zhuān)家将(jiāng)该技术定性为人工智能(AGI)的突(tū)破,但人们对它知之甚少。这也让一些专注于人工智能安全的研究人员感到(dào)震惊。
这件事情(qíng)发生在去年OpenAI罢免阿尔特曼事件(jiàn)之前。据知情人士爆(bào)料(liào),此前OpenAI员工之间就公司是(shì)否以足够安全的方(fāng)式(shì)开发人工智能展开了争论。安全也是罢免阿尔特曼后公司内(nèi)部损害控制(zhì)的一个重要主题,当时(shí)罢免的发(fā)起人正(zhèng)是(shì)Sutskever。
此后,安全(quán)问题就一(yī)直困扰着OpenAI。而在阿尔特曼重返OpenAI后(hòu),负责OpenAI安全团队(duì)的成员也相继(jì)离开了公司。
今年5月离职的OpenAI“超级对齐”团队领导人Jan Leike在社媒平台X上写道:“过去几(jǐ)年,安全文(wén)化和流程已经退居次要地位,而闪亮的产(chǎn)品则成为重中之重。”
鉴于今年早些时候(hòu)几位安全部门领导人离职,以及美(měi)国参议员(yuán)伊丽莎白·沃伦(lún)等美(měi)国政府高官对于技术安全(quán)问题的批评,OpenAI决定提升(shēng)对政府官员的透明度。
The Information援引一位了(le)解相关会议情(qíng)况人士的消(xiāo)息称,今年(nián)夏天,在一些并未(wèi)公开的会议上,阿尔特曼的团队向美国国家安全(quán)官员展示了“草莓”模型(xíng)。
报道指出,通过向(xiàng)政府官(guān)员展示一项尚(shàng)未发(fā)布的技术,OpenAI可能为(wèi)人工智能(néng)开发者树立了新标准,尤其是(shì)在先进人工(gōng)智能日益成为潜在安全隐患的今(jīn)天。此(cǐ)次(cì)演示可能是OpenAI努力向政策制定者提高(gāo)透明度的一部分,但(dàn)如果政策制定者认(rèn)为该项技术对国(guó)家安全形(xíng)成威胁,那么(me)他们(men)可能(néng)给公司带来麻烦。
不过,一些业界人士对此并不买账,因为OpenAI并未向公(gōng)众提升(shēng)透明度。AI初创(chuàng)公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好(hǎo)的大模(mó)型藏在背后,以此来取得领先优势。“如果没有开(kāi)源AI,我们都会完蛋,我(wǒ)们可能会把文明的控制权交给1到(dào)2家公司。”Bindu Reddy说。
未经允许不得转载:天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了