\u003c/p>\u003cp>據(jù)了解,此次泄露事件是由于自今年年初OpenAI首次預(yù)告了其文本轉(zhuǎn)視頻AI模型 Sora后,一直沒有提供任何具體的更新。導(dǎo)致一群參與OpenAI新型文本轉(zhuǎn)視頻AI模型Sora的測(cè)試藝術(shù)家,因?qū)镜牟粷M而泄露了該模型的早期訪問權(quán)限。\u003c/p>\u003cp>在OpenAI介入并關(guān)閉相應(yīng)權(quán)限之前,已經(jīng)有不少人制作了AI視頻并流出。此次對(duì)于OpenAI會(huì)造成什么樣的影響呢?\u003c/p>\u003cp>\u003cstrong>藝術(shù)家們的憤怒\u003c/strong>\u003c/p>\u003cp>據(jù)悉,泄露者通過AI開發(fā)平臺(tái)Hugging Face發(fā)布了一個(gè)與Sora API相關(guān)的項(xiàng)目,利用早期訪問的認(rèn)證token,創(chuàng)建了一個(gè)前端界面,允許用戶生成視頻。通過這個(gè)前端,任何用戶都可以輸入簡短的文字描述,生成最長10秒、分辨率高達(dá)1080p的視頻。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/137098502641A7E14175C4D1584E86A333B453B9_size53_w1080_h606.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 359px;\" />\u003c/p>\u003cp>隨后,許多用戶在社交媒體上分享了生成的視頻示例,這些視頻大多帶有OpenAI的視覺水印。然而,短暫地開放了1小時(shí)左右,前端界面就停止了工作,外界猜測(cè)OpenAI和Hugging Face可能已經(jīng)撤銷了訪問權(quán)限。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/4430CBB28E54C57B486449B262D6D1816A8A89B3_size42_w1080_h605.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 358px;\" />\u003c/p>\u003cp>而且,這些藝術(shù)家在Hugging Face這一公共AI模型平臺(tái)上發(fā)布了他們的抗議信,聲稱自己在測(cè)試過程中被公司利用,成為 “無償?shù)难邪l(fā)和公關(guān)工具”。\u003c/p>\u003cp>在這封公開信中,藝術(shù)家們表示:“親愛的企業(yè)AI領(lǐng)主們,我們獲得Sora的測(cè)試權(quán)限時(shí),被承諾是早期測(cè)試者和創(chuàng)意合作伙伴。然而,我們認(rèn)為自己只是被引誘進(jìn)入一種‘藝術(shù)洗白’的過程,為Sora做宣傳。” 他們強(qiáng)調(diào),藝術(shù)家不是公司的 “免費(fèi)bug測(cè)試員、宣傳工具、訓(xùn)練數(shù)據(jù)或驗(yàn)證token”。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/40C19525C34D5FEE3BEDFDFBB658773018D68C1A_size43_w640_h459.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 459px;\" />\u003c/p>\u003cp>有意思的是,在公開信相關(guān)網(wǎng)站上,它獲得了122名聯(lián)名支持者,其中甚至出現(xiàn)了馬斯克的名字。但考慮到簽名系統(tǒng)不需要嚴(yán)格的身份認(rèn)證,暫時(shí)不能確定其是否為馬斯克本人。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/82A9E184B070686F4052E5708C1A33097470494B_size29_w283_h569.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 283px; height: 569px;\" />\u003c/p>\u003cp>在事件發(fā)生后,當(dāng)有媒體聯(lián)系OpenAI時(shí),OpenAI并未證實(shí)Sora泄露的真實(shí)性,但強(qiáng)調(diào)參與 “研究預(yù)覽” 的藝術(shù)家是自愿的,并不需要提供反饋或使用該工具。\u003c/p>\u003cp>科技旋渦認(rèn)為,年初OpenAI首次向世界展示了Sora,其生成視頻的時(shí)長、質(zhì)量讓人耳目一新,但幾乎一年時(shí)間過去了,OpenAI對(duì)Sora還沒有有效更新,不過這還不是最可怕的,如果當(dāng)它的正式版本發(fā)布后,已經(jīng)屬于落后的技術(shù),那才是OpenAI的悲哀。\u003c/p>\u003cp>\u003cstrong>OpenAI的安全問題\u003c/strong>\u003c/p>\u003cp>Sora相關(guān)項(xiàng)目的泄露很容易讓人們聯(lián)想到安全的問題,如果這個(gè)事件繼續(xù)發(fā)酵,很容易讓大家對(duì)利用大量數(shù)據(jù)進(jìn)行訓(xùn)練的AI公司失去信任。\u003c/p>\u003cp>而且,這樣的安全隱患隨著一位已辭職的OpenAI團(tuán)隊(duì)負(fù)責(zé)人的發(fā)言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團(tuán)隊(duì),該團(tuán)隊(duì)曾經(jīng)負(fù)責(zé)向這家AI初創(chuàng)公司提供如何處理與應(yīng)對(duì)越來越強(qiáng)大的AI技術(shù)方面的解決方案與建議,以及提供當(dāng)今世界是否準(zhǔn)備好管理這些技術(shù)方面的建議。“AGI Readiness”團(tuán)隊(duì)曾經(jīng)的團(tuán)隊(duì)主管表示,希望在外部繼續(xù)AGI領(lǐng)域的相關(guān)研究。近期越來越多跡象表明,OpenAI似乎全身心投入AI創(chuàng)收,無暇顧及AI安全。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/C2F6D752447B63575E416D96EB6580E5FA799E70_size19_w1000_h562.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 359px;\" />\u003c/p>\u003cp>而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發(fā)出長信,官宣離開OpenAI的安全團(tuán)隊(duì)。\u003c/p>\u003cp>今年9月,OpenAI宣布其安全與安保委員會(huì)將成為獨(dú)立的董事會(huì)監(jiān)督委員會(huì),該委員會(huì)于今年5月成立,負(fù)責(zé)處理有關(guān)安全流程的爭(zhēng)議。該委員會(huì)最近結(jié)束了為期90天的審查,對(duì)OpenAI的流程和保障措施進(jìn)行了評(píng)估,然后向董事會(huì)提出了建議。\u003c/p>\u003cp>高管離職和董事會(huì)變動(dòng)的消息也是繼今年夏天圍繞OpenAI的安全問題和爭(zhēng)議日益增多之后傳出的,此時(shí)OpenAI與谷歌、微軟、Meta和其他公司正處于生成式人工智能軍備競(jìng)賽的風(fēng)口浪尖——據(jù)預(yù)測(cè),這個(gè)市場(chǎng)將在十年內(nèi)達(dá)到1萬億美元的營收規(guī)模——因?yàn)楦餍懈鳂I(yè)的公司似乎都急于增加人工智能聊天機(jī)器人和代理,以避免被競(jìng)爭(zhēng)對(duì)手甩在身后。\u003c/p>\u003cp>據(jù)The Information援引一位了解相關(guān)會(huì)議情況的人士透露,今年夏天,在一些并未公開的會(huì)議上,奧特曼的團(tuán)隊(duì)向美國國家安全官員展示了“草莓”模型。\u003c/p>\u003cp>\u003cimg class=\"empty_bg\" data-lazyload=\"https://x0.ifengimg.com/res/2024/8CFD622B91E74A0C885E9E3AFDDB53D3CFE2D6E8_size48_w1080_h608.jpg\" src=\"data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==\" style=\" width: 640px; height: 360px;\" />\u003c/p>\u003cp>報(bào)道指出,通過向政府官員展示一項(xiàng)尚未發(fā)布的技術(shù),OpenAI可能為人工智能開發(fā)者樹立了新標(biāo)準(zhǔn),尤其是在先進(jìn)人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認(rèn)為該項(xiàng)技術(shù)形成威脅,那么他們可能給公司帶來麻煩。\u003c/p>\u003cp>不過,一些業(yè)界人士對(duì)此并不買賬,因?yàn)镺penAI并未向公眾提升透明度。AI初創(chuàng)公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背后,以此來取得領(lǐng)先優(yōu)勢(shì)。“如果沒有開源AI,我們都會(huì)完蛋,我們可能會(huì)把文明的控制權(quán)交給1到2家公司。”\u003c/p>\u003cp>\u003cstrong>寫在最后\u003c/strong>\u003c/p>\u003cp>雖然這次藝術(shù)家們的泄露只是抒發(fā)出自己的不滿,好像沒有造成更大的影響,但OpenAI的ChatGPT平臺(tái)被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環(huán)境中游刃有余,文件上傳、命令執(zhí)行甚至文件結(jié)構(gòu)瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現(xiàn),進(jìn)一步凸顯了OpenAI在網(wǎng)絡(luò)安全方面的潛在風(fēng)險(xiǎn)。\u003c/p>\u003cp>本文來自微信公眾號(hào)“科技旋渦”,作者:賈桂鵬\u003c/p>","type":"text"}],"currentPage":0,"pageSize":1},"editorName":"于雷","editorCode":"PT032","faceUrl":"http://ishare.ifeng.com/mediaShare/home/1613433/media","vestAccountDetail":{},"subscribe":{"type":"vampire","cateSource":"","isShowSign":0,"parentid":"0","parentname":"科技","cateid":"1613433","catename":"茶飲消息","logo":"https://x0.ifengimg.com/ucms/2024_34/3BA3D45D7EE263A8AAE70FF35CF301EFFCE3B10F_size17_w200_h200.jpg","description":"關(guān)注新茶飲行業(yè)趨勢(shì),了解各品牌產(chǎn)品上新信息。","api":"http://api.3g.ifeng.com/api_wemedia_list?cid=1613433","share_url":"https://share.iclient.ifeng.com/share_zmt_home?tag=home&cid=1613433","eAccountId":1613433,"status":1,"honorName":"","honorImg":"","honorImg_night":"","forbidFollow":0,"forbidJump":0,"fhtId":"","view":1,"sourceFrom":"","declare":"","originalName":"","redirectTab":"article","authorUrl":"https://ishare.ifeng.com/mediaShare/home/1613433/media","newsTime":"2024-11-27 20:15:30","lastArticleAddress":"來自北京市"}},"keywords":"openai,ai,sora,模型,藝術(shù)家,人工智能,視頻,權(quán)限,公司,董事會(huì)","safeLevel":0,"isCloseAlgRec":false,"interact":{"isCloseShare":false,"isCloseLike":false,"isOpenCandle":false,"isOpenpray":false},"hasCopyRight":false,"sourceReason":""};
var adKeys = ["adHead","adBody","topAd","logoAd","topicAd","contentAd","articleBottomAd","infoAd","hardAd","serviceAd","contentBottomAd","commentAd","commentBottomAd","articleAd","videoAd","asideAd1","asideAd2","asideAd3","asideAd4","asideAd5","asideAd6","bottomAd","floatAd1","floatAd2"];
var __apiReport = (Math.random() > 0.99);
var __apiReportMaxCount = 50;
for (var i = 0,len = adKeys.length; i 11月27日凌晨,OpenAI的文生視頻模型Sora,被人惡意泄露了API,使其短暫地開放了1小時(shí)左右。 據(jù)了解,此次泄露事件是由于自今年年初OpenAI首次預(yù)告了其文本轉(zhuǎn)視頻AI模型 Sora后,一直沒有提供任何具體的更新。導(dǎo)致一群參與OpenAI新型文本轉(zhuǎn)視頻AI模型Sora的測(cè)試藝術(shù)家,因?qū)镜牟粷M而泄露了該模型的早期訪問權(quán)限。 在OpenAI介入并關(guān)閉相應(yīng)權(quán)限之前,已經(jīng)有不少人制作了AI視頻并流出。此次對(duì)于OpenAI會(huì)造成什么樣的影響呢? 藝術(shù)家們的憤怒 據(jù)悉,泄露者通過AI開發(fā)平臺(tái)Hugging Face發(fā)布了一個(gè)與Sora API相關(guān)的項(xiàng)目,利用早期訪問的認(rèn)證token,創(chuàng)建了一個(gè)前端界面,允許用戶生成視頻。通過這個(gè)前端,任何用戶都可以輸入簡短的文字描述,生成最長10秒、分辨率高達(dá)1080p的視頻。 隨后,許多用戶在社交媒體上分享了生成的視頻示例,這些視頻大多帶有OpenAI的視覺水印。然而,短暫地開放了1小時(shí)左右,前端界面就停止了工作,外界猜測(cè)OpenAI和Hugging Face可能已經(jīng)撤銷了訪問權(quán)限。 而且,這些藝術(shù)家在Hugging Face這一公共AI模型平臺(tái)上發(fā)布了他們的抗議信,聲稱自己在測(cè)試過程中被公司利用,成為 “無償?shù)难邪l(fā)和公關(guān)工具”。 在這封公開信中,藝術(shù)家們表示:“親愛的企業(yè)AI領(lǐng)主們,我們獲得Sora的測(cè)試權(quán)限時(shí),被承諾是早期測(cè)試者和創(chuàng)意合作伙伴。然而,我們認(rèn)為自己只是被引誘進(jìn)入一種‘藝術(shù)洗白’的過程,為Sora做宣傳。” 他們強(qiáng)調(diào),藝術(shù)家不是公司的 “免費(fèi)bug測(cè)試員、宣傳工具、訓(xùn)練數(shù)據(jù)或驗(yàn)證token”。 有意思的是,在公開信相關(guān)網(wǎng)站上,它獲得了122名聯(lián)名支持者,其中甚至出現(xiàn)了馬斯克的名字。但考慮到簽名系統(tǒng)不需要嚴(yán)格的身份認(rèn)證,暫時(shí)不能確定其是否為馬斯克本人。 在事件發(fā)生后,當(dāng)有媒體聯(lián)系OpenAI時(shí),OpenAI并未證實(shí)Sora泄露的真實(shí)性,但強(qiáng)調(diào)參與 “研究預(yù)覽” 的藝術(shù)家是自愿的,并不需要提供反饋或使用該工具。 科技旋渦認(rèn)為,年初OpenAI首次向世界展示了Sora,其生成視頻的時(shí)長、質(zhì)量讓人耳目一新,但幾乎一年時(shí)間過去了,OpenAI對(duì)Sora還沒有有效更新,不過這還不是最可怕的,如果當(dāng)它的正式版本發(fā)布后,已經(jīng)屬于落后的技術(shù),那才是OpenAI的悲哀。 OpenAI的安全問題 Sora相關(guān)項(xiàng)目的泄露很容易讓人們聯(lián)想到安全的問題,如果這個(gè)事件繼續(xù)發(fā)酵,很容易讓大家對(duì)利用大量數(shù)據(jù)進(jìn)行訓(xùn)練的AI公司失去信任。 而且,這樣的安全隱患隨著一位已辭職的OpenAI團(tuán)隊(duì)負(fù)責(zé)人的發(fā)言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團(tuán)隊(duì),該團(tuán)隊(duì)曾經(jīng)負(fù)責(zé)向這家AI初創(chuàng)公司提供如何處理與應(yīng)對(duì)越來越強(qiáng)大的AI技術(shù)方面的解決方案與建議,以及提供當(dāng)今世界是否準(zhǔn)備好管理這些技術(shù)方面的建議。“AGI Readiness”團(tuán)隊(duì)曾經(jīng)的團(tuán)隊(duì)主管表示,希望在外部繼續(xù)AGI領(lǐng)域的相關(guān)研究。近期越來越多跡象表明,OpenAI似乎全身心投入AI創(chuàng)收,無暇顧及AI安全。 而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發(fā)出長信,官宣離開OpenAI的安全團(tuán)隊(duì)。 今年9月,OpenAI宣布其安全與安保委員會(huì)將成為獨(dú)立的董事會(huì)監(jiān)督委員會(huì),該委員會(huì)于今年5月成立,負(fù)責(zé)處理有關(guān)安全流程的爭(zhēng)議。該委員會(huì)最近結(jié)束了為期90天的審查,對(duì)OpenAI的流程和保障措施進(jìn)行了評(píng)估,然后向董事會(huì)提出了建議。 高管離職和董事會(huì)變動(dòng)的消息也是繼今年夏天圍繞OpenAI的安全問題和爭(zhēng)議日益增多之后傳出的,此時(shí)OpenAI與谷歌、微軟、Meta和其他公司正處于生成式人工智能軍備競(jìng)賽的風(fēng)口浪尖——據(jù)預(yù)測(cè),這個(gè)市場(chǎng)將在十年內(nèi)達(dá)到1萬億美元的營收規(guī)模——因?yàn)楦餍懈鳂I(yè)的公司似乎都急于增加人工智能聊天機(jī)器人和代理,以避免被競(jìng)爭(zhēng)對(duì)手甩在身后。 據(jù)The Information援引一位了解相關(guān)會(huì)議情況的人士透露,今年夏天,在一些并未公開的會(huì)議上,奧特曼的團(tuán)隊(duì)向美國國家安全官員展示了“草莓”模型。 報(bào)道指出,通過向政府官員展示一項(xiàng)尚未發(fā)布的技術(shù),OpenAI可能為人工智能開發(fā)者樹立了新標(biāo)準(zhǔn),尤其是在先進(jìn)人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認(rèn)為該項(xiàng)技術(shù)形成威脅,那么他們可能給公司帶來麻煩。 不過,一些業(yè)界人士對(duì)此并不買賬,因?yàn)镺penAI并未向公眾提升透明度。AI初創(chuàng)公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背后,以此來取得領(lǐng)先優(yōu)勢(shì)。“如果沒有開源AI,我們都會(huì)完蛋,我們可能會(huì)把文明的控制權(quán)交給1到2家公司。” 寫在最后 雖然這次藝術(shù)家們的泄露只是抒發(fā)出自己的不滿,好像沒有造成更大的影響,但OpenAI的ChatGPT平臺(tái)被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環(huán)境中游刃有余,文件上傳、命令執(zhí)行甚至文件結(jié)構(gòu)瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現(xiàn),進(jìn)一步凸顯了OpenAI在網(wǎng)絡(luò)安全方面的潛在風(fēng)險(xiǎn)。 本文來自微信公眾號(hào)“科技旋渦”,作者:賈桂鵬杭州吐腿建材有限公司
OpenAI視頻模型Sora被惡意泄露,又拉馬斯克背鍋?