參考消息網(wǎng)3月5日報(bào)道 美國《國會(huì)山》日報(bào)網(wǎng)站2月11日刊登題為《開源人工智能已是必然,唯一的問題是如何發(fā)展》的文章,作者是英士國際商學(xué)院技術(shù)與商業(yè)教授塞奧佐羅斯·尤金尼奧、英士國際商學(xué)院人工智能社區(qū)聯(lián)合創(chuàng)始人法比奧·瓦爾和“可能”人工智能公司聯(lián)合創(chuàng)始人揚(yáng)·萊謝勒,內(nèi)容編譯如下:
如果一項(xiàng)強(qiáng)大的技術(shù)會(huì)給商業(yè)和社會(huì)帶來重大風(fēng)險(xiǎn),它是否應(yīng)該供人免費(fèi)使用?
許多人認(rèn)為人工智能就屬于這一類技術(shù)。有些人甚至警告說,其構(gòu)成的威脅攸關(guān)人類生存。自ChatGPT等基礎(chǔ)模型問世以來,人工智能專家、企業(yè)高管和監(jiān)管機(jī)構(gòu)之間的爭論主要圍繞這些模型是否應(yīng)該開源這一問題展開。
開放潮流勢不可擋
但一直以來,大家關(guān)注的重點(diǎn)都錯(cuò)了。最近一個(gè)模型的開發(fā)者決定開源一個(gè)幾乎與前沿模型相當(dāng)?shù)娜斯ぶ悄苣P?而且成本低得多),改變了這場爭論的方向。問題不再是“是否”要開源人工智能,而是“如何”開源——在實(shí)現(xiàn)利益最大化的同時(shí)處理好安全與濫用方面的問題。
開源人工智能不僅僅涉及開放代碼,還涵蓋數(shù)據(jù)、算法和模型權(quán)重——從人工智能訓(xùn)練中習(xí)得的參數(shù)。一個(gè)完全開源的人工智能系統(tǒng)包括開放數(shù)據(jù)集、開源代碼和開放模型權(quán)重,但許多機(jī)構(gòu)只發(fā)布模型權(quán)重,這會(huì)限制全面理解或重建該系統(tǒng)的能力。如果權(quán)重是基于未公開的數(shù)據(jù)進(jìn)行訓(xùn)練的,情況就會(huì)變得更加復(fù)雜,這可能引發(fā)責(zé)任問題。雖然開放能鼓勵(lì)創(chuàng)新,但也會(huì)帶來有關(guān)責(zé)任和安全風(fēng)險(xiǎn)的問題。
但開源模型“出人意料”的崛起可能意味著,我們可能正走在人工智能基礎(chǔ)模型的單行道上。這些模型走向開放可能勢不可擋,因?yàn)殚_放能推動(dòng)廣泛應(yīng)用,并創(chuàng)造經(jīng)濟(jì)價(jià)值,進(jìn)而支持模型的改進(jìn)。就像Linux成為如今我們使用的許多軟件的基礎(chǔ)一樣,開源人工智能基礎(chǔ)模型可能很快會(huì)成為生成式人工智能的標(biāo)準(zhǔn)。
風(fēng)險(xiǎn)挑戰(zhàn)不容忽視
支持開源人工智能最有力的論據(jù)之一在于集體創(chuàng)新。公開可用的模型將支持全球協(xié)作。它將加快實(shí)現(xiàn)各項(xiàng)突破,其速度是任何單個(gè)團(tuán)隊(duì)無法實(shí)現(xiàn)的。開放模型還能提高透明度,讓第三方能夠檢測安全漏洞——盡管現(xiàn)代模型龐大的規(guī)模會(huì)使這項(xiàng)工作頗具挑戰(zhàn)性。
經(jīng)濟(jì)可及性是另一個(gè)因素。開源人工智能會(huì)降低進(jìn)入門檻,使小公司、學(xué)術(shù)界和政府(尤其是硅谷以外的)能夠參與競爭。如果管理得當(dāng),這有助于使全球經(jīng)濟(jì)競爭環(huán)境變得更公平。
但開放也會(huì)放大風(fēng)險(xiǎn)。對人工智能模型的無限制訪問會(huì)增加濫用的可能性,比如用于新型網(wǎng)絡(luò)攻擊。專有人工智能模型能讓模型提供商更好地管理使用情況。與專有人工智能不同,開源模型可以被自由修改和重新利用,使得濫用行為更難被追蹤。
從商業(yè)角度看,開源人工智能也會(huì)威脅模型開發(fā)者的競爭優(yōu)勢。投入大量資金訓(xùn)練專有模型的公司可能會(huì)看到它們的創(chuàng)新成果被商品化,從而削弱資金投入和研究的動(dòng)力。知識(shí)產(chǎn)權(quán)問題也隨之而來:如果后來發(fā)現(xiàn)一個(gè)開源模型是基于受版權(quán)保護(hù)的素材進(jìn)行訓(xùn)練的,誰該負(fù)責(zé)呢?
從技術(shù)角度看,質(zhì)量控制和問責(zé)可能成為主要問題。在沒有集中監(jiān)督的情況下,確保人工智能的可靠性會(huì)很困難,盡管風(fēng)險(xiǎn)可以在應(yīng)用層面得到降低。
人工智能依賴三大關(guān)鍵資源:數(shù)據(jù)、算力和數(shù)學(xué)。雖然爭論主要集中在前兩者,但數(shù)學(xué)突破才是大部分進(jìn)展的真正驅(qū)動(dòng)力。畢竟,從古代工程到現(xiàn)代人工智能,數(shù)學(xué)推動(dòng)了一次次變革。數(shù)學(xué)(算法)的進(jìn)步必然會(huì)提高性能和效率。同時(shí),在競爭激烈的人工智能領(lǐng)域,公司可能出于戰(zhàn)略考慮而開源模型,以擾亂競爭對手并獲得優(yōu)勢。
因此,限制模型訪問最終可能是徒勞的。
有效治理迫在眉睫
如果開源人工智能不可避免,治理就必須成為優(yōu)先考慮的問題。一個(gè)負(fù)責(zé)任的框架應(yīng)聚焦三個(gè)關(guān)鍵優(yōu)先事項(xiàng):安全技術(shù)、治理機(jī)制和國際政策協(xié)調(diào)。
開源人工智能的興起需要更好的護(hù)欄技術(shù)——集成安全功能和實(shí)時(shí)監(jiān)控。就像對人類生成的內(nèi)容進(jìn)行網(wǎng)絡(luò)審核一樣,對人工智能生成的內(nèi)容也必須負(fù)責(zé)任地加以管理。對確保負(fù)責(zé)任使用人工智能的工具進(jìn)行投資至關(guān)重要。
人工智能治理應(yīng)借鑒網(wǎng)絡(luò)安全和軟件監(jiān)管的最佳實(shí)踐。例如,模型卡和數(shù)據(jù)文檔可以通過詳細(xì)說明訓(xùn)練數(shù)據(jù)、預(yù)期用例和限制來提高透明度。就像用于網(wǎng)絡(luò)安全的SSL證書一樣,標(biāo)準(zhǔn)化的人工智能安全認(rèn)證可以在不抑制創(chuàng)新的情況下明確問責(zé)。采用此類標(biāo)準(zhǔn)的企業(yè)可能會(huì)贏得消費(fèi)者信任,同時(shí)避免監(jiān)管審查。
最后,人工智能的全球影響要求一定程度——哪怕是最低限度——的全球監(jiān)管協(xié)作。歐盟的《人工智能法案》為負(fù)責(zé)任的人工智能開發(fā)提供了一個(gè)范例,而負(fù)責(zé)任的人工智能開發(fā)必須兼顧創(chuàng)新與風(fēng)險(xiǎn),以及地區(qū)差異。美國和中國以外的國家現(xiàn)在可以更輕松地接納人工智能以彌合技術(shù)差距,這使得國際合作變得更加緊迫。
如果得到有效治理,開源人工智能可以帶來前所未有的價(jià)值:加速創(chuàng)新、促進(jìn)全球競爭、確保透明度甚至安全性。有趣的是,更廣泛地采用人工智能也可能提供資源,以讓人工智能模型在開放人工智能研究中心(OpenAI)等機(jī)構(gòu)的封閉環(huán)境之外繼續(xù)得到改進(jìn)。挑戰(zhàn)在于兼顧開放與風(fēng)險(xiǎn)管理。通過優(yōu)先考慮治理、安全技術(shù)和一定程度的國際協(xié)調(diào),我們能更好地確保人工智能的開放未來如同其倡導(dǎo)者所承諾的那樣具有變革性。
同時(shí),人工智能競賽將從開發(fā)前沿模型轉(zhuǎn)向?qū)⑵鋺?yīng)用于現(xiàn)實(shí)世界。現(xiàn)在可能是一個(gè)轉(zhuǎn)折點(diǎn),人們的注意力將從誰構(gòu)建了最先進(jìn)的模型轉(zhuǎn)移到這些模型如何得以使用上。企業(yè)和監(jiān)管機(jī)構(gòu)是否準(zhǔn)備好迎接這一轉(zhuǎn)變還有待觀察,但有一點(diǎn)是肯定的:人工智能的格局正在改變,開源人工智能的時(shí)代已然來臨。(編譯/朱捷)
(審核:歐云海)