如果二十年后我們回頭審視今天,我們一定會(huì)認(rèn)為2023年前后是人類歷史上一個(gè)具有里程碑式的一年,而且是在各個(gè)領(lǐng)域都有跨時(shí)代里程碑式的標(biāo)志在這兩年中出現(xiàn)。在科技領(lǐng)域,這個(gè)里程碑式的標(biāo)志就是生成式AI的崛起。
從去年年底,ChatGPT橫空出世,2023年就被業(yè)內(nèi)視為生成式AI的元年。在今年,涉及各行各業(yè)的生成式AI的各種模型、應(yīng)用層出不窮。而在即將進(jìn)入的2024年,就將是生成式AI大規(guī)模得到應(yīng)用的一年。對(duì)于一些頭部企業(yè),從元年到進(jìn)入大規(guī)模應(yīng)用的新年,需要考慮的問題和遇到的問題無疑會(huì)有很大不同。這就是最近戴爾科技對(duì)2024年展望中涉及的主題。
從訓(xùn)練階段到推理階段的轉(zhuǎn)變
2024年,生成式AI仍然是一個(gè)火熱的話題。在2023年中,Google、OpenAI、阿里巴巴等互聯(lián)網(wǎng)巨頭都陸續(xù)推出了自己的生成式AI技術(shù)產(chǎn)品,但是還沒有多少客戶把生成式AI系統(tǒng)投入到實(shí)用中。而且全世界范圍內(nèi)尚沒有哪個(gè)大型企業(yè)在做自己的大模型,這些參與到生成式AI大戰(zhàn)的企業(yè)都是在使用世界各地它們能獲得的基礎(chǔ)模型,然后對(duì)這些基礎(chǔ)模型進(jìn)行調(diào)優(yōu)或者互聯(lián)。
這是基于非?,F(xiàn)實(shí)的成本考慮,大語言模型的訓(xùn)練成本是高昂的,但是垂直行業(yè)的企業(yè)不會(huì)直接在企業(yè)的應(yīng)用中來用這些模型。所以,對(duì)企業(yè)最有利的選擇是進(jìn)一步開發(fā)各種基礎(chǔ)模型,讓這些模型在投入到垂直行業(yè)的生產(chǎn)當(dāng)中的時(shí)候,再向模型輸入各種各樣的數(shù)據(jù)。在使用聊天機(jī)器人Chatbot或者是代碼開發(fā)的過程中,才能夠讓這些模型真正地產(chǎn)生生產(chǎn)力。
對(duì)于這些企業(yè)來說,在進(jìn)入2024年之后,對(duì)于生成式AI的工作重心會(huì)從2023年的訓(xùn)練轉(zhuǎn)換成2024年的推理。戴爾科技集團(tuán)全球首席技術(shù)官John Roese認(rèn)為,這些企業(yè)應(yīng)當(dāng)考慮三個(gè)問題:1)推理的基礎(chǔ)架構(gòu)是什么?2)應(yīng)該把推理放在什么地方?3)如何來確保推理基礎(chǔ)架構(gòu)的安全?
在訓(xùn)練階段,企業(yè)更需要大型的集群和加速的計(jì)算架構(gòu),但到了推理階段則不然,企業(yè)這時(shí)候需要的基礎(chǔ)架構(gòu)主要取決于有多少用戶來使用模型的推理能力。如果企業(yè)有非常成熟的模型但只有很少量的用戶,一臺(tái)服務(wù)器可能就足夠了。反之有一個(gè)非常簡單的模型,但客戶非常多,則可能需要幾十萬臺(tái)服務(wù)器來組成基礎(chǔ)架構(gòu)。
在訓(xùn)練階段,大模型的訓(xùn)練是在數(shù)據(jù)中心當(dāng)中進(jìn)行的,因?yàn)閿?shù)據(jù)中心有大量的加速器。但是推理則要放在數(shù)據(jù)和用戶所在的地方,所以,一般來說推理不會(huì)被放在數(shù)據(jù)中心當(dāng)中,更有可能會(huì)放在邊緣當(dāng)中,必須要接近呼叫中心或者是客戶所在的位置。
這就引出了前述第三個(gè)問題,如何來確保推理基礎(chǔ)架構(gòu)的安全?訓(xùn)練基礎(chǔ)架構(gòu)保護(hù)好自己的數(shù)據(jù)中心就夠了,但如果把推理的基礎(chǔ)架構(gòu)部署到離開數(shù)據(jù)中心更遠(yuǎn)更分散的邊緣中,來到了工廠、制造中心和客戶所在的地方,包括交通運(yùn)輸?shù)木W(wǎng)絡(luò)中,這需要的安全保護(hù)模式就很不一樣,有不同類型的風(fēng)險(xiǎn)、不同類型的攻擊。事實(shí)上,黑客已經(jīng)開始侵入到了邊緣基礎(chǔ)架構(gòu)當(dāng)中,把已經(jīng)投入生產(chǎn)階段的訓(xùn)練模型提取出來做反向工程設(shè)計(jì)進(jìn)行模仿,這樣的攻擊已經(jīng)實(shí)實(shí)在在發(fā)生了。
企業(yè)更需要考慮大模型的運(yùn)營成本
從戴爾科技的經(jīng)驗(yàn)來看,在生成式AI大模型顯示出強(qiáng)大的能力和無限可能的時(shí)候,這些大型企業(yè)各個(gè)部門都表現(xiàn)出強(qiáng)大的興趣,紛紛提出自己的AI創(chuàng)新項(xiàng)目。比如戴爾科技就收到數(shù)百個(gè)提交的生成式AI項(xiàng)目。但通常一個(gè)企業(yè)的資源始終是有限,只能選擇其中的幾個(gè)來重點(diǎn)實(shí)施,減少風(fēng)險(xiǎn),并讓經(jīng)濟(jì)效益最大化。
在訓(xùn)練階段,企業(yè)投入到生成式AI的成本基本都是訓(xùn)練成本,而進(jìn)入2024年后,隨著企業(yè)開始使用這些科技,成本則將會(huì)從訓(xùn)練的成本到運(yùn)營的成本的轉(zhuǎn)變。
零信任是未來安全的必要選擇
零信任的概念并非新事物,已經(jīng)在業(yè)內(nèi)存在很多年。但普遍來說,現(xiàn)行的主流安全架構(gòu)仍然是反應(yīng)型或被動(dòng)型的架構(gòu),這就意味著只有在出現(xiàn)問題之后,企業(yè)才會(huì)有解決方式。但在AI時(shí)代,這樣的安全防護(hù)已經(jīng)遠(yuǎn)遠(yuǎn)不夠了。由于生成式AI大大降低了黑客的技術(shù)門檻,并增加了攻擊頻率和隱蔽性,現(xiàn)在主流的安全模型對(duì)于黑客的反應(yīng)已經(jīng)略顯落伍。
在新形勢(shì)下,零信任就顯得非常必要。對(duì)零信任而言,企業(yè)首先需要識(shí)別什么是好的,什么行為是允許的,除此之外要阻止所有的接入。同時(shí),零信任也是完全的、驗(yàn)證的環(huán)境,要對(duì)它好的行為進(jìn)行描述,一旦出現(xiàn)威脅的情況下,可以實(shí)時(shí)來解決。
每一次科技的飛躍都是社會(huì)生產(chǎn)和商業(yè)模式的更新?lián)Q代,更具有強(qiáng)智能的AI崛起已經(jīng)為人類開啟了新的未來。2024年,行業(yè)中會(huì)有方方面面、各種各樣的技術(shù)通過互聯(lián)互通相輔相成。企業(yè)必須未雨綢繆才能在層出不窮的新技術(shù)迭代中不被動(dòng),不被時(shí)代甩在身后。
訪談
更多做行業(yè)賦能者 HID迎接數(shù)字化浪潮新機(jī)遇 破解新挑戰(zhàn)
今年3月份,全球可信身份解決方案提供商HID發(fā)布了最新的《安防行業(yè)現(xiàn)狀報(bào)告》(以下簡稱“報(bào)告”),該報(bào)告…
數(shù)字化浪潮下,安防廠商如何滿足行業(yè)客戶的定制化需求?
回顧近兩年,受疫情因素影響,包括安防在內(nèi)的諸多行業(yè)領(lǐng)域都遭受了來自市場(chǎng) “不確定性”因素的沖擊,市場(chǎng)…
博思高鄧紹昌:乘產(chǎn)品創(chuàng)新及客戶服務(wù)之舟,在市場(chǎng)變革中逆風(fēng)飛揚(yáng)
11月24日,由慧聰物聯(lián)網(wǎng)、慧聰安防網(wǎng)、慧聰電子網(wǎng)主辦的2022(第十九屆)中國物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)暨品牌盛會(huì),在深…