一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

Meta 公司發(fā)布人工智能系統(tǒng):文字生成短視頻

打造 Make-A-Video 的研究人員過濾掉了攻擊性的圖片和文字,但對于由數(shù)百萬和數(shù)以百萬計的文字和圖片組成的數(shù)據(jù)集,幾乎不可能完全刪除有偏見和有害的內(nèi)容。Meta 公司的一位發(fā)言人說,目前還沒有向公眾提供這個模型,“作為這項研究的一部分,我們將繼續(xù)探索進一步完善和減少潛在風險的方法”。

10 月 2 日消息,Meta 公司近日發(fā)布了一個人工智能系統(tǒng),可以根據(jù)文字提示生成短視頻。

IT之家了解到,這個系統(tǒng)名為 Make-A-Video,允許用戶輸入一連串的詞語,比如“一只穿著超級英雄服裝、披著紅色斗篷在天空中飛翔的狗”,然后生成一個五秒鐘的短視頻。

雖然效果相當粗糙,但這個系統(tǒng)顯然要比文字轉(zhuǎn)圖片 AI 系統(tǒng)更高級。

上個月,人工智能實驗室 OpenAI 向所有人提供了其最新的文本轉(zhuǎn)圖像人工智能系統(tǒng) DALL-E,而人工智能初創(chuàng)公司 Stability.AI 則推出了 Stable Diffusion,這是一個開源的文本轉(zhuǎn)圖像系統(tǒng)。

但文本轉(zhuǎn)視頻 AI 系統(tǒng)伴隨著一些更大的挑戰(zhàn)。首先,這些模型需要大量的計算能力。它們比大型文本到圖像的人工智能模型的計算量還要大,后者使用數(shù)百萬張圖像進行訓練,因為僅僅拼湊一個短視頻就需要數(shù)百張圖像。這意味著在可預見的未來,只有大型科技公司才有能力建立這些系統(tǒng)。它們的訓練也比較棘手,因為沒有大規(guī)模的高質(zhì)量視頻與文本配對的數(shù)據(jù)集。

為了解決這個問題,Meta 結合了三個開源圖像和視頻數(shù)據(jù)集的數(shù)據(jù)來訓練其模型。標準的文本轉(zhuǎn)圖像數(shù)據(jù)集的標記靜態(tài)圖像幫助人工智能學習物體的名稱和它們的樣子。一個視頻數(shù)據(jù)庫幫助它學習這些物體應該如何在世界中移動。這兩種方法的結合幫助 Make-A-Video 能夠從文本中大規(guī)模地生成視頻。

Meta 公司稱,該技術可以“為創(chuàng)作者和藝術家?guī)硇碌臋C會”。但是,隨著技術的發(fā)展,人們擔心它可能被用作創(chuàng)造和傳播錯誤信息和深度偽造的有力工具,它可能會使人們更難區(qū)分網(wǎng)上的真實和虛假內(nèi)容。

打造 Make-A-Video 的研究人員過濾掉了攻擊性的圖片和文字,但對于由數(shù)百萬和數(shù)以百萬計的文字和圖片組成的數(shù)據(jù)集,幾乎不可能完全刪除有偏見和有害的內(nèi)容。

Meta 公司的一位發(fā)言人說,目前還沒有向公眾提供這個模型,“作為這項研究的一部分,我們將繼續(xù)探索進一步完善和減少潛在風險的方法”。

THE END
責任編輯:李斌
免責聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!