一個(gè)通過文本文檔生成視頻的AI應(yīng)用教程
如今AI發(fā)展的越來越迅猛了,從一開始的文本生成,到后來的圖像生成,然后出現(xiàn)了基于人工智能出了各式各樣的插件和應(yīng)用,最近又包括之前分享的AI翻唱:AI實(shí)現(xiàn)孫燕姿翻唱周杰倫的歌曲,全景圖像生成:用Skybox AI如何生成全景圖片,如今又有了依據(jù)文本生成視頻的AI應(yīng)用。
這是個(gè)github上的一個(gè)項(xiàng)目,下面教大家如何在google colab上實(shí)現(xiàn)云端部署:
(資料圖)
首先打開github,搜索camenduru:
選擇camenduru/text-to-video-synthesis-colab這個(gè)項(xiàng)目,跳轉(zhuǎn)頁面進(jìn)入后,點(diǎn)擊readme.md里的框框。
這個(gè)項(xiàng)目將會(huì)在google colab上部署,界面如下如:
上面代碼框是需要部署環(huán)境,下面左側(cè)的代碼框是生成視頻。右側(cè)是參數(shù)設(shè)置包括提示詞,避免提示詞,跳數(shù),生成的圖像與輸入提示的緊密程度與輸入的多樣性之間的權(quán)衡,幀率,總的幀數(shù)等。
等視頻文件生成完畢,點(diǎn)擊文件圖標(biāo)
在output里下載文件到本地,就能查看視頻效果。
注意由于自己的colab是免費(fèi)版本,如果生成更長視頻則云端環(huán)境不會(huì)分配更多的GPU和內(nèi)存會(huì)導(dǎo)致錯(cuò)誤。為了避免報(bào)錯(cuò),只能減少生成的數(shù)據(jù)或者購買谷歌服務(wù)(捂臉):
分享一個(gè)我生成的視頻:
再分享一個(gè)項(xiàng)目,同樣是文本轉(zhuǎn)視頻:Picsart-AI-Research/Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators (github.com),感興趣的同學(xué)自己動(dòng)手試試吧。
標(biāo)簽: