近日,科技界迎來了一項創新突破,Stability AI 公司推出了一款名為 Stable Virtual Camera 的全新人工智能模型,該模型能夠將靜態圖片轉化為極具沉浸感的3D視頻,引起了廣泛關注。
Stable Virtual Camera 與傳統的3D動畫制作方式大相徑庭,它摒棄了繁瑣的場景建模過程,而是借助先進的AI擴散技術,輕松實現逼真的相機運動和深度效果。這一創新標志著AI在視頻生成領域的能力邁上了新的臺階。
據悉,用戶只需提供一張或最多32張圖片,Stable Virtual Camera 便能根據預設或用戶自定義的相機運動效果,生成生動的3D視頻。該工具內置了14種預設的運動路徑,涵蓋了360°旋轉、8字形軌跡、螺旋上升、滑軌變焦、平移、搖攝和翻滾等多種效果,同時支持正方形、豎屏和橫屏等多種視頻格式,極大地滿足了用戶的多樣化需求。
然而,Stable Virtual Camera 并非完美無缺。Stability AI 公司坦誠地指出,在處理復雜場景、不規則物體、水面反射以及精細的人體細節時,該模型可能會出現閃爍偽影和不一致的情況。盡管如此,這一創新成果依然令人矚目。
目前 Stable Virtual Camera 僅以研究許可的形式提供,尚未開放商業應用。但好消息是,該模型的代碼已在 GitHub 上開源,模型權重也托管在 Hugging Face 平臺上,供研究人員和開發者自由探索和使用。
Stable Virtual Camera 的推出,無疑為視頻制作領域帶來了新的可能性和機遇。隨著技術的不斷進步和完善,相信未來這一模型將在更多領域發揮巨大的潛力。