12月12日,AI視頻生成公司Runway正式發布其首個通用世界模型GWM-1,并同步升級視頻生成模型Gen-4.5。GWM-1基于Gen-4.5構建,采用自回歸架構逐幀生成視頻,能夠通過逐幀預測構建理解物理規律與時間演化的動態仿真環境。該模型支持通過攝像機姿態、機器人指令、音頻等動作進行交互式控制,標志著AI從被動生成向主動模擬的轉變。GWM-1包含三個專業化分支:GWM-Worlds用于創建可探索的交互式環境,能夠實時模擬無限、連貫的虛擬世界,支持24幀/秒、720p分辨率的動態生成;GWM-Robotics作為學習型模擬器,通過合成數據模擬天氣變化、動態障礙物等復雜變量,幫助機器人在高風險場景中預演行為;GWM-Avatars則專注于生成具備真實人類行為邏輯的數字人,在長時對話中穩定呈現自然的面部表情、眼球運動、口型同步和手勢。與此同時,Runway對Gen-4.5視頻生成模型進行了重大升級,新增原生音頻生成與編輯、多鏡頭視頻編輯等功能。新版本支持生成一分鐘以內、角色連貫的復雜視頻,并能保持角色一致性、添加原生對話和背景音效。用戶可對已有視頻的音頻進行精細編輯,或對任意長度的多鏡頭作品進行微調。在Video Arena排行榜上,Gen-4.5以1247分超越谷歌Veo 3和OpenAI Sora 2 Pro,成為當前評分最高的文生視頻模型。Runway首席技術官Anastasis Germanidis在直播中表示:"要構建世界模型,首先需要構建一個真正卓越的視頻模型。我們相信,直接預測像素是實現通用模擬的最佳路徑。"公司強調,盡管目前三個分支在技術上獨立,但最終目標是將它們融合為統一的通用世界模型。Runway已計劃通過SDK向合作伙伴開放GWM-Robotics模塊,目前正與多家機器人制造企業進行深度接洽。(來源于網絡)