
Runway debuts API allowing enterprises to build apps, products atop its realistic video AI model

Runway 推出了適用於其 Gen-3 Alpha Turbo 視頻生成模型的 API,使企業能夠將這項技術集成到他們的應用程序中。該 API 目前僅向選擇的合作伙伴提供,有兩種計劃:面向個人和小團隊的基礎版,以及面向較大組織的企業版。定價從每個積分一美分起。Turbo 模型生成的視頻速度比其前身快七倍,旨在提升以視頻為重點的企業的工作流程。Runway 正在逐步推出訪問權限,並從早期合作伙伴那裏收集反饋,然後進行更廣泛的發佈
隨着企業不斷增加對生成式人工智能的投資,Runway 全力以赴,為他們提供最佳產品。今天,總部位於紐約的人工智能初創公司宣佈,他們將其超快視頻生成模型 Gen-3 Alpha Turbo 通過 API 提供給用户。
此舉使 Runway 成為首批允許開發人員和組織將專有的 AI 視頻生成模型集成到其平台、應用程序和服務中的公司之一,為需要視頻內容的內部或外部用例提供支持。想象一下,一家廣告公司能夠即時生成廣告活動的視頻素材。
這一推出承諾顯著提升以視頻為重點的企業的工作流程。然而,Runway 指出 API 不會立即對所有人開放。相反,該公司採取分階段的方式,逐步向所有感興趣的方提供服務。
我們對 Runway API 瞭解多少?
目前僅向特定合作伙伴提供的 Runway API 有兩個主要計劃:面向個人和小團隊的基礎版,以及面向大型組織的企業版。
根據所選擇的計劃,用户將獲得用於將模型集成到其產品中並啓動各種視頻生成任務的端點,界面清晰顯示 “由 Runway 提供支持” 的信息。
API 的基礎價格從每個信用點開始,生成一秒視頻需要五個信用點。
值得注意的是,在這個階段,公司僅通過 API 提供 Gen-3 Alpha Turbo 模型。其他模型,包括原始的 Gen-3 Alpha,尚未在平台上推出。
Turbo 模型於 7 月下旬首次亮相,是 Gen-3 Alpha 的加速版本,能夠以更快的速度從圖像生成視頻,同時更加經濟實惠。Runway 聯合創始人兼首席執行官 Cristóbal 當時表示,該模型幾乎可以 “實時” 生成視頻,僅用 11 秒即可生成 10 秒的片段。
我們訓練了 Gen-3 Alpha 的新版本 Turbo,比原始 Gen-3 Alpha 生成視頻的速度快 7 倍,同時在許多用例上性能相匹配。我們將在未來幾天內推出 Turbo 版本,價格大幅降低,同時... pic.twitter.com/4qbmD15pvY— Runway (@runwayml) 2024 年 7 月 31 日
到目前為止,該模型僅供 Runway 平台上的用户使用。通過 API,公司希望看到更廣泛的企業用例採用,這最終可能提升其收入。
Runway 在一篇博客文章中表示,營銷集團 Omnicom 已經在使用 API,儘管沒有透露該集團如何利用視頻生成技術。其他現有合作伙伴的名稱也沒有被披露。
無論如何,通過這一宣佈,信息傳達得很清楚:Runway 正在採取積極步驟,以在市場上領先於競爭對手,包括尚未推出的 OpenAI 的 Sora 和 Deepmind 的 Veo,並獲得一大批企業客户。
更不用説,儘管圍繞 AI 視頻生成存在諸多批評,從版權案件到關於數據收集用於訓練的問題,該公司一直在積極擴展其產品能力。就在幾天前,它為所有付費訂閲者在網絡上推出了 Gen-3 Alpha Video to Video。
“視頻到視頻代表了一種新的控制機制,用於精確運動、表現力和意圖的生成。要使用視頻到視頻,只需上傳您的輸入視頻,提示任何您喜歡的美學方向,或者從預設樣式中選擇,” 公司在一篇關於 X 的文章中寫道。
儘管尚不清楚 Runway 何時將其其他模型,包括 Gen-3 Alpha,添加到 API 平台上,但感興趣的方已經可以在公司的等待列表上註冊以獲取訪問權限。
Runway 表示,目前正在收集早期合作伙伴的反饋,以進一步完善產品,但計劃在未來幾周內啓動更廣泛的發佈,為所有在等待名單上的客户開放訪問。
