作者: 财联社 史正丞|
发布时间:2025-02-26 02:03:12
全球AI大混战升温!阿里巴巴万相大模型开源,家用显卡都能运行
摘要
北京时间2025年2月26日,阿里巴巴正式开源其视频生成模型万相2.1,标志着AI驱动的视频创作领域迎来新的开源浪潮。该模型在VBench基准测试中位居全球第一,超越了众多国内外竞品,包括OpenAI的Sora和苹果的STIV。万相2.1的开源将推动视频生成模型的竞争和迭代,降低生产成本和使用门槛。
正文
万相2.1模型开源
阿里巴巴在周二深夜宣布,正式开源其视频生成模型万相2.1。这一举措标志着顶级前沿模型的开源浪潮已涌入由AI驱动的视频创作领域。
AI产业“诸神混战”
本周AI产业竞争激烈,多家公司相继发布重要产品:
- Anthropic发布了首个混合推理AI模型Claude 3.7 Sonnet。
- DeepSeek持续开源5个代码库。
- xAI将推出一系列应用层面的优化。
- 亚马逊计划对语音助手Alexa进行AI升级。
- 坊间传言OpenAI可能会推出GPT-4.5。
模型性能与应用
万相2.1模型分为两个版本:
- 14B版本:适用于专业创作者,迅速上手部署。
- 1.3B版本:适用于家用显卡(如英伟达4090),仅需8.2G显存即可生成480P高质量视频,性能媲美某些5B参数量的闭源大模型。
全球领先的技术突破
万相2.1的技术优势主要体现在:
- 复杂稳定的人物肢体动作:AI生成的视频具有足够的真实性。
- 精准还原复杂物理场景:如碰撞、反弹等。
- 多风格多题材驾驭:模型能够处理各种风格和题材。
- 视频中生成文字:支持中文和英文,这一功能目前是绝大多数竞品未能达到的高度。
市场影响与竞争
万相2.1的开源将对市场产生深远影响:
- 降低生产成本:随着模型的开源,生产力跃升速度加快,成本和使用门槛降低。
- 商业化挑战:OpenAI和谷歌等竞品的定价将面临挑战。例如,OpenAI的Sora面向每月缴纳20/200美元的订阅用户,而谷歌Veo 2模型每生成1秒视频需付费0.5美元,生成一小时视频需花费1800美元。
结论
阿里巴巴万相2.1模型的开源,不仅在技术上取得了全球领先的突破,还将推动整个AI视频生成领域的快速发展。随着更多公司加入竞争,消费者和内容产业从业者将享受到更高效、更低成本的AI视频生成服务。![]()
![]()
延伸阅读
原文链接