蚂蚁集团宣布开源“理解与生成统一多模态大模型”Ming-lite-omni。
5月27日,在蚂蚁技术开放日上,蚂蚁集团宣布开源理解与生成统一多模态大模型Ming-lite-omni。
今年以来,在基础模型层面,蚂蚁的百灵大模型团队(Ling Team)开源了2个MoE架构的大语言模型,Ling-lite和Ling-plus,这两个模型在多个算力平台(包括非Hopper架构的国产算力)进行训练,验证了300B尺寸的SOTA MoE大语言模型在非高端算力平台上训练的可行性。
值得注意的是,百灵大模型团队开源的多模态模型Ming,以统一架构集成了多模态理解、生成和编辑能力,为多模态理解与生成统一领域提供了新的尝试。AI技术报告平台alphaxiv的研究报告《Unified Multimodal Understanding and Generation Models: Advances, Challenges, and Opportunities》认为“pushing the boundaries of current methods in both flexibility and performance。”