MoE模型
-
元象科技引领AI新纪元:XVERSE-MoE-A4.2B大模型震撼发布,极致压缩展现超凡性能
深圳,2025年4月3日 —— 在人工智能领域,元象科技再次展现其创新实力,今日正式发布全新大模型——XVERSE-MoE-A4.2B。这款采用混合专家模型架构(Mixture of Experts, MoE)的大模型,以仅4.2B的激活参数,实现了与13B模型相媲美的卓越性能,标志着元象科技在AI技术研发上迈出了重要一步。
-
阿里亮出底牌:All in“AI+云”的战略深意与市场展望
阿里展示了底牌:All in“AI “云”的战略意图和市场展望 在数字化转型浪潮席卷全球的今天,阿里巴巴集团再次以其前瞻性的战略布局吸引了业界的广泛关注。2月20日,阿里巴巴集团发…
-
通义千问推出Qwen1.5-MoE-A2.7B:开创新时代的MoE模型
通义千问推出Qwen1.5-MoE-A2.7B:开创新时代的MoE模型 在当今这个信息爆炸的时代,自然语言处理技术正日益成为科技发展的前沿阵地。近日,通义千问团队宣布了一项重大进展…