微软最近宣布的一项裁员决定撼动游戏界,涉及约650名员工,主要为支持岗位。游戏部门负责人Phil Spencer强调,此番调整旨在优化团队结构,保障长期发展,不影响工作室运营及游戏开发。但GameFile指出,《使命召唤:战区手游》因表现不佳已实施大规模缩减,揭示了即便是知名品牌,在移动市场亦非稳操胜券。
Spencer虽对新作寄予厚望,希望通过其提振Xbox Game Pass,但成效仍属未知。与此同时,动视暴雪工会代表对裁员背后的“结构调整”说法提出质疑,并呼吁更多团队组建工会,以应对行业不断的人才流失。值得注意的是,微软与动视暴雪合并至今,未见显著正面效应,已有2500名员工失去工作,未来裁员阴影依旧笼罩。
近日消息,微软公司最新发布的Phi-3.5系列AI模型引起了业界的广泛关注,特别是其中的Phi-3.5-MoE,作为该系列的首个混合专家模型(MoE)版本,标志着微软在AI技术研究上的又一重要里程碑。
本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。
Phi-3.5-MoE:首个混合专家模型
Phi-3.5-MoE 是 Phi 系列中首个利用混合专家(MoE)技术的模型。该模型在 16 x 3.8B MoE 模型使用 2 个专家仅激活了 66 亿个参数,并使用 512 个 H100 在 4.9T 标记上进行了训练。
微软研究团队从零开始设计该模型,以进一步提高其性能。在标准人工智能基准测试中,Phi-3.5-MoE 的性能超过了 Llama-3.1 8B、Gemma-2-9B 和 Gemini-1.5-Flash,并接近目前的领先者 GPT-4o-mini。
Phi-3.5-vision:增强型多帧图像理解
Phi-3.5-vision 共有 42 亿个参数,使用 256 个 A100 GPU 在 500B 标记上进行训练,现在支持多帧图像理解和推理。
Phi-3.5-vision 在 MMMU(从 40.2 提高到 43.0)、MMBench(从 80.5 提高到 81.9)和文档理解基准 TextVQA(从 70.9 提高到 72.0)上的性能均有提高。
Phi-3.5-mini:轻量级、强功能
Phi-3.5-mini 是一个 38 亿参数模型,超过了 Llama3.1 8B 和 Mistral 7B,甚至可媲美 Mistral NeMo 12B。
该模型使用 512 个 H100 在 3.4T 标记上进行了训练。该模型仅有 3.8B 个有效参数,与拥有更多有效参数的 LLMs 相比,在多语言任务中具有很强的竞争力。
此外,Phi-3.5-mini 现在支持 128K 上下文窗口,而其主要竞争对手 Gemma-2 系列仅支持 8K。
视频播放
30.38MB
商务办公
48.51MB
生活购物
0KB
网络通讯
27MB
65.38MB
主题妆饰
50.15MB
其他
13.20MB
116.10MB
70.56MB
益智休闲
9.64MB
塔防谋略
190.57MB
43.26MB
43.91MB
角色扮演
14.90MB
45.95MB
渝ICP备20008086号-35 违法和不良信息举报/未成年人举报:dzhanlcn@163.com
CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved
微软Xbox裁员波及多个团队,《使命召唤:战区手游》因表现不佳已大规模缩减
微软最近宣布的一项裁员决定撼动游戏界,涉及约650名员工,主要为支持岗位。游戏部门负责人Phil Spencer强调,此番调整旨在优化团队结构,保障长期发展,不影响工作室运营及游戏开发。但GameFile指出,《使命召唤:战区手游》因表现不佳已实施大规模缩减,揭示了即便是知名品牌,在移动市场亦非稳操胜券。
Spencer虽对新作寄予厚望,希望通过其提振Xbox Game Pass,但成效仍属未知。与此同时,动视暴雪工会代表对裁员背后的“结构调整”说法提出质疑,并呼吁更多团队组建工会,以应对行业不断的人才流失。值得注意的是,微软与动视暴雪合并至今,未见显著正面效应,已有2500名员工失去工作,未来裁员阴影依旧笼罩。
微软揭晓Phi-3.5 AI模型:突破性128K上下文窗口,首推混合专家系统
近日消息,微软公司最新发布的Phi-3.5系列AI模型引起了业界的广泛关注,特别是其中的Phi-3.5-MoE,作为该系列的首个混合专家模型(MoE)版本,标志着微软在AI技术研究上的又一重要里程碑。
本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。
Phi-3.5-MoE:首个混合专家模型
Phi-3.5-MoE 是 Phi 系列中首个利用混合专家(MoE)技术的模型。该模型在 16 x 3.8B MoE 模型使用 2 个专家仅激活了 66 亿个参数,并使用 512 个 H100 在 4.9T 标记上进行了训练。
微软研究团队从零开始设计该模型,以进一步提高其性能。在标准人工智能基准测试中,Phi-3.5-MoE 的性能超过了 Llama-3.1 8B、Gemma-2-9B 和 Gemini-1.5-Flash,并接近目前的领先者 GPT-4o-mini。
Phi-3.5-vision:增强型多帧图像理解
Phi-3.5-vision 共有 42 亿个参数,使用 256 个 A100 GPU 在 500B 标记上进行训练,现在支持多帧图像理解和推理。
Phi-3.5-vision 在 MMMU(从 40.2 提高到 43.0)、MMBench(从 80.5 提高到 81.9)和文档理解基准 TextVQA(从 70.9 提高到 72.0)上的性能均有提高。
Phi-3.5-mini:轻量级、强功能
Phi-3.5-mini 是一个 38 亿参数模型,超过了 Llama3.1 8B 和 Mistral 7B,甚至可媲美 Mistral NeMo 12B。
该模型使用 512 个 H100 在 3.4T 标记上进行了训练。该模型仅有 3.8B 个有效参数,与拥有更多有效参数的 LLMs 相比,在多语言任务中具有很强的竞争力。
此外,Phi-3.5-mini 现在支持 128K 上下文窗口,而其主要竞争对手 Gemma-2 系列仅支持 8K。
视频播放
30.38MB
商务办公
48.51MB
生活购物
0KB
网络通讯
27MB
生活购物
65.38MB
主题妆饰
50.15MB
其他
13.20MB
生活购物
116.10MB
生活购物
70.56MB
益智休闲
9.64MB
益智休闲
0KB
益智休闲
0KB
益智休闲
0KB
塔防谋略
190.57MB
益智休闲
43.26MB
益智休闲
43.91MB
角色扮演
14.90MB
益智休闲
45.95MB