当前位置: 首页 > 游戏资讯 > 微软Xbox裁员波及多个团队,《使命召唤:战区手游》因表现不佳已大规模缩减

微软Xbox裁员波及多个团队,《使命召唤:战区手游》因表现不佳已大规模缩减

发布时间:2025-01-09 05:04:45 作者: 阅读:2次

微软最近宣布的一项裁员决定撼动游戏界,涉及约650名员工,主要为支持岗位。游戏部门负责人Phil Spencer强调,此番调整旨在优化团队结构,保障长期发展,不影响工作室运营及游戏开发。但GameFile指出,《使命召唤:战区手游》因表现不佳已实施大规模缩减,揭示了即便是知名品牌,在移动市场亦非稳操胜券。

微软Xbox裁员波及多个团队,《使命召唤:战区手游》因表现不佳已大规模缩减

Spencer虽对新作寄予厚望,希望通过其提振Xbox Game Pass,但成效仍属未知。与此同时,动视暴雪工会代表对裁员背后的“结构调整”说法提出质疑,并呼吁更多团队组建工会,以应对行业不断的人才流失。值得注意的是,微软与动视暴雪合并至今,未见显著正面效应,已有2500名员工失去工作,未来裁员阴影依旧笼罩。

微软揭晓Phi-3.5 AI模型:突破性128K上下文窗口,首推混合专家系统

近日消息,微软公司最新发布的Phi-3.5系列AI模型引起了业界的广泛关注,特别是其中的Phi-3.5-MoE,作为该系列的首个混合专家模型(MoE)版本,标志着微软在AI技术研究上的又一重要里程碑。

微软揭晓Phi-3.5 AI模型:突破性128K上下文窗口,首推混合专家系统

本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。

Phi-3.5-MoE:首个混合专家模型

Phi-3.5-MoE 是 Phi 系列中首个利用混合专家(MoE)技术的模型。该模型在 16 x 3.8B MoE 模型使用 2 个专家仅激活了 66 亿个参数,并使用 512 个 H100 在 4.9T 标记上进行了训练。

微软研究团队从零开始设计该模型,以进一步提高其性能。在标准人工智能基准测试中,Phi-3.5-MoE 的性能超过了 Llama-3.1 8B、Gemma-2-9B 和 Gemini-1.5-Flash,并接近目前的领先者 GPT-4o-mini。

Phi-3.5-vision:增强型多帧图像理解

Phi-3.5-vision 共有 42 亿个参数,使用 256 个 A100 GPU 在 500B 标记上进行训练,现在支持多帧图像理解和推理。

Phi-3.5-vision 在 MMMU(从 40.2 提高到 43.0)、MMBench(从 80.5 提高到 81.9)和文档理解基准 TextVQA(从 70.9 提高到 72.0)上的性能均有提高。

Phi-3.5-mini:轻量级、强功能

Phi-3.5-mini 是一个 38 亿参数模型,超过了 Llama3.1 8B 和 Mistral 7B,甚至可媲美 Mistral NeMo 12B。

该模型使用 512 个 H100 在 3.4T 标记上进行了训练。该模型仅有 3.8B 个有效参数,与拥有更多有效参数的 LLMs 相比,在多语言任务中具有很强的竞争力。

此外,Phi-3.5-mini 现在支持 128K 上下文窗口,而其主要竞争对手 Gemma-2 系列仅支持 8K。

渝ICP备20008086号-35 违法和不良信息举报/未成年人举报:dzhanlcn@163.com

CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved