近日消息,一则关于OpenAI的安全事故报道引起了业界广泛关注。据报道,这家知名人工智能研究机构在2023年早些时候遭遇了一次严重的安全侵扰,黑客设法穿透了其内部邮件防护网,非法获取了大量涉及公司核心人工智能技术讨论及研究资料的敏感通信内容。
值得庆幸的是,尽管邮件系统受损,但黑客并未能进一步触及存放人工智能核心源代码的服务器,从而避免了最坏情况的发生。
本次安全事件由于没有泄露客户数据,OpenAI 公司并没有披露本次安全事件,也没有向 FBI 或者其它执法部门报告,只是通知了董事会以及内部员工。
援引该媒体报道,本次安全事件导致员工质疑 OpenAI 对安全的重视程度,且成为新的导火索,导致了内部员工出现分裂。
其中一个例子是莱奥波德·阿申布伦纳(Leopold Aschenbrenner),他是一名专注于人工智能安全风险的技术项目经理,认为公司在安全方面的技术不够完善。
OpenAI 报复性地解雇了这位经理,而 Aschenbrenner 后来表示,公司是在一起未报告、未指明的安全事件后解雇了他。
近日消息,OpenAI宣布其2024年度DevDay活动将于10月1日起,在旧金山、伦敦、新加坡三地相继展开,为开发者们搭建起探索技术前沿、交流创新思想的国际化平台。
尽管期待满满,但官方确认本次活动并不会揭晓任何新的人工智能前沿模型,转而聚焦于现有技术的深化应用与社区生态建设。
OpenAI 计划在旧金山、伦敦和新加坡分别举办活动,附上具体日程如下:
旧金山:10 月 1 日
伦敦:10 月 30 日
新加坡:11 月 21 日
OpenAI 公司于 2023 年 11 月举办了首届 DevDay 开发者大会,公布了具有 128K 上下文和更低价格的 GPT-4 Turbo、新的 Assistants API、GPT-4 Turbo with Vision、DALL-E 3 API、改进后的 JSON 模型等诸多产品。
而根据官方公告,OpenAI 公司 2024 年的 DevDay 活动重点关注 API 和开发工具的改进:
研讨会:实践技术课程,以加深您的技能并探索 OpenAI 平台和 API 工具的新可能性。
分组会议:由人工智能专家和社区成员主持,讨论有关模型定制、验证、可转向性、扩展性和其他各种主题的最佳实践。
演示:与 OpenAI 产品和工程团队会面,参观其模型和平台。
开发人员聚焦:了解我们才华横溢的开发人员社区和顶级初创公司所创建的突破性项目。
晚间招待会:以晚餐、饮料和娱乐活动结束晚会。
近日,OpenAI公司正在秘密研发一个名为“草莓”的新项目,该项目被视为去年11月宣布的Q*项目的延续和深化。据内部消息和媒体报告,“草莓”项目的目标是大幅增强AI的推理能力,使其在解决问题、规划、理解和生成复杂内容等方面的能力更加接近人类的智力水平。
“草莓”项目会自主、高效地扫描互联网,并可靠地执行 OpenAI 所描述的“深度研究”,让其能够大规模解决更复杂的现实世界问题。
一位内部知情人士透露:“我们希望我们的人工智能模型能够像我们一样看待和理解这个世界。不断研究新的人工智能能力也成为业界共识,我们都相信,这些系统的推理能力会随着时间的推移而不断提高”。
“草莓”项目的目标是在现有 AI 模型基础上进行更广泛的“post-training”分析,实现更接近于人类的反应。
“草莓”项目目前仍在开发阶段,尚不清楚距离正式发布还有多长距离。报道称“草莓”项目的工作原理,即便是在 OpenAI 内部也严格保密,没有太多人了解其细节。
一些业内人士认为该项目是一项技术突破,可以开发出“更强大的人工智能模型”。
近日消息,OpenAI最近公布了一项重要的组织结构调整决定,其CEO山姆·阿尔特曼通过社交媒体平台X宣布,原人工智能安全领域的负责人亚历山大·马德里已转岗至一个新职位,该职位着重于推进人工智能推理领域的发展,这标志着公司在AI研究方向上的又一战略调整。
阿尔特曼在推文中对马德里的工作表示肯定,称其"正在从事一个新的、非常重要的研究项目"。这一调动不仅体现了公司对马德里能力的认可,也凸显了OpenAI对人工智能推理领域研究的重视。
在马德里调任期间,OpenAI高管华金·基诺内罗·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)将共同接管Preparedness团队。该团队主要负责识别前沿模型的新风险,并进行安全评估,以降低人工智能可能带来的"灾难性风险"。
值得注意的是,尽管马德里的工作重心发生了转移,但OpenAI官方表示,他仍将继续参与核心的人工智能安全工作。马德里不仅在OpenAI担任要职,还是麻省理工学院可部署机器学习中心的主任,以及麻省理工学院人工智能政策论坛的教员联合负责人。他丰富的经验和专业知识预计将为OpenAI的人工智能推理研究带来新的突破。
此次重组反映了OpenAI在保持AI安全研究的同时,也在积极推进人工智能推理能力的发展。业内人士普遍认为,这一战略调整将有助于OpenAI在竞争激烈的人工智能领域保持领先地位。
商务办公
48.51MB
其他
13.20MB
视频播放
30.38MB
网络通讯
27MB
趣味休闲
0KB
生活购物
65.38MB
智能系统
16.23MB
30.60MB
益智休闲
9.64MB
角色扮演
174.11MB
86.10MB
81.90MB
12.08MB
37.70MB
167.29MB
205.34MB
渝ICP备20008086号-35 违法和不良信息举报/未成年人举报:dzhanlcn@163.com
CopyRight©2003-2018 违法和不良信息举报(12377) All Right Reserved
OpenAI陷安全质疑漩涡:2023年入侵事件曝光,公司安全文化遭受拷问
近日消息,一则关于OpenAI的安全事故报道引起了业界广泛关注。据报道,这家知名人工智能研究机构在2023年早些时候遭遇了一次严重的安全侵扰,黑客设法穿透了其内部邮件防护网,非法获取了大量涉及公司核心人工智能技术讨论及研究资料的敏感通信内容。
值得庆幸的是,尽管邮件系统受损,但黑客并未能进一步触及存放人工智能核心源代码的服务器,从而避免了最坏情况的发生。
本次安全事件由于没有泄露客户数据,OpenAI 公司并没有披露本次安全事件,也没有向 FBI 或者其它执法部门报告,只是通知了董事会以及内部员工。
援引该媒体报道,本次安全事件导致员工质疑 OpenAI 对安全的重视程度,且成为新的导火索,导致了内部员工出现分裂。
其中一个例子是莱奥波德·阿申布伦纳(Leopold Aschenbrenner),他是一名专注于人工智能安全风险的技术项目经理,认为公司在安全方面的技术不够完善。
OpenAI 报复性地解雇了这位经理,而 Aschenbrenner 后来表示,公司是在一起未报告、未指明的安全事件后解雇了他。
OpenAI宣布10月DevDay盛会归来:聚焦API与开发工具,新模型静候未来
近日消息,OpenAI宣布其2024年度DevDay活动将于10月1日起,在旧金山、伦敦、新加坡三地相继展开,为开发者们搭建起探索技术前沿、交流创新思想的国际化平台。
尽管期待满满,但官方确认本次活动并不会揭晓任何新的人工智能前沿模型,转而聚焦于现有技术的深化应用与社区生态建设。
OpenAI 计划在旧金山、伦敦和新加坡分别举办活动,附上具体日程如下:
旧金山:10 月 1 日
伦敦:10 月 30 日
新加坡:11 月 21 日
OpenAI 公司于 2023 年 11 月举办了首届 DevDay 开发者大会,公布了具有 128K 上下文和更低价格的 GPT-4 Turbo、新的 Assistants API、GPT-4 Turbo with Vision、DALL-E 3 API、改进后的 JSON 模型等诸多产品。
而根据官方公告,OpenAI 公司 2024 年的 DevDay 活动重点关注 API 和开发工具的改进:
研讨会:实践技术课程,以加深您的技能并探索 OpenAI 平台和 API 工具的新可能性。
分组会议:由人工智能专家和社区成员主持,讨论有关模型定制、验证、可转向性、扩展性和其他各种主题的最佳实践。
演示:与 OpenAI 产品和工程团队会面,参观其模型和平台。
开发人员聚焦:了解我们才华横溢的开发人员社区和顶级初创公司所创建的突破性项目。
晚间招待会:以晚餐、饮料和娱乐活动结束晚会。
OpenAI神秘代号“草莓”曝光:AI推理力突破性升级,重塑智能高度
近日,OpenAI公司正在秘密研发一个名为“草莓”的新项目,该项目被视为去年11月宣布的Q*项目的延续和深化。据内部消息和媒体报告,“草莓”项目的目标是大幅增强AI的推理能力,使其在解决问题、规划、理解和生成复杂内容等方面的能力更加接近人类的智力水平。
“草莓”项目会自主、高效地扫描互联网,并可靠地执行 OpenAI 所描述的“深度研究”,让其能够大规模解决更复杂的现实世界问题。
一位内部知情人士透露:“我们希望我们的人工智能模型能够像我们一样看待和理解这个世界。不断研究新的人工智能能力也成为业界共识,我们都相信,这些系统的推理能力会随着时间的推移而不断提高”。
“草莓”项目的目标是在现有 AI 模型基础上进行更广泛的“post-training”分析,实现更接近于人类的反应。
“草莓”项目目前仍在开发阶段,尚不清楚距离正式发布还有多长距离。报道称“草莓”项目的工作原理,即便是在 OpenAI 内部也严格保密,没有太多人了解其细节。
一些业内人士认为该项目是一项技术突破,可以开发出“更强大的人工智能模型”。
OpenAI架构大调整,原AI安全负责人转战推理研究新岗位
近日消息,OpenAI最近公布了一项重要的组织结构调整决定,其CEO山姆·阿尔特曼通过社交媒体平台X宣布,原人工智能安全领域的负责人亚历山大·马德里已转岗至一个新职位,该职位着重于推进人工智能推理领域的发展,这标志着公司在AI研究方向上的又一战略调整。
阿尔特曼在推文中对马德里的工作表示肯定,称其"正在从事一个新的、非常重要的研究项目"。这一调动不仅体现了公司对马德里能力的认可,也凸显了OpenAI对人工智能推理领域研究的重视。
在马德里调任期间,OpenAI高管华金·基诺内罗·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)将共同接管Preparedness团队。该团队主要负责识别前沿模型的新风险,并进行安全评估,以降低人工智能可能带来的"灾难性风险"。
值得注意的是,尽管马德里的工作重心发生了转移,但OpenAI官方表示,他仍将继续参与核心的人工智能安全工作。马德里不仅在OpenAI担任要职,还是麻省理工学院可部署机器学习中心的主任,以及麻省理工学院人工智能政策论坛的教员联合负责人。他丰富的经验和专业知识预计将为OpenAI的人工智能推理研究带来新的突破。
此次重组反映了OpenAI在保持AI安全研究的同时,也在积极推进人工智能推理能力的发展。业内人士普遍认为,这一战略调整将有助于OpenAI在竞争激烈的人工智能领域保持领先地位。
商务办公
48.51MB
其他
13.20MB
视频播放
30.38MB
网络通讯
27MB
趣味休闲
0KB
生活购物
65.38MB
生活购物
0KB
智能系统
16.23MB
商务办公
30.60MB
益智休闲
9.64MB
角色扮演
174.11MB
益智休闲
0KB
益智休闲
86.10MB
其他
81.90MB
益智休闲
12.08MB
益智休闲
37.70MB
益智休闲
167.29MB
角色扮演
205.34MB