543
0每经记者 文巧每经实习记者 岳楚鹏每经编辑 高涵 当地时间8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上发表了长达一小时的演讲,主题为构建可扩展的AI基础设施。他指出,OpenAI的一项重要观察结果 ...
|
每经记者 文巧 每经实习记者 岳楚鹏 每经编辑 高涵 当地时间8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上发表了长达一小时的演讲,主题为“构建可扩展的AI基础设施”。他指出,OpenAI的一项重要观察结果是,扩大规模可以产生更好、更有用的人工智能(AI)。 作为全球芯片行业影响力最大的会议,Hot Chips于每年八月份在斯坦福大学举行。不同于其他行业会议以学术研究为主,Hot Chips是一场产业界的盛会,各大处理器公司会在每年的会上展现他们最新的产品以及在研的产品。 《每日经济新闻》记者注意到,AI浪潮推动数据中心激增,同时也伴随着能源需求的激增。在这样的背景下,此次的Hot Chips大会上,围绕人工智能的议题比以往任何一届都更加活跃。Trevor Cai的演讲着眼于解决能源和算力之间的问题,英特尔、IBM和英伟达等则是提出了更节能的技术方案。 摩根士丹利在8月份发布的研究预测称,生成式AI的电力需求将在未来几年内每年飙升75%,预计到2026年,其消耗的能源量将与西班牙在2022年的消耗量相当。科技巨头们该如何应对能源挑战? 英伟达公布Blackwell更多细节,英特尔们聚焦“节能方案”当地时间8月26日,一年一度的半导体企业盛会Hot Chips 2024在斯坦福大学纪念礼堂举行,今年是第36届。 从会议第一天的情况来看,大部分的话题都集中在了更节能、安全且可扩展的大规模AI服务器部署方案上。 OpenAI硬件负责人Trevor Cai发表了“可预测的扩展和基础设施”主题演讲,谈到了提升计算能力所带来的可预测的扩展效益,这也是OpenAI自成立之初就关注的重点。一个重要的观察结果是,扩大规模可以产生更好、更有用的人工智能。“每次计算量翻倍,它都会得到更好的结果。模型的能力和计算资源的消耗是呈指数级别的上升的。自2018年以来,行业中前沿模型的计算量每年增长约4倍。”他说道。
行业计算趋势 图片来源:OpenAI Hot Chips演讲PDF |
顶部
发布