扎克伯格宣布Meta致力于Llama项目,旨在打造AI领域的Linux,开源共创未来之路
7月24日消息,Meta首席执行官马克·扎克伯格在7月23日发布的博文中,阐述了他对开源AI生态的展望,他视Llama模型为具有成为“AI领域Linux”潜力的关键项目,彰显了其对开放协作与技术普及的坚定信念。
扎克伯格表示 Linux 凭借着开源特性,近乎成为通过其开源特性已成为云计算和移动操作系统的行业标准,而 Meta 公司希望将 Llama 打造成 AI 领域的 Linux。
扎克伯格阐述了开源人工智能为何有利于开发者和行业的理由,简要梳理如下:
训练、微调和蒸馏自己的 AI 模型
每个组织都有不同的需求,而满足这些需求的最佳方法就是使用不同规模的模型,并根据特定数据进行训练或微调。
设备上的任务和分类任务需要小型模型,而更复杂的任务则需要大型模型。用户现在可以使用最先进的 Llama 模型,继续使用自己的数据对其进行训练,然后将其蒸馏为最适合的模型,而 Meta 公司或其他任何人都不会看到用户数据。
我们需要掌握自己的命运,而不是被锁定在一个封闭的供应商中
许多组织不希望依赖于自己无法运行和控制的模式。他们不希望封闭模式的供应商能够改变其模式、更改使用条款,甚至完全停止为他们提供服务。
他们也不希望被锁定在对模型拥有独占权的单一云中。开放源代码可以为公司提供一个广泛的生态系统,这些公司拥有兼容的工具链,您可以在它们之间轻松切换。
数据保护
许多组织需要处理敏感数据,这些数据需要安全保护,但又不能通过云 API 发送给封闭模型,其他组织则根本不信任封闭模型提供商,不信任他们的数据。
开放源代码可以解决这些问题,让您在任何地方运行模型。众所周知,开源软件往往更加安全,因为其开发过程更加透明。
运行高效且经济实惠的模型
开发人员可以在自己的基础架构上运行 Llama 3.1 405B 的推理,其成本大约是使用 GPT-4o 等封闭模型的 50%,既可用于面向用户的推理,也可用于离线推理任务。
希望投资于将成为长期标准的生态系统
很多人都看到,开放源代码的发展速度比封闭模式更快,因此他们希望在能长期为他们带来最大优势的架构上构建自己的系统。
扎克伯格宣布:Meta 计划向美国政府推介Llama人工智能
近日,在Meta举行的第三季度财报电话会议上,首席执行官马克·扎克伯格宣布,公司正积极促进其Llama人工智能模型在美国政府部门中的应用。这一举措展示了Meta致力于通过先进技术加强与政府机构的合作,并期望能够在更广泛的领域内发挥作用。
这一消息引发了许多疑问:具体哪些政府部门会使用 Meta 的 AI?这些 AI 将用于什么目的?是否会有军事方面的应用?Meta 在这些合作中是否获得报酬?
扎克伯格表示,Meta 已经与美国国务院达成合作,探讨如何利用 Llama 解决各种问题,例如扩大安全饮水和可靠电力的获取,支持小企业发展等。
他还提到,Meta 正与教育部沟通,看看 Llama 如何能够让学生的助学金申请过程更加用户友好。此外,Meta 还在与其他部门讨论 Llama 的潜在应用。需要指出的是,扎克伯格提到,这些合作并没有涉及任何支付。
在 AI 竞争日趋激烈的背景下,Meta 的这一举动显得尤为引人关注。与此同时,其他 AI 公司如 OpenAI 和 Anthropic 也在与美国政府进行合作,OpenAI 的模型已经被用于国防高级研究计划局、美国国际开发署和洛斯阿拉莫斯国家实验室等机构。此外,谷歌与五角大楼的合作关系也备受关注。
在财报电话会议上,扎克伯格还透露了关于 Llama 模型的更多信息。他表示,第四版模型正在一个规模比其他任何公司报道的都要大的集群上训练,预计将会推出 “新模式”、“更强的推理能力” 和 “更快的性能”。扎克伯格承认,Meta 计划在2025年继续增加 AI 的投资,虽然这可能不是投资者想要听到的消息,但他认为这样的投资是值得的。
尽管面临外部压力,Meta 仍在持续增长。公司报告称,第三季度的营收为405亿美元,同比增长19%,净利润为173亿美元。每天有32.9亿人使用 Meta 旗下的至少一款应用,这一数字较去年增长了5%。
Meta首席扎克伯格强调:与苹果理念大相径庭,侧重倾听反馈而非追求喝彩
近日消息,Meta首席执行官马克·扎克伯格于近期Acquired播客节目中阐述,Meta在诸多领域内与苹果公司持有显著不同的发展理念与策略,凸显了两者之间的对比与差异性。
翻译扎克伯格访谈内容如下:
我认为在很多方面 Meta 的发展策略和苹果截然相反。
这里没有谁对谁错之分,苹果公司的产品也运作得很好。苹果的发展策略是耗费大量时间打磨,在精心雕琢后推出,这可能是它们的企业文化决定的。
Meta 更倾向于采取一种策略,即专注于发布产品以获取反馈,而不是等到产品完美无缺才发布。
我们希望真正建立一种文化,这种文化重视发布产品、推出新功能并及时获取反馈,而不是总期待在发布内容时得到人们的一致好评。
如果你一直等到被所有人赞扬,那么你将错过许多本可以学习大量有用知识并将其融入到你即将发布的下一个版本中的宝贵时光。
扎克伯格最新观点:GPU供应危机渐缓,AI数据中心面临电力供应新挑战
5月13日消息,Meta首席执行官马克·扎克伯格在与YouTube播主Dwarkesh Patel的深度对话中透露,困扰AI行业的GPU供应紧张状况正逐步解除,然而,一个全新挑战已然浮现——电力需求将成为制约AI数据中心发展的新瓶颈。
扎克伯格强调,在众多新建的大型数据中心项目中,能源消耗量级已经攀升至50至100兆瓦,甚至更高,暗示着随着AI技术的迅猛发展,对电力基础设施的依赖和要求将日益加剧。这一转变凸显出,尽管硬件资源的获取难度有所下降,但持续保障充足的能源供给将成为未来AI领域扩张的关键所在。
扎克伯格首先提到,此前一段时间,IT 企业即使资金充足也难以买到全部所需数量的 AI GPU,但这一情况目前已开始缓解。
目前新建的单一数据中心在整体功耗方面可达到 50~100MW 乃至 150MW;
但扎克伯格认为 1GW 级别的数据中心不会很快出现,毕竟这相当于将一整个核电机组的发电能力用于训练 AI(作为参考,我国华龙一号核电机组单台装机容量即约 1.2GW)。
扎克伯格表示,整体而言各国对能源行业的管理更为严格,这意味着为大型数据中心建设配套能源设施(包括发电站、变电站、输电系统)的审批更为缓慢。同时这些设施本身的建设周期也较长。
AI 数据中心的增长不可能长期维持目前的速度,终将遭遇电力瓶颈:能源行业不同于 AI,资本投入不能在短时间内收获成效,新增电力供给的交付远慢于数据中心本身。
数字基础设施投资管理企业 DigitalBridge 也持有类似看法,近期在财报会议上表示该公司在未来 18~24 个月内就将用尽电力配额。