据外媒 9to5Mac 报道,Apple Intelligence 最新版本的设备存储需求
这一变化源于 iOS 18.2 版本中新增的多项 AI 功能,包括 Genmoji、ChatGPT 集成 Siri、Image Playground 等功能。
报道称,由于 Apple 智能采用设备端处理策略以保护用户隐私,这意味着 AI 模型需要直接下载到用户设备上。7GB 的存储要求适用于 iPhone、iPad 和 Mac 三类设备。
由于每台设备都需要进行独立的本地处理,对于拥有多台设备的用户来说,总存储占用将会显著增加。例如,同时在三种设备上使用 AI 功能的用户,将需要总计 21GB 的可用空间。
随着今年 4 月 iOS 18.4 版本的推出,Siri 将迎来重大升级。报道指出,在接下来的几个月里,每台设备的 AI 存储需求可能会达到 10GB,甚至是在 iOS 19 的新功能发布之前。
马斯克曾表示,Grok 3 的训练使用了 10 万块英伟达 H100 芯片,并期望它能够成为世界上最强大的 AI 模型。
别看他说了什么,得看最终的效果如何,但愿 Grok-3 能给OpenAI狠狠上一波强度吧。
(这个故事要么是关于1.模拟假说,要么是关于 2.无法知道起飞的关键时刻何时真正发生,但我喜欢它也能以许多其他方式解读。)」
据量子位调查,DeepSeek 的核心技术力量离不开一群极具天赋的高校学子。其中,清华、北大的在读生和应届生占据重要位置。
邵智宏:清华交互式人工智能课题组博士生,师从黄民烈教授。曾在微软研究院工作,参与了 DeepSeek-Prover、DeepSeek-Coder-v2 等多个重要项目。
朱琪豪:北大计算机学院 2024 届博士,在校期间就发表了 16 篇 CCF-A 类论文,两次获得 ACM SIGSOFT 杰出论文奖,主导开发了 DeepSeek-Coder-V1。
代达劢:北大计算机学院 2024 年博士毕业生,师从穗志方教授。发表 20 余篇顶会论文,获 EMNLP 2023 最佳长论文奖。
赵成钢:作为超算团队成员三获世界大学生超算竞赛冠军。目前在 DeepSeek 担任训练/推理基础架构工程师。
辛华剑:中山大学逻辑学专业学生,实习期间参与开发了数学定理证明模型DeepSeek-Prover,现就读于爱丁堡大学博士项目。
Peiyi Wang:北大博士生,师从穗志方教授,作为核心作者参与了DeepSeekMath 项目。
当时,整个海外 AI 圈都为这位英年早逝的天才科学家表达哀思,而追悼官网刚刚也公布了 Felix Hill 的遗书。
令人感动的是,即便站在生命的悬崖边缘,这位心怀大爱的 AI 科学家仍在用最后的力量劝导他人珍惜生命,继续前行。
如果你有自杀念头,请为你的朋友和家人着想,尽力去尝试我曾尝试过的所有帮助,不管它看起来有多么艰难。即使是在医院经历痛苦,也请至少尝试一次
根据论文披露,OpenAI 的 o1-preview 模型约有 300B 参数,GPT-4o 约 200B,
有消息指出,英伟达此前公布的 GPT-4 采用 1.8T MoE 架构,而此次微软公布的为 1.76T。
几个大型语言模型(例如,GPT、Gemini 2.0 Flash)的确切参数数量尚未公开。
此处报告的模型大小估计仅基于公开文章;作者无法保证其准确性,仅供参考以帮助理解模型性能的背景。」
实际上,这并非微软第一次「泄露」模型参数信息。此前微软曾在一篇论文中披露 GPT-3.5-Turbo 的 20B 参数信息,但随后又在更新版本中删除了这一信息。
此外,此篇论文的主要目的是介绍一个名为 MEDEC 的医疗领域基准测试。研究团队分析了来自三家美国医院的 488 份临床笔记,评估了各大模型在识别和纠正医疗文档错误方面的能力。
据最新数据显示,全球芯片巨头英伟达在 2024 年投资 AI 企业的金额达到 10 亿美元,涉及 50 轮融资和多笔企业交易,较 2023 年的 8.72 亿美元和 39 轮融资明显增长。
凭借备受追捧的 GPU 业务,英伟达储备了大量的资金。报道称,截至 2024 年,该公司已积累了 90 亿美元的现金。
除了直接投资外,英伟达还通过其创业孵化器 Inception 项目支持数千家初创企业的发展。该项目为初创公司提供硬件优惠价格和云计算额度支持。
重要收购包括以色列 AI 工作负载管理平台 Run:ai,以及 AI 软件公司 Nebulon、OctoAI、Brev.dev、Shoreline.io 和 Deci。
与此同时,All In AI 没有最壕,只有更壕。据彭博社报道称,微软预计本财年将在 AI 数据中心上投资 800 亿美元。
12 月 30 日,智元机器人宣布发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。
据官方介绍,相比 Google 开源的 Open X-Embodiment 数据集,AgiBot World 长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量达到了工业级标准。并能让机器人从简单的桌面任务,走进人类日常生活的方方面面。
官方调整了 Unitree H1、H1-2 和 G1 人形机器人的动作捕捉数据,并通过数学优化方法使它们的运动轨迹更加自然流畅。
去年 5 月,OpenAI 曾高调宣布将开发一款名为 Media Manager 的工具,承诺允许创作者指定其作品是否可以被用于 AI 训练。
据外媒 TechCrunch 援引知情人士的消息,这款工具在 OpenAI 内部似乎并未被视为重点项目。
一位前 OpenAI 员工表示:「我不认为这是优先事项,老实说,我不记得有人在做这件事。」
更耐人寻味的是,该项目的主要负责人、法律团队成员 Fred von Lohmann 已于去年 10 月转为兼职顾问。
目前,OpenAI 只是提供了一些临时性的选择退出方案,比如允许艺术家通过提交表格将作品从未来的训练集中剔除,也为网站管理员提供了屏蔽爬虫的选项。
近期,华为在官网发布公告,宣布面向全球启动 2024 奥林帕斯奖(OlympusMons Awards)悬红难题征集,这也是华为公司第五年举办该全球赛事。
2024 年奥林帕斯奖华为共设置了 2 个奥林帕斯奖,5 个奥林帕斯先锋奖,获奖人/团队与华为将与建立技术交流渠道并获得科研助力。
GLM-Zero-Preview 是 GLM 家族中专注于增强 AI 推理能力的模型,擅长处理数理逻辑、代码和需要深度推理的复杂问题。
同基座模型相比,GLM-Zero-Preview 在不显著降低通用任务能力的情况下,在专家任务能力方面的表现大幅提升,其在 AIME 2024、MATH500 和 LiveCodeBench 评测中,效果与 OpenAI o1-preview 相当。
用户可以在「智谱清言」(中的「Zero 推理模型」智能体免费使用,支持上传文字或图片,模型会输出完整推理过程;
百度「AI 搜」是基于百度文心大模型打造的桌面端 AI 搜索引擎,目前内容侧已经打通百度搜索引擎、百度健康、百度律临、、百度教育等内容生态,可确保搜索结果可靠、权威。
目前百度「AI 搜」覆盖文生图、文生文、逻辑推理、多轮对话、智能摘要、AI 修图等 AI 技术。
此外,百度「AI 搜」也提供了文心智能体入口,在对话框中可输入@方式一键召唤不同智能体专家,针对性地解决用户的问题。
📹 PixVerse V3.5 上线 日,爱诗科技宣布 PixVerse V3.5 正式上线。
据官方介绍,在 PixVerse V3.5 Turbo 极速生成模式下,平均 10 秒即可生成视频,最快可达 5 秒,能够帮助创作者大幅提升 AI 视频创作效率。
同时,PixVerse V3.5 具备领先的动漫生成能力,可以直接通过文生视频描述特定风格,生成对应的动漫效果;或上传各类动漫/动画图片,再输入提示词,创作精彩内容。
并且,PixVerse V3.5 支持首尾帧生成,上传两张图片,描述变化过程,即可生成流畅的过渡视频。
比如河南博物院借助 AI 技术,让古老的文物跳脱出庄重肃穆的展陈模式,上演了一出充满烟火气的「拥抱」。
2024 年的最后一周,爱范儿等媒体来到了 vivo 位于东莞的总部,与 vivo 执行副总裁,首席运营官胡柏山进行了一场畅所欲言的对话。
AI 确实是过去两年时间里大模型的产生,AI 的发挥在那还是很快。回归到手机本身讲,AI 还是有它的限制空间,手机的最大的问题是算力不够。
第一阶段就是 AI 能力加强过去一些功能,比如过去一段时间,整个手机行业比较热门的就是 AI 消除,这个功能十几年前就有,功能技术时代就有,但是那个时候算法比较低级,一直做不好。
过去的语音识别能力,用深度学习的方式,做得好的可能成功率只有 90%,这种成功率你就会发现,对话搞不了几轮,每个环节失真太厉害了。生成式大模型出来依旧,语音识别能力和语义理解能力,一下子提升很多。过去我们有个功能叫电话秘书,最早是在 NEX 3 上推出,别人一听就知道是传统 AI 做出来的,说不了两句就把电话挂了。现在因为有 AI 加持,短时间内大家听不出来是 AI 在讲话。
这些都还是基于某一个功能或者某一个模块的提升,跟通用人工智能(AGI)不是差一点,而是差了十万八千里。
第二个阶段,我认为,是大模型能力结合到系统里去。比如说,我们过去找一个功能设置,根本找不到,因为菜单选项太多,乱七八糟。未来 AI 和系统深度耦合,能够让手机清楚地知道你的意图,知道下一步要操作什么,手机交互变得更加智能。比如我们刚开始尝试的「原子岛」,就是知道你的意图,来提出解决方案。这个阶段会跑比较长的时间,因为这个阶段用户体验,现在算力勉强可以满足。
第三个阶段,就是我们在 VDC 2024 大会上说的 PhoneGPT,我们当时展示的功能就是点个外卖,说能点成功。其实每一步成功率只有 85%,跑三步就跑不动了,时间也很长,这个体验只是个模型,用户体验根本不好。
真正要实现 PhoneGPT 的要求,对算力要求不是增加一点,而是增加好多倍。现在的一体架构,封装架构,以及带宽,都不够。真正 PhoneGPT,整个能力要求就是对现在高速存储,服务器端能力,带宽能力,SoC 架构要跟服务器端要接近才有机会实现。
这个就跟影像一样,我们能看到用户的需求已经产生,很多模型跑在云端的服务器上,我们内部的算力中心差不多接近 1 万张算力卡,很多模型在云端可以跑得动,比如 130B 参数的模型,但这个规模在手机上根本跑不动,手机只能跑 2B、3B 的参数。所以手机真正实现 PhoneGPT,我估计没有五年,达不到用户体验上的要求。
AI 这个赛道,目前还在第二阶段,它是一个渐进式的提升,不是 0 到 1 的提升。所以 AI 对整个换机潮,目前来说,驱动力是不大的,因为用户没有感到了从 0 到 1 的突变,只有从 0 到 1 的突变发生,用户发现 PhoneGPT 能干那么多事情,他们才会有强大的换机欲望。
因为我自己既管产品也管技术,所以我透露的应该都是目前我们的技术或者整个行业的技术目前所处的水平。
「知道我们是没有到处都是先进机器人的最后一代人,这让我感到非常欣慰。我们的孩子将作为「机器人原住民」长大。
他们将让类人机器人烹饪米其林晚餐,让机器人泰迪熊讲睡前故事,让 FSD 自动驾驶送他们去学校。
我们是「机器人移民」的一代,正在迈向无处不在的物理人工智能新世界,就像我们的父母是「数字移民」一样,在 6 英寸的触摸屏上学会重新调整自己的生活。
最近,前 Google CEO 埃里克·施密特在接受《》专访时,作出不少惊人预测。
他认为 AI 的发展速度被「低估而不是高估」,2025 年将成为关键转折点。他形容即将到来的 AI 变革是「一切,无处不在,同时发生」。
首先是「永久记忆」的实现。通过突破性的「无限注意力」技术,AI 将不再受限于当前的上下文窗口,既能记住当前对话细节,又能随时调用过去的重要记忆。