苹果取得技术突破:有望在 iPhone 上运行大型语言模型

访客 智能手机 3.2K+

网友12月21日报道,苹果公司的人工智能研究人员表示,他们取得了重大突破,通过一种创新的闪存利用技术,在内存有限的苹果设备上成功部署了大型语言模型(LLM)。这项成果有望使更强大的Siri、实时语言翻译和集成了摄影和增强现实的前沿AI功能在未来的iPhone上落地。

苹果取得技术突破:有望在 iPhone 上运行大型语言模型

近年来,像ChatGPT和Claude这样的LLM聊天机器人已经风靡全球。他们能进行流畅的对话,写出不同风格的文本,甚至能生成代码,表现出很强的语言理解和生成能力。但是,这些机型都有一个致命的弱点:对数据和内存的“蚕食”太大,普通手机根本无法满足其运行需求。

为了突破这一瓶颈,苹果研究人员开辟了一条新的道路,将目光转向了手机中无处不在的闪存,这是存储应用程序和照片的地方。在题为“闪存中的LLM:有限内存下的高效大语言模型推理”的论文中,研究人员提出了一种巧妙的闪存利用技术,将LLM模型的数据存储在闪存中。作者指出,与用于运行LLM的传统RAM相比,移动设备中闪存的容量要大得多。

网民注意到,他们的方法巧妙地使用了两项关键技术来绕过限制,从而最大限度地减少数据传输,最大限度地提高闪存吞吐量:

开窗:可以算是一种回收的方法。AI模型不会每次都加载新的数据,而是会重用一些处理过的数据。这减少了频繁读取内存的需要,并使整个过程更加顺畅和高效。

行列捆绑:这种技术类似于阅读一本书,不是逐字逐句,而是逐段阅读。通过更有效地对数据进行分组,可以更快地从闪存中读取数据,从而加速AI理解和生成语言的能力。

论文指出,这项技术可以使AI模型的运行规模达到iPhone可用内存的两倍。由于这项技术,LLM的推理速度在苹果M1 Max CPU上提高了4-5倍,在GPU上提高了20-25倍。“这一突破对于在资源有限的环境中部署先进的LLM至关重要,大大扩展了它们的适用性和可及性,”研究人员写道。

更快更强的iPhone AI

人工智能效率的突破为未来的iPhone开辟了新的可能性,比如更先进的Siri功能、实时语言翻译以及摄影和增强现实中复杂的AI驾驶功能。这项技术也为iPhone在设备上运行复杂的人工智能助手和聊天机器人奠定了基础。据悉,苹果已经着手这项工作。

苹果开发的生成式人工智能最终可能会集成到其Siri语音助手中。2023年2月,苹果召开人工智能峰会,向员工介绍了其大规模语言模型工作。据彭博新闻报道,苹果的目标是建立一个更智能的Siri,它与人工智能深度融合。苹果计划更新Siri与信息应用的交互方式,让用户可以更有效地处理复杂问题,自动完成句子。此外,据传苹果计划在尽可能多的苹果应用中加入AI。

苹果GPT:口袋里的超级大脑

据报道,苹果正在开发自己的生成式人工智能模型,代号为“Ajax”,旨在与OpenAI的GPT-3和GPT-4竞争,拥有2000亿个参数,暗示其在语言理解和生成方面高度复杂和强大。Ajax在内部被称为“苹果GPT”,旨在统一苹果的机器学习开发,这表明苹果进一步将AI融入其生态系统。

根据最新的报告,Ajax被认为比早期的ChatGPT 3.5更强大。然而,一些消息人士也指出,OpenAI的新模型可能已经超越了Ajax的能力。

信息和分析师Jeff Pu都声称,苹果将在2024年底iOS 18发布时在iPhone和iPad上提供某种形式的生成式人工智能功能。普在10月份表示,苹果将在2023年建立数百台人工智能服务器,并在2024年建立更多的服务器。据报道,苹果将提供一个结合云AI和设备端处理AI的解决方案。

投诉水文 我要纠错

标签: 闪存 模型 语言

抱歉,评论功能暂时关闭!