在落后同行们近两年后,苹果终于在本周WWDC大会发布AI功能。
“不拼AI技术,靠的是OpenAI大模型,AI功能没有新意……”以“重新定义AI”开启新征程的苹果似乎并没让大家满意,本次大会苹果也几乎并没有提“人工智能”,而称之为“苹果智能”(Apple Intelligence)。
然而,资本市场却买单了,苹果周三扭转跌势,一夜暴涨7%,市值攀升2000亿美元。
那么是什么让市场扭转态度?所谓“苹果智能”到底意味着什么?苹果AI战略仅靠OpenAI?
贯穿苹果生态场景的AI
与大模型公司蜂拥推出独立的聊天机器人不同,苹果做出的选择是,将AI功能整合到用户正在使用的APP和产品中,融入用户日常使用场景中。
这样一来,苹果AI的功能远比独立聊天机器人能做的要多,可以智能照片编辑、生成笔记和短信摘要、自动转录语音备忘录等等。
苹果利用自研内部模型实现较为简单的AI功能,依靠更为强大的外部模型,如GPT来实现更高级、复杂的AI功能。以全新siri、写作工具的演示为例:
全新Siri:苹果公司展示了如何用Siri帮忙填写PDF表格,Siri还能找到用户驾照的照片,提取驾照上的号码并输入表格。在另一个演示中,Siri可以在短信和邮件中搜索朋友发送的食谱。
真正让Siri功能得到提升的是ChatGPT。当要求Siri做一些它不知道怎么做的事情时,比如根据最近的购物清单安排出一顿晚餐菜谱,Siri就会在征求用户允许后,直接调用GPT接口,向ChatGPT征询意见。用户不必是ChatGPT Plus的用户,就可以享受Siri这种功能。
写作工具:苹果将为备忘录、邮件、Pages文稿等应用添加总结、改写和校对的AI功能,集成写作工具还可以针对短信和电子邮件提出回复建议和不同语气的回复。
但至于更有创意的功能,比如写一首关于iPhone的诗,将交给ChatGPT来完成。同样的这个写作工具会先征求用户同意,然后才会去咨询ChatGPT。
苹果表示,Apple Intelligence、iOS 18、iPadOS 18和MacOS Sequoia将在秋季整合一系列AI功能,但一些更强大的AI功能可能要到2025年才会亮相。
场景背后的三层大模型架构
支撑以上场景功能背后的内部、外部模型,可以进一步细分为端侧小模型(Apple On-Device),自研云端模型(Apple Server),以及ChatGPT等外部大模型。
第一层架构是苹果端侧小模型,其中一个参数量为3B,可以直接在手机等终端设备上运行。
此前文章指出,这其实是综合考虑了运行速度、算力需求的结果,大部分苹果端侧模型根据用户个人习惯和个人数据,针对不同的任务预先进行了训练,因此各种需求响应速度也很快。
第二层是苹果自研的更大语言模型,该模型通过私有云计算在苹果芯片服务器上运行。
性能方面,有分析指出该模型虽然没有明确参数量,但其性能可以与GPT-4对标。在真实世界提示评估中,大模型Apple Server性能强于GPT-3.5-Turbo,略逊于GPT-4-Turbo,该模型也针对苹果用户的日常行为进行微调训练。
苹果强调隐私是第一位,内部模型运行过程中这些数据不会被保存,不会被其他人获取。
此前文章提到过,这些服务器都内置使用Swift语言编写的安全工具,苹果AI“只发送完成任务所需的相关数据”到这些服务器,不会给予对设备上下文信息的完全访问权限。
第三层架构就是和OpenAI合作,接入GPT大模型。
根据苹果演示,当需要实现更复杂AI功能,且在获得用户同意后,可以调用GPT接口。
而且可以确定的是,OpenAI可能不会是苹果唯一的外部合作伙伴。苹果负责软件工程的高级副总裁Craig Federighi表示:
苹果计划以后让用户选择自己喜欢的大模型,其中包括谷歌的Gemini等。