似乎所有的手机都已经用上了 AI 功能,但唯独少了 iPhone。
今年 2 月底,知名科技记者 Mark Gurman 爆料称,苹果决定取消电动车项目,并转向生成式人工智能项目。这一消息令外界哗然,默默经营了十年的智能汽车项目不做了,反而去做 AI。苹果有拿得出手的 AI 手机吗?
有,严格意义上来说,iPhone 的确是一部由人工智能驱动的手机。
即便是大家认为不太智能的 Siri、输入法自动更正,以及最近 iOS 版本才有的“手记”APP 等等,其实都离不开 AI 技术支持。
只不过,苹果对待“Artificial Intelligence”这件事情的态度,一直特别拧巴。例如,过去苹果公司几乎没有在产品线中使用过“AI”这个词语,相反,他们更喜欢将人工智能技术称为“Machine Learning(ML)”机器学习。
苹果是否真的和外界所说的那样,在 AI 领域遥遥落后了?
一个词,看苹果的偏执
苹果取消电动车项目并转向 AI 赛道的消息,来自于非官方渠道。在该消息曝出之前,苹果极力避免在产品中使用“AI”词语。
这一情况在几天之后发生了翻天覆地的转变。3 月 4 日,苹果冷不丁上线搭载 M3 芯片的 MacBook Air 系列产品,并在新闻稿中提到“World’s Best Consumer Laptop for AI”。
这或许是我们首次在苹果官方新闻稿中,明确见到其产品描述使用了“AI”一词。
甚至在此后的股东大会上,库克表示,将会在今年稍晚时间公布关于生成式 AI 的计划。苹果似乎在一夜之间将 AI 列为了头号战略。
2023 年 10 月,苹果 Scary Fast 的秋季发布会,正式发布了 M3 系列芯片和搭载该芯片的 MacBook Pro 和 iMac。但在会后的新闻稿中,我们发现了苹果对产品描述的微妙差异:M3 芯片新闻稿中,苹果写到“进一步加速 AI/ML 工作流”,但在 MacBook Pro 和 iMac 的新闻稿里,我们连 AI 影子都没有看到。
苹果对 AI 一词的偏执有迹可循,就像乔布斯对追求完美的偏执一样。
2011 年,被收购后的自然语音应用软件 Siri 登陆苹果设备,令所有人都为之一振。智能语音助手彼时成为了手机品牌的宠儿,后来的三星还为 Bixby 语音助手提供了一个实体按键。从那时开始,苹果就已经在借助 AI 技术驱动功能的更新。
其实苹果大可以称 Siri 为“AI 语音助手”,但它没有那样做。因为在 Siri 背后用的便是 Natural Language Processing 技术,简称 NLP 自然语言处理。这在 2011 年属于极为先进的前沿技术。
2017 年,类似的事情也有发生,A11 Bionic 芯片和 iPhone X 一起亮相,“Bionic”译为“仿生”,偏偏避开了“AI”等主流词汇。要知道,同时期的终端芯片厂商无一不是以 AI 为噱头,彼时的媒体也唱响了 AI 为行业趋势的论调。
技术层面上,该芯片首次搭载神经网络引擎处理器单元(Neural Network Processing Unit,NPU),运用本地化人工智能加速器进行机器学习。在这一部分,苹果仍然坚持使用“神经网络引擎”来代指“人工智能”工作部分。
不提AI,处处都是AI
尽管产品上,苹果极力避免使用 AI 词汇,但在苹果产品中,处处都是 AI——只不过它的存在感不如当前火爆的生成式 AI 那样直观。
如果你使用 iPhone 的时间足够长,那么你会发现下面这些事情。
例如你的“手记”APP 时不时会提醒你,去过某些地方,是否需要记录,根据当时拍摄的图片写下自己的想法或心情;
又如自带输入法,它基于 Transformer 语言模型,在用户输入文字的同时便会开始学习,并以此记忆多频词汇、特定词汇等等,并在此后的输入过程中,将多频词汇特定词汇列在候选词靠前的位置,提高输入效率;
还有相册里的人物分类,它也会向你建议将相似的面孔合为一个人的分类里;
最后在图像部分的处理,就不用我再多言语,相机从开启到拍摄完成,都会调用苹果的 AI 学习技术,并能在取景框和照片里区分人和物体......
iPhone 的确在你使用过程中,像人一样学习你的使用习惯,并尽力让自己表现得更了解你一样。只不过基于它在设备端的能力,整个过程既需要时间也有明显的天花板。
需要强调的是,这所有的一切都只发生在设备端。并且,苹果没有大张旗鼓地将 AI 功能作为宣传核心,反而是将这些功能都藏了起来,等到用户慢慢发现,收获一份惊喜。
这是一个非常苹果的操作。也将苹果对待用户的态度 100% 地展现在了大家面前:用户体验永远是第一位。
现在来看,正是这种克制,没有让苹果的 AI 功能湮没在 2017 年那一股 AI 风潮当中。或许那时候苹果已经清晰地认识到,“AI”一词给宣传带来的负面影响。
苹果在宣传上的克制造就了今天的 iOS 体验。用户慢慢挖掘一些新奇功能,从正面来说这是一份惊喜,但当我们正视这个问题,你就看到了苹果 AI 落地 iPhone 的掣肘。
大模型和隐私,选哪个?
苹果对于用户隐私的要求业界闻名。
2019 年 CES 期间,苹果包下拉斯维加斯万豪酒店一面墙,写了一个广告“what happens on your iPhone, stays on your iPhone”,以此突出他们对用户隐私的重视。
在苹果官网上,你也可以看到苹果称用户的大量个人信息都存储在设备上,进行加密。这是 iPhone 绝对的优势,因为可能世界上没有哪家企业能像他们一样把隐私宣传做得如此之好。
但这也意味着,苹果的生成式 AI 功能不会那么轻易拥抱大模型——一旦涉及到大模型,必然会将数据上云,通过云端处理再回传到端侧,这是苹果很忌讳的事情。
Siri 之所以在近年来遥遥落后于其它品牌的语音助手,正是因为它很难理解对话的语境,前后文的关系,它能听懂和做到的事情,仅限于发生在设备端的功能,例如设定一个闹钟或者设定第二个闹钟。
要知道,现在任何一台 AI 手机若是不能通过语音助手了解当前的新闻,它就不能称得上是合格的 AI 手机。
Siri 显然和这些功能不沾边,一方面是因为数据不能随意上云,另一方面也是因为它无法接触到所有的端侧数据。
随现在似乎苹果找到了一个解法,据 Mark Gurman 爆料,苹果正在研发一种端侧大模型,并兼顾运算速度和隐私保护能力。这也意味着将来 iPhone 的 AppleGPT 语音助手将会完全在设备本地运行,无需将请求发送到云端,同时也能保证用户的隐私安全。
只是这也衍生出来了一个问题,如果 AppleGPT 不上云,那么它如何获取当前最新的信息呢?还是说升级后的 Siri 只是能力范围更强,仍然无法跟上瞬息万变的互联网?假如所有设备的 Siri 能够同步升级,那么在 Vision Pro 上又能有什么不同?
而这一切,或许都将在 6 月的 WWDC 中得到解答。
最后一个问题,如果苹果有在芯片上改名的习惯,那么得到 AI 加强的 iPhone 会不会改名 AIPhone 呢?