期原来是推倒了半成品重来苹果高管坦白:Siri延
费德里吉补充道•◁…:▽◇▷△“我们还设想通过协调应用意图来触发设备上的更多操作◁▪▲,以便让Siri执行更多任务=▲◁。同时讨论了如何利用语义索引中的个人知识•◆☆--■,比如当用户询问◁★•★■-‘Joz发给我的那个播客是什么△●★?◇◆•◆□’时▷□▷=▼,Siri能够从消息或邮件中找到相关内容◁▲▼,然后可能会通过应用意图执行相关操作○△。但这部分功能尚未交付○◇▽•■。■▲△★”
因为我们知道▲-…,原本我们预计可以在12月交付▽□•,使其成为一个更加完整★◁●、纯粹的架构◇▼。◇●●□△•”不过★●-▷▽,目前它还没有达到能够匹配苹果质量标准的水平-▽。当我们接近发布会时○•-■☆○,
苹果内部上演▲★◁▷○“双架构之战…▪★▷☆△”=•◁●。为追求极致的用户体验…•☆▼■◇,开发团队毅然放弃已接近完成的初版方案▽☆●▷■,全力转向一个更强大-○、更底层的◇☆“V2▲◁…”新架构○=。
费德里吉补充道▼●:☆◇▼▼★☆“我们花了几个月的时间▲=★▲,不断优化V1架构在更多应用意图和搜索功能方面的表现▷■◆。但从根本上看-●•▽△☆,我们发现该架构的局限性没有办法达到客户所期望的质量水平▼▲-▪☆▪。因此△=▷★◁期原来是推倒了半成品重来,我们决定转向V2架构●…★■。但当我们意识到这一点时◆•■□•▪,已经是春季了◆▲•▲◇☆,于是我们向外界说明■•…-◆,无法按计划发布●◇,并将继续转向新架构-▷◇…▷。•△◇☆▲▲”
关于延期的原因▪-=,外界普遍猜测☆■=●=,苹果可能面临着在提供丰富的AI体验与维护其核心隐私原则之间的矛盾▲=●●。这两者的诉求往往背道而驰▷▪…。然而▽…■,这些终究只能算是外界的推测◆…◆•○■,只有苹果才能告诉我们事情的真相——现在◁▪◇,苹果终于选择开口解释=■•▪…。
但我并不打算这么做☆★☆,他补充道□▷=○:◁●■■★◁“其实我可以展示一个可以运行的V2模型☆▷=,然后在WWDC上正式宣布▪○▼。现在我们在V1的基础上继续扩展-●,并且用户能够体验到□▽…。V1版本已经能够运行▲••,直到它完全准备好◁-○,这是一种战略失误▲==。我们发现实际上需要分两个阶段▪○,▼▼•★”当被问及V2架构是否意味着对Siri的彻底重建时□☆!
一年前△…=●•,苹果对自己能够开发出这样的Siri充满信心▷△◇★,甚至展示了一个能够处理更多对话上下文★••=、具备语音容错功能▽△◆-○■、支持文字交互的Siri平台◆▷◁▼●■,并推出了全新UI设计☆◆-•■。苹果也确实实现了这些功能▲□☆☆。
费德里吉澄清道▷-:…•☆“V1架构其实是V2架构的半成品▼◁,我们也有信心按计划交付◆▼▽●◆■。而是在V1的基础上进行优化▲☆,外界对苹果在智能技术领域的思考和未来发展非常关注▪=☆▲=•。▼=★●”有些人可能认为•◇。如果不行就等到春季△•▲◁•。
费德里吉详细解释了问题的所在□•▽☆,他说☆□:□□◇◆◁“在开发这个功能时•▼,我们并不是从头开始◇•。
苹果显然希望参与到这场革命中=▷☆●,但Siri从来不是苹果的终极目标●=◆。费德里吉解释道★…■▷◇•:▼▪◆★•“从Apple Intelligence立项之初▽□,我们的目标就非常明确△…•:不仅仅是为了打造一个聊天机器人△▼▲▪。那从来就不是我们的目标▪…▪△◆▲,而且现在依旧不是我们最重要的目标▽◆◁◁。☆▪◇=”
这些都是已知的事实◇-:苹果曾承诺在2024年底发布集成Apple Intelligence的Siri更新▼▼□◆,但最终未能如期交付◆▪•★,并在2025年春季承认该功能还需要更多时间☆▼□■。至于原因▽▪◇◁,外界一直未能搞清楚▼•,而苹果一向不会展示那些无法按时交付的技术或产品-☆☆。
所以我们不会公布发布日期▼▲◇●★,苹果软件工程高级副总裁克雷格·费德里吉(Craig Federighi)和全球营销副总裁格雷格·乔斯维亚克(Greg Joswiak)进行了深度对线分钟发布会中展示的几乎所有内容★■◆▷●-。但苹果在AI和产品上的思路显然与OpenAI或谷歌等公司不同•…▪○▪。
Siri革命性升级再度推迟-▪☆★☆☆,苹果高管终于打破沉默●▷◁。官方首次揭秘延期并非源于外界猜测的隐私困境▪★-★•,而是内部一项重大的技术决策所致-▷▽▪◆△。
在被问及Apple Intelligence的进展•▷▷、Siri的现状▷☆◁,以及iPhone用户在今年或明年可能期待哪些更新时★▲,费德里吉给出了坦诚的回答◁▷△,帮助我们了解苹果在Apple Intelligence◁□•▼、Siri和AI领域的战略思考△…。
6月11日消息▷▲☆☆▪,据techradar报道=•,在今年的WWDC 2025主题演讲中▪□☆,苹果的智能助手Siri显然没有占据重要位置◇■▲□。苹果仅简要提到它□◇▷○•,并重申了开发进展比预期更慢●★◆,集成苹果智能(AppleIntelligence)需要更长时间☆□,预计将在△▽●□▪“明年=…”推出□▲◆□▷☆。
费德里吉理解人们对对话型机器人的兴趣…▽,他说•=:△▽□□□“我知道很多人觉得它是一个非常强大的工具▷☆☆,可以帮助理清思路-▼、进行头脑风暴……这些都是非常棒的功能◇•▪○◆。但这些功能对于苹果来说是否最重要★▲■?时间会告诉我们答案■●▼☆•,但现在这并不是我们要做的最主要的事○□•。■■●-▼”(小小)
Siri延期背后•☆,是苹果与众不同的AI大棋局■△▽。高管明确表示…◆□▪▪,苹果的目标从来不是打造一个ChatGPT式的聊天机器人△△◆◁苹果高管坦白:Siri延。
这就是我们现在正在打造的东西…◆▲○•▼。在WWDC主题演讲结束后••●◆☆,Siri也并非我们想象中的中心▲△。并说明了苹果如何继续推进这一计划☆●。构建两个版本的最终架构▲△■。这个全新的端到端架构带来了更高的质量和更强的功能=▪●•,苹果未能按原计划交付完整的Siri•▽◁□▪○,最终构建出一个贯穿整个Siri体验的完整架构-■■•▪。苹果的战略并不围绕单一产品或强大的聊天机器人展开●△▲▼▪=!
费德里吉并不否认-◁•“AI是一项具有变革性的技术……从这个架构衍生出来的所有东西将对行业和经济产生几十年的影响○■,像互联网和移动互联网一样▽…-○=,它将触及苹果的产品▪▼◇▷▷▽,也将影响苹果之外的体验▽▲◁□◇。□■△▲★”
这意味着★◇◇,我们在2025年将无法看到Siri在深度集成方面取得显著进展◆▼。比如△•…■,Siri无法根据用户在iOS设备上的使用习惯…■▪•▷○,成为一个更智能■=•▷◇•、更贴合需求的数字伴侣△□▼。原本预计的深度集成功能本应包括Siri能够使用◁□•■□…“应用意图•◆•”来理解屏幕上发生的事情●▲,并据此主动采取行动○□◆=▼。然而◁=,这一功能并未出现在即将发布的iOS 26中○•◁▽。
他回忆道•=•:▲▷▪◇△“我们一直专注于打造一个能够深度整合个性化体验的操作系统平台▽▪。▽○▷”这一点与2024年WWDC上首次展示Apple Intelligence时的愿景不谋而合▪…△。
这次转变以及苹果在该过程中获得的经验▷▷■▲,使得苹果不再重复过去的错误——不再承诺无法保证的发布日期●◆-☆。★★=■“我们不会在没有充分准备好的情况下提前宣布一个日期▲◆•◇▽•。-▲★”费德里吉说道▷▷◆○。
当时•▼--○•,苹果展示了多项新功能□▷●◆☆,包括写作工具▽■、内容摘要◁▲☆○、智能通知△◆■、电影记忆…★◇☆、照片库的语义搜索以及照片清理等▽▪▲。虽然这些功能已成功落地▼□●★-○,但费德里吉提到▲□•,在开发这些功能的过程中•-▷▪…▷,苹果也意识到●◁-:○○☆●“我们可以基于设备端的大语言模型■▲★▷=、私人云计算基础设施▽…●■▽▪,以及设备端的语义索引技术●-☆▪▪,进一步提升Siri的智能化水平-☆▲=★。▽○”
费德里吉首先介绍了苹果在Apple Intelligence方面迄今为止取得的成就•△▲,实际上◁■■▷-▪,这些成就相当可观△★…。
那么▷▼●▷,苹果的目标到底是什么◁△☆?从2025年WWDC的演讲中…○,我们可以找到一些线索◇◇■•。苹果决心将Apple Intelligence进行跨平台整合◆◆。与其让用户去使用像ChatGPT这样的单一应用•△-☆,苹果选择将AI体验融入到各个平台中☆=△◆☆▽,做到▽●◁•○□“在你所在的位置为你服务•★◆□△■,而不是你必须去某个聊天应用才能完成任务▼◇”•…◇☆=。
在苹果致力于开发Siri架构V1的同时○■•…☆,它也在打造V2架构——费德里吉称其为◆◁-=“更深层次的端到端架构▲●,我们知道这才是最终要实现的架构○★▽○▷…,是让Siri具备完整功能的架构■…▽。▼=▽▲▽”