书生家电网讯--在近期落幕的全球开发者大会(WWDC)后,苹果公司在其总部Apple Park向媒体实地演示了其个人智能系统“Apple Intelligence”的核心功能,包括通话实时翻译与视觉内容智能识别,展现了从概念到实际应用的推进。

通话翻译:打破语言障碍
记者现场观察到苹果团队使用搭载iOS 26测试版的iPhone进行演示:模拟预订西班牙酒店时,通话界面可启用“Live Translation”(实时翻译)功能。对方说出的西班牙语被实时翻译成英语字幕显示在屏幕上,同时播放英文语音。此功能在免提模式下工作,通话方听到的翻译语音音量会稍低。
关键技术点: 翻译完全在iPhone本地运行,无需对方使用特定手机(固话或安卓机均可适用),所有对话数据保留在设备端。
智能判断: 系统可根据国家代码自动识别所需翻译语言。
视觉智能:读懂屏幕内容
另一项演示聚焦“视觉智能”(Visual Intelligence)。当用户截取包含活动海报的聊天图片时,系统除提供常规编辑选项外,新增的“视觉智能”功能可自动建议将活动添加至日历。若截图含多张图片,系统优先识别最显着的一张。
整合第三方AI: 演示中,用户截取朋友询问桌游的图片后,可直接通过视觉智能调用ChatGPT(无需登录账号)获取该游戏是否适合的建议。使用达每日免费上限后,系统将自动切换至非高级模型应答。
隐私与本地化是核心
苹果强调,Apple Intelligence的设计核心在于深度整合系统体验与隐私保护:
无缝融入: AI功能自然融入操作流程,用户无需感知其存在,这与依赖云端的传统不同。
隐私优先: 即便某些情境需调用服务器端模型处理数据,相关用户信息也会在传回设备后立即清除,确保苹果或其他方均无法获取。
开发者赋能
为加速应用开发,苹果在WWDC宣布开放开发者访问其设备端基础模型(参数量约30亿)。开发者可借此为自家App构建基于隐私保护、支持离线运行的智能功能,无需支付云端API费用。该模型擅长文本摘要、信息提取、写作润色等任务,但广泛知识问答类聊天机器人非其目标应用。