由于iOS系统相对封闭,iPhone向来以安全、流畅、简洁无广告等优点而备受用户青睐。
这一套看似方便的体系,也没少给用户带来烦恼。
由于苹果独特的账号系统和分享机制,给大量的骚扰垃圾短信提供了保护伞。
对于苹果用户来说,手机上收到黄色、赌博网址等骚扰信息已属于司空见惯。
6月6日,苹果在凌晨发布了全新一代的iOS 17系统,带来了包括横屏待机、个性来电、全新的iMessage、屏幕距离监测,以及NameDrop等新功能。
除了官方宣传的这些功能外,很多人并不知道,苹果在iOS 17中还增加了一项新功能。
通过这项功能,iOS系统可以自动识别和屏蔽可能含有敏感内容的信息和文件,例如裸照。
用户可以选择是否启用这项功能,以避免收到不想看到的图片。
截止目前,这项功能适用于信息、AirDrop隔空投送、电话应用的联系人海报(Contact Poster)、FaceTime信息和第三方应用。
所有涉及裸露的图片都会被模糊处理,用户可以点击“显示”按钮来查看原图图像。
据介绍,这项功能所用到的所有检测都是在用户设备上完成的,苹果公司无法查看用户之间分享的内容。
据了解,这项功能是苹果公司此前为儿童推出的通信安全功能的扩展。
2021年,苹果发布了一份新的“儿童保护扩展”白皮书,其中一项功能,将能够让苹果远程扫描用户手机中的照片,并将检测到的儿童性虐待图片报告给执法部门。
与此同时,未成年人账户的iMessage也会受到新系统的重点监测。
简单来说,该功能可以检测和阻止儿童在iMessage收到裸露图片,保护他们免受不良信息影响。
举个例子,当儿童的账号中收到了露骨的色情照片时,图像将会自动变模糊。
未成年人的相关联系人比如父母,就会收到来自系统发送的警告。
另一方面,如果未成年人试图在iMessage中发送露骨的色情照片,那么在照片发送前,系统也会弹出确认警告。
如果未成年人最终还是选择了发送照片,他们的父母也可以收到系统的提示消息。
而iMessage的这项新功能使用了机器学习来分析图像是否包含色情内容,将在iCloud中设置为家庭的帐户进行更新。
如今,在iOS 17系统中,这一通讯安全功能终于也开始覆盖到了成人用户。
除了静止图像,它还可以扫描视频内容中的裸露内容,以及第三方应用中的内容。
这意味着,可能将来用户受到Airdrop不良图片骚扰的情况会大大降低。
但试想一下,如果你想观看一部刺激的动作片时,系统却突然自动给打上马赛克的话,可能就不那么美好了。
|