近年来,许多应用程序都宣称自己能够提供“千人千面”的个性化推荐服务,通过算法来精准地满足用户的个性化需求。这种商业模式得到了市场的广泛认可,因为谁能更准确地揣摩用户的心思,谁的广告收入就会更高。然而,这些应用程序很少主动告知用户他们的服务会大规模收集和使用个人信息,也不会冒着损害自身利益的风险去设计一个能让用户随时关闭算法推荐功能的选项。 直到今年1月,《互联网信息服务算法推荐管理规定》出台,明确规定了算法推荐服务的提供者应当以显著的方式告知用户其服务的情况;向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。这一规定自3月1日起开始实施,使得这些应用程序不得不进行改变。 个性化推荐确实有助于改善用户体验。用户无需在各种资源中寻找,算法会自动推荐他们感兴趣的内容。但这种便利性也带来了一些负面效应。算法非常了解用户,但用户往往对算法一无所知;算法的强大程度甚至可能控制用户的眼睛,甚至基于算法实施“大数据杀熟”,但用户对此几乎无能为力。 北京大学互联网发展研究中心发布的《中国大安全感知报告(2021)》显示,60%的受访者担心自己的信息在数字环境中有泄露风险,70%的人担心个人喜好、兴趣被算法“算计”,50%的人表示在算法束缚下想要逃离网络、远离手机。这意味着算法构建的不只是“信息茧房”,还可能是“信息囚笼”,用户明知不妥但又难以挣脱。 目前,大部分应用程序都在隐藏算法关闭键的位置,这可以理解。实际上,“算法开关”并不是自我削弱,而是修补基础漏洞,有利于合规企业进一步发挥优势。网络安全和数字安全是支撑数字经济的基础逻辑,不能建立在侵犯消费者知情权和选择权的基础上。企业对此心知肚明。有一个有趣的现象——按理说,以算法起家的字节跳动系应该最害怕关闭算法,但它旗下产品设置的算法开关位置却最显眼、分类最齐全。一方面,这表明企业对自己的服务充满信心,相信消费者会自愿打开;另一方面,这也在一定程度上表明部分企业已经意识到数据收集越透明、越规范,对自己越是一种保护。 设置算法开关只是保障数字安全的初步步骤。如果得到消费者信任,企业可以继续优化算法,推荐向上向善的内容,增强用户黏性;如果消费者选择关闭,企业也可以采用其他方式改善消费者体验,但要注意不能故意提供过时、低质信息逼迫消费者打开算法,实质上侵害消费者选择权。总之,消费者的思绪可以被猜测,但猜的企业要合法合规,被猜的用户得心甘情愿。