“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”……近日,办公软件WPS在其隐私政策中的表述被质疑滥用用户隐私,引发关注。随后,其官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。

类似现象不是孤例,今年早些时候,一款基于生成式人工智能的摄影软件“妙鸭相机”,也因存在滥用用户信息的嫌疑而引发用户批评。如今,随着以大语言模型为代表的生成式人工智能技术的快速发展,相关应用层出不穷。一边是“嗷嗷待大量数据以哺”的人工智能,另一边是越发重视个人信息保护的用户,如何善用数据,考验全社会数据治理的能力和成效,事关万千网民的切身利益。

办公软件滥用隐私?AI训练要守住底线

必须将保护用户隐私和信息安全置于更重要的位置。不少人经历过:生活中说了句话、搜索了个关键词、开了一会儿“位置”,手机里的各种APP就会精准推送广告、“熟悉的人”,自己仿佛瞬间成了透明人。大数据时代,我们越发真切感受到,日常生活的“智能”越来越突出,“安全”有时却成为稀缺品。

越是一切都可以数字化、被收集、能分析,越要划出底线,筑起信息安全的堤坝,给用户选择甚至说“不”的权利。生成式人工智能也不例外,其发展初衷就是为了造福民众。倘若在一开始的数据收集和训练阶段就滥用用户隐私,岂非与目的背道而驰?今年7月,我国出台《生成式人工智能服务管理暂行办法》,明确“不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益”,强调开展训练数据处理活动“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”。原则已经明确,红线已经划出,需要相关从业者严格遵守、自觉践行。

当然,严格保护并不意味着“一刀切”地禁止。有人把数据比作信息时代的“石油”,把算力比作最重要的“基础设施”,足以说明其重要性。特别是对于生成式人工智能来说,海量的数据“投喂”,才能培养出更聪明、更先进的版本。特别是,在网络世界,中文数据特别是高质量中文数据,与英文等其它语言的数据相比,仍有差距,这可能成为发展生成式人工智能的一个先天劣势。也只有在依法、科学的前提下,充分挖掘各类中文数据资源的价值,补短板、锻长板,才能确保我国在生成式人工智能等前沿领域,无论是研究还是应用层面,取得领先。

发展和安全,从来不必然是矛盾的、对立的。当前,全球不少科学家、企业家都呼吁在生成式人工智能领域“慢下来”,这不是为了停滞技术进步,而是希望与之相关的隐私保护、科学伦理、法律制度等能够尽快“赶上来”。在我国,更好统筹发展和安全,一直是处理这类问题的一个基本遵循。无论是监管者还是从业者,更好把握发展与安全的辩证法,平衡好各方面利益,才能推动生成式人工智能健康可持续发展。相信在人类智慧的把控下,我们一定能用好技术这把“双刃剑”,趋利避害,让“甘蔗”实现“两头甜”。


声明:请谨记木准企服唯一官方电话:18300003210,请勿轻信其他其他联系方式,一对一入口。如遇诈骗请及时联系我们将配合处理!

原文地址:办公软件滥用隐私?AI训练要守住底线发布于2023-12-07 07:57:14