2023年11月22日

“投喂”AI不能滥用隐私数据

□ 湖北日报评论员 程曼诗

“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用……”近日,办公软件WPS在其隐私政策中的表述被质疑滥用用户隐私,随后其官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。

随着生成式人工智能应用场景日益增多,带来的潜在风险隐患不容小觑。向AI“投喂”用户数据价值,目的是帮助训练生成式人工智能的“大脑”,实现数据资源化利用。但由于目前对于人工智能的各种风险识别仍处在摸索阶段,如何科学规避其进化成“脱缰野马”,仍然存在不少盲区。

追求更高的人工智能准确度,让机器越来越懂人,是人工智能不断接受训练的目标。越来越智能的机器,离不开大量数据的训练和培养。理论上讲,投喂的数据越多,生成式人工智能就会越“聪明”,如果没有海量数据“充饥”,生成式人工智能就难以填饱“数据饥饿”。但在AI数据训练中,有的涉及技术风险,有的涉及经济风险,有的涉及伦理风险,有的涉及法律风险,这一过程让人工智能与安全隐私之间的关系更加微妙。更高质量的数据获取及人工智能模型的自动迭代,是目前在技术层面亟待解决的问题。保护隐私是人的基本权益,享受智能化便利,不意味着对侵犯隐私之举可以无底线纵容、无规则约束。如果让AI“胃口”越来越大,越界吞噬不加甄别的数据,增加错误技术打开的漏洞,就难以体现技术进步带来的福祉。

今年7月,我国出台《生成式人工智能服务管理暂行办法》,强调开展训练数据处理活动“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”。任何行业发展和技术进步,不能以牺牲隐私安全为代价,不能游离在监管的真空地带。侵犯个人隐私、数据信息伪造、算法歧视等与生成式人工智能发展相伴相生的社会问题,不仅需要与时俱进的有效监管,还需要整个社会的约束。创新要在法律框架之内,虽然没有一种算法是完美的,但实现机器“智”变和保护隐私安全并不是非此即彼。

遵守法律法规,尊重社会公德、公序良俗,才是大模型发展的正轨。规避不良情形,加强安全底线、伦理标准与合规规范,才能让技术手段真正造福于民。

--> 2023-11-22 5 5 湖北日报 content_252633.html 1 “投喂”AI不能滥用隐私数据 /enpproperty-->