

新加坡数字发展和信息部(MDDI)正在推出加强新加坡人工智能(AI)治理的指导方针,以使人工智能生态系统更有利于企业。
数字发展和信息部长张志贤(Josephine Teo)在周一(7月15日)的个人数据保护周开幕致辞中强调了降低数据风险对企业和消费者信任人工智能产品和服务的重要性。
“在人工智能时代,对数据和信任的需求变得更加突出。今天的生成式人工智能产品和服务,如聊天机器人应用程序,正在建立在越来越强大的大型语言模型(llm)的基础上。”
她指出,与此同时,企业将继续需要数据,以便在现有法学硕士的基础上部署应用程序,而且“可能会持续很多年”。
然而,她强调了用于人工智能开发的数据集所涉及的风险,例如基于这些数据集建立的模型产生的结果偏差。
由于数据集可能包含个人身份信息,基于它们构建的生成式人工智能模型也可能在提示时反刍这些信息。
“如果这些风险得不到缓解,企业和消费者可能会发现很难信任人工智能产品和服务。如果没有信任的基础,对人工智能创新的支持可能会随着时间的推移而减少。”
考虑到这一点,MDDI计划为生成式AI模型开发人员和应用程序部署人员引入一套安全指南——这将成为AI验证测试框架和软件工具包的一部分。
该指南旨在为生成式人工智能开发建立一个基线、共同标准,重点是透明度和测试。
Teo说,信息通信媒体发展管理局(IMDA)将开始就这些指导方针咨询行业,以确保它们“相关和健全”。
MDDI还打算支持在人工智能中更多地使用隐私增强技术(pet),因为pet可以帮助企业在不损害个人数据的情况下优化数据的使用。
通过IMDA的PETs沙箱,个人数据保护委员会发布了一份关于合成数据生成的拟议指南。该指南将通过解释合成数据的定义、如何使用以及创建合成数据的最佳实践,帮助企业理解合成数据。
Teo进一步宣布,新的东盟数据匿名指南将于明年初发布。
她表示:“我希望它将成为东盟企业的重要实用资源,这些企业希望匿名化数据,以便在整个地区更负责任地使用数据。”
本文最初发表于《商业时报》。复制需获得许可。
人工智能数字发展和信息化部nJosephine Teodata security(信息通信媒体发展管理局)
分享本文