如何规避人工智能决策偏见?发展可信AI成为业界共识

  随着人工智能(AI)的快速发展,如何规避因其自身技术缺陷引发的决策偏见引起业界的关注。上海市政府副秘书长尚玉英在近日召开的2022世界人工智能大会可信AI论坛上就提出,“当前,人工智能技术加快演进,深刻改变人们的生产生活方式,随之而来的数据隐私、算法歧视、安全风险等人工智能治理问题也引起各方的共同关注。”

  尚玉英指出,发展可信AI,推动人工智能透明可释、安全可控、多元包容已经成为全球共识,融合可信要素的人工智能产业生态成为新时代人工智能发展的必由之路。

发展可信AI成为共识

  澳大利亚科学院院士、京东探索研究院院长陶大程从理论层面剖析了可信人工智能中各种支撑技术,从实践视角详述可信人工智能的实践路径,对实践可信人工智能、完善可信生态提出了方案和建议。

  陶大程认为,可信AI应该研究怎么从以下四方面解决AI的信任危机:稳定性,AI系统抵抗各类环境噪声、攻击的能力;可解释性,AI系统的预测、决策是否透明、可被人理解;隐私保护,AI系统是否可以保护用户隐私不被泄露;公平性,AI系统是否公平对待不同群体。

  中国信通院云计算与大数据研究所内容科技部副主任石霖表示,人工智能技术与制造、医疗、能源、交通、城市建设等领域深度融合,AI算法问题也在不断出现。算法黑箱、算法设计缺陷、数据依赖、对抗样本攻击等问题对智能技术的产业化应用带来较大安全隐患。AI面向工业场景大规模应用,要实现全链路安全可信,持续加强模型鲁棒性。

  锘崴科技创始人、董事长王爽也表示,发展可信AI已成为共识。数据是人工智能的基础,好的模型离不开高质量的数据。可信AI有赖于不断精进的算法、更加高效的算力,也离不开数据资源的有效“喂养”。隐私计算技术能够从源头上帮助人工智能安全、高效、合规地触达多维数据,让模型更精准,让AI更智慧。

  蚂蚁集团机器智能部总经理王维强从可解释性、公平性、鲁棒性、隐私保护四个维度,去推进可信AI的创新、共建、共生。“从隐私保护技术角度,通过用户隐私体系升级,最小化使用用户客户端内容,识别欺诈、赌博、洗钱等风险场景;与合作伙伴的联防联控,蚂蚁开源的可信隐私计算技术与各互联友商通过多方安全计算、联合建模等方式,助力生态高效进行联合风控,共同控制风险,与生态伙伴隐私技术共建,形成数据最小化。”

可信AI是系统化工程

  陶大程表示,可信AI研究的方方面面相互联系,并不孤立。因此,在建立相关标准时需要将可信AI作为一个整体来考虑。实践中,应加强业务人员在AI应用构建中的参与程度,融合业务、数据、算法、运维,以更好更快地实验、开发、部署、管理应用,保证交付与运行质量,提升各业务线获得的效用与价值。

  在石霖看来,应以评测手段推进算法治理落地,企业在落实算法治理要求时面临规则界定、规则理解、任务分解、任务分配、效果评估等五大关键问题,需要一整套方法论指引。

  “可信AI是一项复杂的系统化工程,需要多方积极参与、携手合作,共同打造可信人工智能产业生态。”王爽表示,当前可信AI产业生态正加快发展,未来需要基础硬件、技术平台、产品设备、应用场景等多元化主体参与建设。

  人工智能大规模应用催生了对AI安全更迫切的要求,为推动企业实现业务全链路可信,护航可信AI走向工业级落地,中国信通院、清华大学、蚂蚁集团在论坛上联合发布AI安全检测平台“蚁鉴”,面向AI模型开发者提供从模型对抗测试到防御加固的一站式测评解决方案,帮助开发者一键识别和挖掘模型漏洞,打造更安全可靠的AI。

  清华大学副教授李琦表示,人工智能算法的通用自动化检测是研究和解决人工智能安全问题的核心。此次推出的AI安全检测平台,首次全面解决了不同场景下AI算法的系统化和自动化评测,并提供了AI工业级应用的安全量化评价指标,有助于为人工智能算法在工业界的大规模应用提供安全保障。

责任编辑:Robot RF13015
精彩推荐
加载更多
全部评论
热榜
关闭 下载金融界app
金融界App
金融界微博
金融界公众号