
“目前AI发展还是处于早期阶段,发展路途还很漫长,对于AI治理来说,问题还会不断出现。所以我们需要有一个常态化快速响应机制以应对未来会出现的这些问题。”原力无限机器人联合创始人刘扬认为,可划定范围建立AI风险试验区,从中验证总结,再将治理经验推广至整个行业。他坦言,AI治理单纯依靠企业自觉性很难达到理想结果,还需要联动专业机构、监管部门、企业联合会等实现共同管理。
“就像比赛中一定要有裁判这个角色,就是为了通过一定机制限定大家在比赛中按规则来做。”因此刘扬建议,“比如可以先划定一个小范围完全放开,在这里面去验证可能会有哪些风险出现。同时将各种产生的风险数据、产生原因、治理方法等建立资料库,然后再告知相关行业、企业应该怎么做。”
不过,他也表示,即使如此肯定还会存在“漏网之鱼”,所以如何在发生未能预测的潜在风险时,把风险规避到最小也显得尤为重要。“就像早前充电宝在飞机上引发火灾风险后,不是单纯依靠机场检查这一个办法,而是通过软硬件侧立刻‘拉闸’,同步把潜在风险排除掉。哪怕是在牺牲效率的情况下去做这件事,因为安全永远是最重要的。”
设置风险评级 制定准入门槛
浙江佑平律师事务所执行主任俞起从法律保障体系方面建议,可根据不同AI行业领域的风险级别构建风险评估与分级分类处置机制。“这样能够更好实现垂直领域风险动态评估。监管者强化多部门协同联动,畅通违法违规线索举报渠道,敦促AI技术提供者落实合规管理激励机制与处罚措施。同时根据风险分级梯次设置准入门槛、治理义务与运营监管措施,嵌入适应性治理等。” 大公报记者王莉