点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
光明网评论员:在这个炎热的夏天,麦肯锡的新预测又为生成式AI添了一把火。在这篇名为《生成式人工智能的经济潜力:下一波生产力浪潮》报告中,麦肯锡指出,生成式AI可能每年为全球经济贡献“一个英国的GDP”。
对“一个英国”的贡献规模,报告又细分了几个领域进行估算。在研发领域,生成式AI可以将产品研发的生产力提高10%至15%。在服务领域,通过对一家5000名客服人员的公司研究显示,生成式AI的应用使每小时的问题解决率提高了14%,并将处理问题所花费的时间减少了9%。
估算很乐观,“一个英国的GDP”甚至有点激动人心。但正如报告前提所提到的,这些效果的前提是,“如果将分析的63种生成式AI应用于各行各业”。被一笔带过的“应用”过程,生产率之外的伦理风险管控,才是能否实现这个结果的关键所在。
“应用”首先意味着要伦理前置,识别价值。在生成式AI设计和研发之时,开发团队就应当被明确要求将社会规范和价值嵌入系统。其中当然包括明确的、成文的法律规范,同时也应包括体现在语言、习俗、文化符号当中的社会道德。和人类所经常面临的各种伦理困境一样,如果遇到这些价值发生冲突,那么系统要优先利益相关方群体共同分享的价值体系,并要考虑不同情境下价值位阶的可能变化。
这个伦理学习和识别的过程是相当复杂的。来看一个麦肯锡“每小时问题解决率提高14%”之外的故事:麻省理工学院的一项研究表明,当使用各种“人脸识别”来识别性别时,算法将肤色较深的女性误分类为男性的比例为34.7% ;而对肤色较浅的女性的分类最大错误率不到1%。随着人脸识别系统逐步应用于学校、机场、交通枢纽尤其是警务系统,完全可能引发新的种族歧视风险。连避免种族歧视这样明确性的、核心性的伦理要求都难以保证,让AI在复杂冲突情境下作出合理伦理选择、保护多个不同的价值观,就更为复杂。不是说“用”就能“用”的。
“应用”同样意味着要伦理问责,救济价值。相较于日行千里的AI技术,法律和行业自律有明显滞后性,事后监管目前仍是治理伦理失范行为的最常用手段。国际范围内的人工智能相关法规和行业规约都将透明性原则置于重要地位,要求AI系统应当记录其所作的决策和产生决策的整个流程,正因为这是找到责任主体、厘清责任边界的依据。
再看一个和麦肯锡的乐观故事完全不同的例子:意大利一家非政府研究机构2020年在分析了有关新冠疫情的1.12亿条社交媒体发帖后发现,其中40%的内容来源并不可靠;而在超过1.78亿条与新冠疫情相关的推特中,有近42%是由AI所发布。这是三年前的例子,不知现在的相关信息真实度如何,但既然并未听闻AI事主受到了怎样的问责,也许“不可靠信息”已经成为默认操作,甚至正当操作。以高伦理风险换高生产率,这本就不是“应用”之意。
生成式AI是“下一波生产力浪潮”,这个结论,其实已是常识。关键是如何合理而尽量低震荡地“应用于各行各业”,以一种伦理化的方式。这可能比估算有多少潜在GDP要复杂得多,要花力气得多。
(转载请注明来源“光明网”,作者“光明网评论员”)
【上一篇】较真“账号”与“帐号”,有积极意义