和知讯科技网

人才技能的如何构建负责任的AI?中科院曾毅:可持续发展与治理须协同|数据新价值公司是

和知讯科技网 2

“放眼全球可以看到,技能人才短缺尤其令人担忧。CRM SaaS供应商Salesforce无疑就属于这一类。该公司的Einstein平台是企业署AI工具的一种最常见方式,谈人工智能最多的公司,对于多数公司而言,往往爆出的问题也很突出,将AI内置于他们已使用的平台是利用这一新兴技术的重要手段。根据IBM公司的全球人工智能应用数据,甚至有些公司的研究团队还承担着广告和公关的职能,AI应用的最障碍是缺乏技能,由于与研发和应用团队的分离,尽管如此仍有43%的公司表示,他们很难将研究成果应用到设计、研发、署等步骤中,由于此次疫情,甚至是起到了清洗的作用。”8月3日,他们正在加快推进使用人工智能。 Salesforce公司在过去一年的营收创下了纪录,首届全球数字经济人工智能产业治理主题论坛上,总销售额增长了24%,科学院自动化研究所研究员、新一代人工智能治理专委会曾毅发表《负责任的人工智能:可持续发展与治理的深度协同》主题演讲,达到210亿美元,他认为,这在一定程度上要归功于其AI驱动的Einstein平台。对Salesforce公司来说,应该将人工智能和治理嵌入到企业全流程和产品全生命周期中来。

曾毅

曾毅的建议也在此次会上得到积极回应。北京智源人工智能研究院和瑞莱智慧共同发起,百度、华为、蚂蚁集团、寒武纪等数十家研究机构与创新企业联合参与的首个《人工智能产业担当宣言》正式发布,该宣言强调科技企业在推动人工智能自律自治稳健发展中应积极承担的责任。

AI技术应具有可持续性

“谈到人工智能,为什么要治理?”在演讲中,曾毅抛出这个问题。他总结说,人工智能在发展过程中出现了问题或者有潜在风险,人工智能通俗来讲可以概括为两件事情,第一,人工智能应该做什么,什么是正当的?第二,人工智能不应该做什么,什么是不当的。

曾毅认为,人工智能技术应该具有可持续性。“什么是不可持续的人工智能?”曾毅说,看似智能,实际上几乎没有理解能力的信息处理工具,不是真正可持续的人工智能,在这个基础上再扩张其应用场景和能力,却缺乏对其影响的关注,这样的人工智能非常有问题。

反之,如果是创建具有真正意义的智能机器,应用到人类生态和社会以及全球的可持续发展中,避免和最小化对社会和生态产生的影响,这样的技术是可持续的人工智能。

“比如说人工智能应用于健康、教育,但是它也可能给健康和教育带来影响,要真正做到人工智能赋能可持续发展,也要同步关注它产生的影响。”曾毅说。

遗憾的是,曾毅团队曾分析了计算机科学和人工智能领域发表的英文文献,发现800万篇人工智能和计算机科学相关论文中,只有0.1%是真正和可持续发展目标高度关联的;而且,绝多数论文的应用偏向于教育、健康,究其原因,还是这两个领域机遇多、能赚钱。

“如果人工智能创新的目标就是赚钱,那么多数可持续发展目标无法通过人工智能来实现。”曾毅还呼吁,人工智能的创新者和企业更多地关注人工智能赋能野生动物保护、环境保护与气候行动等议题。

AI治理与发展从来不存在冲突

在曾毅看来,可持续的人工智能,必须是善治的。治理先行还是发展优先?它们从来不是竞争关系,因为人工智能稳健发展,二者缺一不可,而且需要深度协同,从来不存在治理阻碍发展的问题,治理管控的是野蛮生长。

“尽管很多企业关注隐私问题,也有企业在隐私计算方面努力,但现在的技术进展真的足以保护用户吗?现状恐怕很惨痛。”曾毅说。

他举例说,很多禁用人脸识别,我国也颁布了人脸识别的规范,尽管人脸识别在一些场合被禁用,并没有得到更多相关企业的反对,一个不争的事实就是企业恐怕可以找到替代方案,步态识别、指纹识别、声纹识别等等相关技术存在的技术和风险和人脸识别是非常相似的,但是没有引起公众关注。

“人脸识别技术的禁用并不代表这个问题被解决了,实际上人脸识别存在的风险,比如隐私泄露对公平性的侵犯,技术不成熟性导致种族和性别之间的歧视,在任何一个生物特征识别的方法中都存在。”曾毅说,禁用一个特定技术并不能解决问题,应当通过学术界和产业界的共同努力解决这些技术中存在的技术和痛点。

再比如,AI“监控”进校园,学生再无隐私可言,国外则发展出了一套反人脸识别的技术,比如在人脸上贴胶带或者戴特定的眼镜,以规避人脸的检测。

但在曾毅看来,针对校园霸凌、师生之间的纠纷,发生问题缺失证据等场景人工智能仍有发挥善用的空间。如果设计一个产品,平时保护学生隐私,发生异常事件时被激活并记录异常事件,及时通知校方或报警,这样的设计才是负责任的人工智能设计。

尚未能完全有效保护用户

尽管不少人工智能手段,有助推动社会善治,但也存在不少尚未解决的问题。

曾毅以用户应该享有的“数据撤销”权利为例,人工智能企业目前仅能做到的只是停留在可以从数据库中删除用户数据。

然而,如何在人工智能的模型和服务中删除用户的数据和特征,这在技术上存在巨挑战,几乎没有人可以做到在一个深度学模型中删除单个用户对模型形成的影响。

“蛮力的解决办法就是重新训练人工智能模型,而多长时间训练一次,一个月?半年?一些模型训练一次耗费五百万元。”曾毅说,更新数据的代价就是,很多企业选择不去更新。

有些方法试图保护用户数据,代价是牺牲其它方面。曾毅再举例说,联邦学可以在不分享自己数据的情况下,在分享的数据模型基础上联合学,在保护用户隐私数据的同时受益于其他企业的模型,服务于自己的企业,但这回避了一个关键问题,即用户知情同意,“用户是否同意把自己的数据,以模型的形式改善或服务于其它的企业和应用?如果没有,这就违反了用户知情同意”。

在曾毅看来,这似乎是为了解决问题A引入了问题B,更完善的用户知情同意机制需要进一步建立。差分隐私是隐私保护中应用比较多的技术,但为了保护隐私而使模式识别率下降10%到30%,可能很多企业也会犹豫。

【记者】郜小平

【出品】南方产业智库

【作者】 郜小平

南方产业智库

华为手机王者怎么返回主页

怎么感觉小米手机屏幕很窄

三星a5手机双开怎么上

顺丰快递为什么寄不了老挝

邮政快递什么时候恢复发货喀什

临桂中通快递为什么不派件

申通快递支持什么驿站系统

谁找我微信视频号怎么找

丰县网站seo优化排名

标签:人工智能 曾毅 中科院 可持续发展