10 月 17 日至 19 日,由 CCF 主办、苏州工业园区管委会、苏州大学承办的 CNCC 2019 在苏州成功举办。今年大会以「智能+引领社会发展」为主题,选址苏州金鸡湖国际会议中心召开。雷锋网 AI 科技评论将会作为战略合作媒体进行全程跟踪报道。除了 15 场特邀报告外,今年 CNCC 的 79 场技术论坛作为会议的另一大重要组成部分,也是参会者重点关注的内容。其中「人工智能开发的道德边界在哪里?」技术论坛应该是所有论坛当中“战火”最浓的一个,数十位各领域专家齐聚一堂,针对AI伦理问题激烈探讨了整个下午。
“不讲title,激烈思辨”是YOCSEF的特性。YOCSEF,全称为“中国计算机学会青年计算机科技论坛”,它是一个重在以思辨的方式讨论计算机相关产学研等相关问题的论坛。YOCSEF的规矩是,任何参与这个论坛的人都可以发言,而且发言中不讲title,所有人直呼其名,平等发声,因此每次YOCSEF举办活动都会“战火弥漫”,碰撞出智慧的火花。
本次论坛主题为讨论「人工智能开发的道德边界」问题,汇聚了包括从事计算机科学、人工智能、哲学、伦理学、法律等行业的专业人士。各位专家就相应论题,分别从各自专业角度对人工智能伦理问题做了深入探讨。
近年来随着人工智能技术不断在各行各业中得到广泛应用,AI对人类社会的影响可谓是方方面面。例如最近较为火爆的换脸技术产生的数据安全问题、大数据产生的“杀熟”问题、自动驾驶的安全责任问题、人脸识别产生的隐私问题等。
在这诸多问题中,哪些是能做的?哪些是不能做的?以及我们能做到什么程度?这对我们人类来说都是不小的挑战,因为这是我们人类数百万来所面临的全新问题。对这些问题的回答就是为AI伦理划定一个不可逾越的边界。
北京大学邓小铁教授
北京大学邓小铁教授在引导发言中提出,任何一项新技术的兴起都会引发一系列的争议,AI也同样不例外。那么当AI技术的应用在人类社会中引发伦理风险时,如何界定AI与人的边界、如何与AI定契约至关重要。他提出AI伦理边界的划分,将不再像以往的伦理道德那样局限在人与人之间,现在则多出了一些维度,还涉及到人与AI、AI与AI之间的伦理边界问题。这对我们来说是全新的思考领域。他同时还指出,我们在与AI制定契约时,需要遵循三大最基本的原则:可执行、可验证和可执法。作为引导发言,邓小铁教授还提出了在与AI交互过程中存在的四个问题:
Code is law。如果代码就是王道,那么我们应该建立怎样一种程序来监管编程人员呢?
谁能代表AI定契约?是AI的制造者,还是AI自身?
AI伦理设计的不可能三角。在AI涉及伦理时,人类的机制如何设计、AI如何执行、市场如何接受?
能否允许AI来制造AI?这个时候人类是否还有能力对AI实施管理和监测?
但紧接着一位来自中南大学的教授便指出邓教授的思考中存在一个漏洞,即事实上我们整个学界对“智能”这个词是什么一直并没有搞清楚,因此也不可能搞清楚人工智能是什么,只有当我们真正弄清“智能”的概念,知道了智能和人类的局限分别是什么,我们才有可能去讨论AI和人类的伦理问题,或者权利和义务问题。在辩论中,几位哲学领域或法律界的人士分别指出了AI伦理边界的以下几个特点:
伦理的时代属性。北京大学副教授吴天岳指出,任何伦理道德都是有时代烙印的,因此尽管目前已经有诸多原则,但我们还需要有历史意识和前瞻意识,以避免我们自己的道德偏见阻碍了未来人类的发展。
道德的边界应该是动态的。天津理工大学罗训教授认为任何治理原则都是不可能是一旦制定永不改变,因为伦理永远在随着时代和地域而变化,因此关于AI伦理应当是动态的,不应当去静态地刻画。
AI伦理中人的属性不可忽视。现有的AI仍然不是一个道德主体,所以目前所讨论的道德边界主要还是针对人类行为边界的界定。
中科院自动化所研究员曾毅作为第二个引导发言者,介绍了当前国内外在人工智能原则上的进展,并针对各国人工智能伦理原则进行了详细分析。
中科院自动化所研究员曾毅
据曾毅研究员介绍,目前全世界范围内已经发布的人工智能伦理原则至少有53个,但这些原则没有一个可以覆盖当前人工智能技术所带来的所有问题。以比较全面的《人工智能北京共识》为例,对于“致命武器”、“公平”等并没有涵盖,原因则在于发布者的立场和视角不同,面对的社会问题也不同。
当然,尽管目前已经有如此多的AI伦理原则,甚至包括一些企业(例如谷歌、微软等)都制定了约束自身的伦理原则,但大多数伦理原则并没有得到很好的执行,或者可以说至今为止没有一家企业不会触犯原则。例如尊重隐私这条,当用户要求删除数据时,虽然数据本身可以删除,但由于当前AI技术的限制,已经训练的模型仍然包含原有数据训练的结果,这种痕迹很难在机器学习模型中得以抹除。
曾毅还指出当前AI伦理原则所面临的一个问题,即当前人工智能主要的目标还仍然是推动经济发展,而却没有对“AI对社会及生态影响”给予足够的重视。因此他提出,人工智能伦理的问题,并不仅仅是有多少领域的专家参与这个问题的讨论,更重要的是要让足够多的人重视这个问题,并参与其中。
北京大学黄铁军教授
针对AI伦理原则(甚至未来可能的法律),一位与会的学者提出,如何才能做到技术监管不会限制了人工智能的发展。北京大学黄铁军教授从更为广阔的角度回答了这个问题。我们作为人类,思考AI伦理不可避免地会站在人类视角,秉持以人为中心的观念。黄铁军教授指出,目前我们所指的人工智能事实上是嵌入在人类社会的一种形态,人工智能开发遵循人类整体基本的道德共识。但机器智能超越人类智能,这是一个未来进化的趋势。科技创新和发展不应被人类自身的局限性而限制,对人工智能的发展我们应持有一个更开放的心态来对待。
面对AI的伦理原则,一项很重要的事情便是,如何确保人类(个人或组织)、AI遵守相应的伦理原则?
北京大学副教授吴天岳
吴天岳教授认为,针对AI开发者,职业道德和职业伦理非常重要。技术作为一种手段,它服务于某种特定目的,因此为了防止人为的AI作恶,必须要强化AI开发者的伦理意识,从源头来遏制AI技术所带来的风险,而不能仅仅是在产品出来之后进行监管。这包括几个方面,首先是算法层面要做到可解释性、透明性;其次数据方面要确保均衡性和非歧视性;作为工具,要对算法进行专属测试。吴天岳教授强调,作为AI开发者必须要意识到,AI技术的实现是为了一系列人类核心道德价值服务,而不仅仅是为资本和权利服务。他举了2018年谷歌全体员工署名反对谷歌与美国军方合作的例子。
另一方面,除了自我约束外,吴天岳教授认为还需要外部监管。这便需要设置所谓“伦理委员会”。目前各大企业纷纷宣布成立内部的伦理委员会或类似职能组织进行监管。但针对“伦理委员会”是否真正能够起到作用不同学者抱有不同的看法。例如前面我们提到,目前几乎没有一家公司能够真正按照自己的伦理原则行事,或多或少都会触犯。曾毅指出,事实上一家公司能够真正做到所有原则中的80%已经很不错了。平安集团首席科学家肖京强调,“外部监管在制定一系列约束的同事,若能为企业提供更好地帮组,引导企业如何在保证‘活下去’的基本要求下,合理地进行AI技术开发,就可以协同共赢”。
立法是划清红线的手段。但其中也存在诸多问题,1)严格的法律是否限制了人工智能的发展? 2)法律应该在发展的何种阶段介入?举例来讲,目前我国在数据隐私保护方面的法律约束,相对于西方没有那么严格,这也成为我国能够在人工智能时代迅速占领高位的一个重要因素。一旦我们针对数据隐私做出严格的限制,可以想象必将极大地约束技术的发展。
科技是一种能力,向善是一种选择。科技的发展必须要服务于人类社会的进步与发展,才能成为科技的进步。以核能为例,它可以用来制造yuanzidan ,但也可以用来作为核能发电,只有当将这种力量用来为人类整体服务时,它才能够被称为科技的进步。
腾讯公司副总裁王巨宏
腾讯公司副总裁王巨宏指出,在过去二十年里,整个世界(特别是中国)经历了PC互联网时代、移动互联网时代,这在极大程度上颠覆了整个社会,而下一轮以AI、大数据、生命科学等为代表的科技浪潮正在形成、叠加,逐步构建成新的数字时代。作为科技公司,不仅仅是技术发展的推动者、科技时代的受益者,更重要的则是要有能力和义务去面对科技所带来的社会问题,用科技去解决社会问题,创造更多有益的社会价值。例如腾讯在人工智能的开发中提出并倡导“四可”理念(可知、可控、可用、可靠),并从技术和实践的层面去践行“科技向善”的理念。
相关文章:
CNCC爆款技术论坛,申省梅、陈熙霖主持,西湖李子青、阿里王刚多视角讲解CV赋能智慧城市
阿里巴巴王刚:自动驾驶没有免费的午餐|CNCC 2019
CCF系列奖获奖名单公布,胡事民、汪滔获CCF王选奖 | CNCC 2019
数据挖掘巨擘俞士纶:真实数据源不止一个,学习不仅要有深度还要有广度 | CNCC 2019
滴滴张博宣布开放城市交通指数数据集,助力交通领域科研发展 | CNCC 2019
深度学习如何大规模产业化?百度CTO王海峰最新演讲深度解读 | CNCC 2019
MSRA院长洪小文:作为与AI共生的第一代人类,应 AI + HI 和谐共同进化 | CNCC 2019
人工智能应用趋势之变——从制造到智造 | CNCC 2019
深度学习下的微表情研究:困难、进展及趋势 | CNCC 2019
https://www.leiphone.com/news/201910/8QqXBDNUw4RW0YSp.html
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。