首页 热点资讯 正文

中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”的简单介绍

本篇文章百科互动给大家谈谈中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”,以及对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录: 1、《人工智能北京共识》发布 为研发、使用、治理提出15条原则

本篇文章百科互动给大家谈谈中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”,以及对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录:

《人工智能北京共识》发布 为研发、使用、治理提出15条原则

人工智能伦理与规范是未来智能 社会 的发展基石,为规范和引领人工智能 健康 发展,为未来打造“负责任的、有益的”人工智能。5月25日,《人工智能北京共识》发布,这一共识提供的“北京方案”,对于实现人工智能“自律”“善治”“有序”具有重要意义。

《人工智能北京共识》是由北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布。同时,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。

高校、院所和企业代表共同签署《北京共识》

《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和 社会 发展的15条原则。

北京智源人工智能研究院院长黄铁军发布《北京共识》

北京智源人工智能研究院院长黄铁军发布《北京共识》时强调:研发方面,提倡要有益于增进 社会 与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。

使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。

治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励 探索 更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对 社会 有益的方向发展。

另外,为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员任研究中心主任。

新成立的人工智能伦理与安全研究中心主任曾毅介绍研究中心

曾毅介绍人工智能伦理与安全研究中心的主要研究内容是:“研究中心将围绕人工智能伦理与安全的理论 探索 、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四大方面:一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证。三是建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险, 探索 允许用户撤销个人数据授权的机制及计算平台。四是构建人工智能风险与安全综合沙盒平台,建设自动检测平台,针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业 健康 发展。”

北京市科委主任许强讲话

北京市科委主任许强认为:经过60多年的发展,新一代人工智能正在全球范围蓬勃兴起,深刻地影响和改变了人类的生产生活方式,带动人类 社会 全面进入智能时代。人工智能涉及范围极广,应对人工智能带来的挑战,不是一个领域、一个城市、一个部门、一个机构能够独立完成的,需要充分汇聚科学家、企业家、产业联盟和 社会 各界的力量,多方参与、共同努力,持续推动人工智能伦理、规范方面的学术研究与成果转化应用,并不断强化行业自律。

会议倡导北京人工智能领域广大创新主体,积极践行并不断完善共识的内涵,共同营造良好生态,加快人工智能领域基础研究、核心技术创新和高精尖产业发展,让人工智能更好支撑北京高质量发展和创新驱动发展战略实施,并更好造福全人类。

今后,人工智能伦理与安全研究中心将为降低人工智能的风险和伦理隐患提供技术服务,促进人工智能行业的良性 健康 发展。

对人工智能的一些不成熟思考

第一,计算的本质与智能的本质。

《类脑智能研究的回顾和展望》指出,现有人工智能系统通用性较差与其计算理论基础和系统设计原理有密不可分的关系。计算机的计算本质和基础架构是图灵机模型和冯诺伊曼体系结构,其共同的缺点是缺乏自适应性。图灵计算的本质是使用预定义的规则对一组输入符号进行处理,规则是限定的,输入也受限于预定义的形式。图灵机模型取决于人对物理世界的认知程度,因此人限定了机器描述问题,解决问题的程度。而冯诺伊曼体系结构是存储程序式计算,程序也是预先设定好的,无法根据外界的变化和需求的变化进行自我演化。总结来看,计算的本质可以用一个数学公式f(x)=y来表达,是问题求解的范畴。

那智能的本质是什么?如何表达?著名信息论和人工智能专家钟义信给了一个探讨性的定义:智能一定是在环境的作用下,人跟环境相互作用,不断的去学习,不断的去进化,在这个过程当中展开了智能的活动。反之,如果没有这种主体跟客体的相互作用,如果一切都是十全十美,如果不需要做出任何的改进,那就不需要思考、不需要学习,也就不需要智能。所以,一定要在主体跟客体相互作用过程当中来考察智能才有意义。李衍达院士在《 沿Simon 开拓下去》的报告中探讨了智能的功能与智能的机理问题,指出基因的层次没有鸿沟,人和所有生物的机理是相同的,区别的是进化:自动适应外界变化而优化自身结构的功能。而且人脑在进化过程里面通过DNA的改变,改变了神经元的连接,这个连接既记录了学习的结果,又优化了学习算法。既简化了所需要的元件,又节省了能耗,非常巧妙。

第二,关于程序员转型。

和第一个问题有关,我们都是学习图灵机模型和冯诺伊曼架构长大的,思维方式相对固定。深度学习今年非常火爆,程序员又要开始转型。关于转型,我注意到几个论调:

以上我都不太认同,人类是万物之灵,遇到新问题,学习新东西,再正常不过的事情,何来转型之说?如果非要说有什么需要转变,我觉得是到思维方式的转变:

第三,脑复杂?还是环境复杂?

傅小兰在《Simon与认知科学研究》报告中提到了《分布式认知》,指出认知现象在认知主体和环境间分布的本质:认知既分布于个体内与个体间,也分布于媒介、环境、文化、社会和时间等之中(Cole Engestrom, 1993)。Herbert A. Simon 也指出,一个人,若视作行为系统,是很简单的。他的行为随时间而表现出的表面复杂性主要是他所处环境的复杂性的反映。人——或至少人的智力要素——也许是比较简单的,人的行为的复杂性也许大半来自人的环境,来自人对优秀设计的搜索,因此,“在相当大的程度上,要研究人类便要研究设计科学。它不仅是技术教育的专业要素,也是每个知书识字人的核心学科”。

第四,从上而下还是从下而上?

人工智能从上而下研究的开创者和代表人物是Herbert A. Simon,他当时想到,人的大脑活动是分层次的,在底层的机理没有搞清楚时,他认为也不妨碍对于高层概念、推理、问题求解层次进行研究。符号学派就是自上而下的典型代表,但至今符号学派一直受到自下而上的连接主义压制。自下而上的代表是日本的第五代计算机计划,东京大学元岗达教授提出“第五代计算机的构想”,随后日本制定了研制五代机的十年计划,总预算达4.3亿美元。以渊一博为所长的“新一代计算机技术研究所”苦苦奋战了近十年,他们几乎没有回过家,近乎玩命式的拼搏;然而,由于没有突破关键性技术难题,无法实现自然语言人机对话,程序自动生成等目标,最终于1992年宣告失败!这或许也是图灵机模型和冯诺伊曼架构的失败。然而,峰回路转,得益于分布式计算和大数据时代,深度学习成为主流的自下而上方法。近五年来,深度学习在“视”、“听”、“说”等领域取得了的巨大成功,但这还不能表明自下而上的胜利或者神经网络模型的正确。神经网络只是从下而上对大脑的粗糙模拟和抽象,是否是正确的大脑学习隐喻还不得而知。但神经网络的成功又引发了一些自下而上的尝试,据称IBM有一个名为“突触”的项目,研究芯片级类脑计算设备,支持低频率,低功耗,和大量链接等神经网络功能。

第五,鲁棒性?可解释性?魔术性?

这几个问题是现在机器学习,特别是深度学习面临的主要问题。人类犯错:水平从九段降到八段,机器犯错:水平从九段降到业余,这就是鲁棒性。鲁棒性要求,“好的时候”要好,“坏的时候”不能太坏。在封闭静态环境中,重要因素大多是“定”的,而在开放动态环境中,一切都是变的,开放环境的鲁棒性,这也是自动驾驶面临的困难所在。关于可解释性,也被称为深度学习的黑箱模型。若学习器不能给出治疗理由,则难以说服患者接受昂贵的治疗方案。若学习器不能给出停机检测的理由,则难以判断停机检测的风险和代价。这些案例都需要机器学习的模型给出解释,否则难以应用到难以用于高风险应用。而机器学习魔术性是指即便相同数据,普通用户很难获得机器学习专家级性能。就是专家之间,是特别考验团队实力的,也有一点运气在里面。门派都一样,功力不一般。

第六,目前的研究热点和我的方向。

深度学习是很火的,不过周志华说的很中肯:“深度学习中间还有很多困难而又重要的问题值得深入研究,但这些真正值得研究的问题,就我看到的情况而言,好像做的人非常少。大多数人在干什么呢?拿它做做应用,调调参数,性能刷几个点,然后发几篇文章。这样虽然容易发表文章,但恐怕很难产生有影响的成果。” 另外,周志华在引领集成学习的发展方向,CCAI17可以看到一些方向,香港科技大学计算机系主任杨强谈到的迁移学习,日本理化学研究所杉山将谈到的弱监督机器学习等。我的计划是,从历史中观其大略;感知机,神经网络,反向传播,深度学习是一条线,已经是必备的基础了;然后向增强学习发力;在技术上打通分布式系统,大数据和机器学习;在业务和需求上结合金融场景。

第七,已知和未知。

我们参考神经生理学,研制了神经网络和深度学习,并且取得了良好的效果。有人指出,大脑的生物物理结构,机制和功能只是大脑处理信息过程中的印记,其中很少一部分可用于有意识的思想(认知)。在学习未知的过程中,我们对学习到底了解了多少?在未知的区域里,既有要学习的对象,也有学习本身。

参考文献:

《人工智能走向2.0》 潘云鹤

《类脑智能研究的回顾与展望》曾毅等

《脑启发计算》苏中

《机器学习》序言 陆汝钤

《机器学习:发展与未来》周志华

《H. A. Simon学术生平》林建祥

《Simon的认知科学思想》傅小兰

《人工智能--螺旋上升的60年》高文院士

《沿Simon 开拓下去》李衍达

《塞蒙终生学术经历简介》林建祥

《人工智能的历史》中国人工智能学会

《司马贺的创新之路》史忠植

《弘扬Simon学术思想 》钟义信

《探寻大师足迹,一览马文•明斯基学术风采》史忠植

《站在巨人的肩膀上,从人工智能与认知商务》苏中

《弘扬 Simon的源头创新精神开拓“AI”的新理念新路径》钟义信

《独家 | 周志华:深度学习很有用,但过度追捧就有危险了》AI科技大本营

中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”的简单介绍  第1张

人工智能学习比较困难吗?小白是不是不合适

人工智能学习自学比较困难,参加培训专业的机构进行学习简单。如需学习人工智能,推荐选择【达内教育】。

人工智就业具体如下:

1、人工智能运维工程师。大数据与AI产品相关运营、运维产品研发;相关组件的运维工具系统的开发与建设,提供大数据与AI云产品客户支持。

2、智能机器人研发工程师。研发方向主要从事机器人控制系统开发,高精度器件的设计研发等。工业机器人系统集成方向主要做工作站设计,电气设计,器件选型等。

3、算法工程师。进行人工智能相关前沿算法的研究,包括机器学习、知识应用、智能决策等技术的应用。以机器学习的过程为例,涉及到数据收集、数据整理、算法设计、算法训练、算法验证、算法应用等步骤,所以算法是机器学习开发的重点。感兴趣的话点击此处,免费学习一下

想了解更多有关人工智能的相关信息,推荐咨询【达内教育】。作为国内IT培训的领导品牌,达内的每一名员工都以“帮助每一个学员成就梦想”为己任,也正因为达内人的执着与努力,达内已成功为社会输送了众多合格人才,为广大学子提供更多IT行业高薪机会,同时也为中国IT行业的发展做出了巨大的贡献。达内IT培训机构,试听名额限时抢购。

人工智能的道德,谁来塑造?|对话

人工智能伦理的下一步是什么?| 图源:pixabay.com

导 读

2021年11月,经过两年时间的准备,联合国教科文组织(UNESCO)发布关于人工智能伦理的建议书,这是首个全球性的人工智能伦理标准,参与国家多达193个。

建议书呼吁各国采取数据保护行动,提出人工智能系统不得用于 社会 评分或大规模监控目的。

《知识分子》就该建议书的内容对话UNESCO专家组成员 曾毅 ,他认为:

人工智能曾经是一个科学畅想,但在当下是一个“伞概念”,包括各种涉及算法的技术;

“相称性”应当是人工智能应用时的重要原则;

人工智能原则上不应应用于大规模监控和 社会 评分,但也应有例外情况;

伦理规则不应只在人工智能产品的设计阶段起作用,只有在全生命周期真正做技术落地,才有可能真正实现治理;

人工智能在研究过程中不需要太多限制的说法是误区,学界应当在人工智能技术发展和伦理治理中发挥引领作用;

只有人工智能的发展和治理的深度协同,才能最终实现人工智能的可持续稳健发展;

未来人工智能特别应当在推进生物多样性与生态发展、气候治理、文化交互等领域发挥赋能作用,助力全球可持续发展目标的实现。

撰文 | 王一苇

责编 | 陈晓雪

   

“欧盟在制定相关标准时,不会考虑亚洲的关切…… 不同国家的文化背景使得他们对于技术阵痛的观察视角不同。” 中国科学院自动化研究所人工智能伦理与治理中心主任、国家新一代人工智能治理专委会委员曾毅说,“而UNESCO包含了几乎所有的主权国家和相关地区,应当说是最广泛的共识。”

他指出,没有任何一个国家能预知到所有可能的潜在风险,各个国家根据自己国家的价值观、 社会 伦理和技术发展阶段来考量。这就需要大家同步互补的观点,互相学习和交流。

UNESCO的建议书以尊重、保护和促进人的尊严、人权和基本自由,环境和生态系统的蓬勃发展,确保多样性和包容性和和谐与和平共处为价值观,提倡公平非歧视、可持续、隐私等原则。

建议书认为,“人工智能” 这一概念随发展而变化,因此不给出唯一定义,只将其视为 “有能力以类似于智能行为的方式处理信息的技术系统”,其中,包含模型和算法是其主要特征。

曾毅在中国科学院大学和清华大学任职,既是类脑智能模型的研究者,也 “跨界” 钻研人工智能伦理与治理。他是起草教科文组织建议书的24位全球专家之一,同时也是中国参与协商该建议书的代表。多个国家讨论出一个共同的伦理标准并非易事,他坦陈 “这是一个求最大公约数的过程”。

第一版草稿形成后,联合国自2020年开始组织区域性的对话,同时教科文组织也把第一版草稿发到各个会员国,正式征求国家建议。2021年6月份左右,193个会员国派出代表,进行政府间磋商,对文本当中的每一个段落做逐字逐句的修改。

针对这份建议书,《知识分子》与曾毅聊了聊他参与起草的过程和对人工智能伦理现状的观察。

为了表述的简洁和清晰,访谈稿略有编辑。

知识分子 :建议书称 “无意对人工智能作出唯一的定义”,只探讨 “人工智能系统中具有核心伦理意义并且在国际上已形成广泛共识的特征”,为什么?我们现在说的 “人工智能” 到底指的是什么?

曾毅: 每个机构、国家,在人工智能战略里对人工智能的定义都不一样,在这上面达成一个全球共识并不必要。它本身就是一个与时俱进的概念,是快速迭代的。人工智能的定义本身也需要适应时代发展。

一开始,人工智能是一个科学畅想。1956年的达特茅斯会议 (作者注:普遍认为是人工智能领域的发起会议) 上,发起人 John McCarthy 说,这个会议的目的是 “从一个猜想出发,即原则上,智能每个方面的学习方式和特征都能被精确描述,使得机器能够模拟它们”。 [1] 即在计算机系统上重现人类的心智。这种重现不仅仅是行为上的,更是机制上的。

人工智能最开始的目标是推进科学进展,使人们生活得更好,从很多领域内,尤其是体力劳动中,把人解脱出来。现在人工智能的应用在替代劳力的方面确实比较相关。

但几十年后,人工智能变成了一个 umbrella term (伞概念,指概括性的术语) ,特别是面向产业的时候,不管是自然语言处理、数据挖掘、机器视觉等,都叫人工智能。

现在的人工智能已经不仅仅是一个科学 探索 的领域。现在一个学生做了一个新算法,比如用户上传图片,人工智能就画一个类似的铅笔画出来,谁都可以用。这个图像可能就存在一个大学实验室的机器上,机器获取了你的数据,却不一定有人仔细思考如何去保护你的数据。但个人信息一次的丢失就意味着终身的风险,你甚至都不知道这样的信息丢失在10年20年后对你来说意味着什么。你没有想过,做应用的人也没有想过。别有用心的人就有可能通过各种途径收集数据,对我们产生负面影响。

尽管我非常不喜欢,但现在大家把这些东西叫做人工智能,它的服务出现在我们生活中。而创造程序的人几乎没有经过任何伦理学培训。

2018年开始,我在中国科学院大学开设了一门人工智能哲学与伦理的课。当时开课很困难,大家说你又不是伦理学者,凭什么讲这样的课?诺贝尔奖和图灵奖获得者、卡耐基梅隆大学的司马贺 (Herbert Simon) 写文章 [2] 讨论过一个观点,好的交叉学科研究,一定是领域A的专家变成半个领域B的专家。人工智能伦理也是这样的。

80%来上我的课的学生都是工学相关专业,20%来自人文学院。对于技术研究者,人工智能创新几乎每走一步,都可能涉及 社会 关怀、 社会 伦理,他们需要知道注意哪些 社会 伦理问题,需要了解未来二三十年人工智能作为一个道德主体可能对 社会 造成的挑战;而从事科学技术哲学研究的学生,未来将会是中国人工智能 社会 相关领域重要的意见领袖,他们需要知道人工智能真正的进展。

知识分子 :怎么看待建议书中 “人工智能不能用于大规模监控和 社会 信用评分” 的表述?

曾毅: 人工智能不能用于大规模 社会 监控和 社会 信用评分,是政府间磋商时德国的学者提出、列进去的。

说到这个,就要提及我们讨论的一个概念叫proportionality (相称原则) ,意思是,不是什么时候人工智能都好,不需要的时候就不要用。现在很多技术创新者会提出 making AI everywhere (让人工智能无处不在) ,我看到的时候就觉得,有必要吗?

以城市治理为例。舒可文先生的著作《城里:关于城市梦想的叙述》指出,城市的规划,一半是野蛮生长,一半是规划,这才叫做城市。因为城市中除了技术还有人际关系,它的形成方式是多样的。人工智能也不是什么地方都要去介入,应当适度使用。

不过我有一点保留意见,即使在欧盟的人工智能法中,大规模 社会 监控这件事也是有例外的。比如抓逃犯、寻找丢失的小孩、威胁国家和 社会 安全的特殊情况,是可以去应用相关的技术的。中国也在这些领域应用了这些技术,如寻亲打拐,效果也很好。但在教科文组织的规范中,并没有明确给出例外情况,我觉得不是特别合适。

社会 评分当中是否要使用人工智能,我觉得确实需要慎重思考。

社会 信用系统现在是一个精确匹配的自动控制系统,不是人工智能,没有学习能力。很多规则都是清晰的、人类定义的规则,比如违反交规的扣分和罚款你不交,但有钱去买机票,这个就说不过去。但如果基于大规模的数据去学,学到规则后应用到 社会 信用评分中,我作为普通公民也会比较担忧,因为学到的这个规则里,很可能有人类的偏见,如果没有人类来辨别,直接应用很可能有潜在风险。

例如,推荐工作的人工智能系统,给40多岁的男性推荐高管职位,给28岁的女性推荐服务员职位,这就是系统学到了 社会 的偏见。谁说28岁的女性不能当高管呢?人工智能现在没有真正理解的能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身体和心理的伤害,那么怎么可能对这种偏见去做处理?

曾毅在看一本讲全球公平的图书,他说,“未来使机器人真正理解公平”是AI伦理的核心 | 图片由曾毅提供

有些人说,技术是中立的,我不同意这个说法。我觉得说技术中立是一个借口。技术学到了偏见,但没有去处理,它还是中立的吗?推荐算法没有加入干预的过程,而推说这些都是 社会 的问题,这都是在找借口, 社会 的问题不代表你没有解决的办法。

正是因为有这样潜在的问题,在没有人为筛选和有意监督的情况下,把人工智能应用到 社会 评分领域,可能会造成巨大的负面效应。目前我还没有看到这样的例子,希望在哪里都不要发生。

知识分子: 由于新冠疫情,各个国家都开展了不同规模的 社会 监控和信用评分,这和上述原则不是背道而驰吗?

曾毅: 2020年3月份, MIT Technology Review 做了一个工作,分析了各个国家 contact tracing (密接追踪) 的软件 [3] ,评价上,如果强制收集信息就很糟糕,不强制就好一点;国家运营的话也很糟糕,私营的就好一点。可以看到,中国的评分很糟糕。我认为它的评分很不客观,它只考虑了伦理方面。

选择性地向用户要求信息,实际上降低了这个系统的有效性。如果系统使用过程中采取并非强制而是完全自愿的原则,有可能导致密切接触网络的关键数据缺失,使得系统的数据分析无效,或者效果很差,那么我们为什么要用它?去用一个伦理设计上更道德、但应用层面效果很差的系统,还不如不用。Wired杂志后来有个报道 [4] ,说西方国家的 contact tracing 似乎没有亚洲国家那么有效。有效性到很后期的时候才被西方国家提上日程讨论。

在这个过程中,我们要学到的是如何平衡。这种平衡不是妥协。接受为了疫情而采集温度和人脸信息的数据,不意味着让渡隐私。2020年底,在 健康 码上输入身份证就可以获取到明星的素颜照,这就是开发 健康 码系统的机构没有很好地保护个人数据。 (作者注:2020年12月29日,对于北京 健康 宝“代查他人 健康 状态功能,有时不需要进行人脸识别”的情况,开发北京 健康 宝的单位北京市经济和信息化局大数据建设处(智慧城市建设处)回复称:“此问题已解决。” 事件中未见问责。)

如果相关的机构不能有效保护这些数据,是应当负责任的。2021年11月1日起施行的《中华人民共和国个人信息保护法》,规定个人信息处理者应制定内部管理制度和操作规程,加密,安全培训,制定安全事件预案等方式确保其收集的个人信息的安全,而如果违规违法,则将面临从警告、罚款、停业到刑事处罚的惩罚。此外,2019年起施行的《儿童个人信息网络保护规定》专门针对不满14岁的未成年人信息保护作出规定,违反者由网信部门和其他有关部门依据职责,根据《中华人民共和国网络安全法》《互联网信息服务管理办法》等相关法律法规规定处理;构成犯罪的,依法追究刑事责任。此外,国家互联网信息办公室近期刚结束征求意见的《移动互联网应用程序信息服务管理规定》修订版规定,应用程序的发行者和发布平台应接受 社会 监督、设立举报机制,对于存在数据安全风险隐患、违法违规收集使用个人信息行为的,或者损害个人、组织合法权益的应用程序,应当停止提供服务。

即使这样的系统是必要的,这不代表用户以任何形式让渡了隐私。它其实提出了更严格的要求,在满足隐私保护约束的前提下,才可以采集信息。

政府对于技术发展的管理和治理有一个学习的过程,而基础设施研发团队如果伦理意识淡薄、安全意识缺位,就会使得购买了服务的政府要为可能出现的纰漏背书。政府一定开展了质量评估,但是由于AI伦理专家的缺位或者设计的缺陷,并不是所有的伦理问题能够在评估阶段发现。政府应该为此负责,但是由于部分信息不透明,有时候我们可能无法了解后续处理情况。在这种情况下,在 社会 舆论监督的影响和政府的督促下及时调整系统设计与实现,是底线。

知识分子: 纸面上的伦理规则,如何落到现实中?

曾毅: 伦理原则即使在设计阶段发挥了一些作用,但在算法实现、产品服务和产品部署的过程中如果不注意,都可能带来各种各样的问题。只有在人工智能产品的全生命周期 (包括它的上下游客户) 真正做技术落地,才有可能真正实现治理。

举个例子,2019年杭州野生动物世界的案子 (作者注:杭州市民郭兵于2019年购买杭州野生动物世界双人年卡,并确定指纹识别入园方式,但野生动物世界此后强制要求激活人脸识别,否则无法入园,郭兵因此提起诉讼,该案以郭兵胜诉告终,被称为 “全国人脸识别第一案”) ,其实就包括使用和部署环节的问题,知情同意没有做好。此外,采集的数据到底是保存在动物园还是相关企业,企业的保密和数据加密资质是什么样的?这一切都不清晰。

而在伦理原则还未落地、还不是法律的时候,如何实施?换脸软件ZAO和教室表情识别看学生是否认真听讲,是两个具体的例子。ZAO在上线后三四天下线,被工信部约谈;而教室表情识别的事发生后,教育 科技 司表态,在不必要的场合就不需要引入人工智能,建议不要使用,那时就基本上叫停了相关服务的发展。当时绝大多数人脸识别企业都有做类似尝试,有些可能已经形成应用,甚至规模化应用。据我所知,很多企业的这条产品线基本也都停掉了。

法律讲的是底线,红线。 科技 发展过程中法律的守护底线红线作用永远不可替代。而 科技 伦理问题是法律之上的 科技 发展与 社会 之间的软性约束和契约。不触犯法律并不代表没有道德伦理问题。伦理道德对 科技 发展的考量和反思是确保 科技 健康 发展不可或缺的要素。 科技 发展与 科技 伦理形成双螺旋结构, 科技 才能稳健地助力人类文明的繁荣。

企业创新者要做全生命周期的伦理落地,要自律自治。有些企业有专门的伦理委员会和伦理研究组,但有一些小企业或者初创企业没有这个能力,学术界和政府应该给他们提供伦理相关的服务,以公共服务的方式,避免这个问题,后面的监管会省很大力气。

我们现在也在和政府相关部门合作推进人工智能治理的公共服务平台。 [5]

知识分子: 人工智能是不是安全和人工智能是不是道德,有关系吗?

曾毅: 人工智能安全和人工智能伦理是两回事,但它们不是不相关的事。安全是AI伦理的一个必要属性。

技术风险会引起 社会 问题。举例来说,现在的深度神经网络做看似智能的信息处理,但经常会犯人不会犯的错误。去年11月,世界公众科学素质促进大会在北京举办的时候,一个做新冠病毒感染肺炎筛查的企业说他们的准确率已经超过了医生,完全可以替代医生。那时候还没轮到我发言,但我当时不得不打断,我说毕竟这是一个科学素养大会,做的是公众科普 (传达的信息要准确) 。人工智能永远不应该代替人类决策,说完全替代医生,这是完全错误的。因为现在的人工智能系统很容易造成误诊。比如一个皮肤癌筛查的系统,一个角度照手上的小包就是99.99%的可能性,换一个角度就检测不到。这种错误医生是不会犯的。人工智能说是99.99%的准确率,但一张图像加一点噪声,就可能被识别为其他东西。

有人说,识别错了又怎么样呢?我举一个例子,谷歌的3D物体识别系统,有80%的概率将一个3D打印的乌龟识别为一把来福枪,20%的概率识别为其他东西,但没有一次识别为乌龟。设想这样一个场景,10岁的小孩拿着一个3D打印的乌龟站在马路边上,但监控系统把它识别为10岁的小孩拿着一把来福枪站在马路边。如果有人刻意制造这样的事件,对于 社会 的治安将是很大的挑战。

又例如未来的自动驾驶无人车,如果被黑客操控了,如果 (被威胁方) 不交钱就直接开到悬崖下,甚至用于攻击 社会 ,这种风险都是技术本身的风险。

人工智能的风险要分等级,应当对应用紧迫、高风险的领域做合理的分级管理。例如自动驾驶的风险不仅仅在全自动驾驶的时候有,辅助驾驶时,如果视觉系统被攻击,检测不到图像,前面一片白,它就冲过去了。

最麻烦的事情不是技术解决不了这些问题,而是伦理意识的缺失。本来容易解决、可以防患于未然的事情没有人重视,在产品研发过程中没有解决,这才是现阶段我们最大的风险。所以为什么说号召大家把伦理原则嵌入整个产品的生命周期,就是这个意思。

知识分子: 企业对于这份建议书有什么样的反馈?

曾毅: 有一些企业会说,它似乎符合其中70-80%的原则,非常自豪。我就说,其实后面的20-30%才是最关键的。如果其中70-80%都不符合,可想而知你做的是一个什么样的产品。

如何去解决后20-30%的问题,我觉得是一个共同挑战。企业与学术界有距离,很可能不知道如何落地,或者有些问题现在大家考虑都比较少,就需要学界和业界共同努力。比如,大家都谈用户隐私,用户授权后,不满意了要撤销,不想用这个服务了,那么你得把我的数据删掉。在数据库里删掉用户数据很容易做到,但人工智能模型中,把用户的特征数据删掉,对于每个模型都很难。除非你重新训练人工智能模型。但对很多企业,重新训练要两个礼拜、一个月甚至半年才做一次,很难做到真正意义上的实时用户授权撤销。

真正可持续的发展,责任不光在政府,很多时候是一个生态共同体。按联合国规划,我们总共有不到十年时间实现这些可持续 (发展) 目标。如果仅仅是政府在推动,这个目标很难在十年内实现。

知识分子: 学界在开展人工智能研发活动时,需要注意什么?

曾毅: 一方面,我想纠正一个错误观念,认为在研究阶段不需要太多的限制。我觉得这是不对的。

例如做人脸识别算法,就算没有提供服务,收集了人脸来提升性能,是不是就不会有伦理问题?如果在研究阶段没有伦理考量,很容易因为利益引诱,成果或者副产品作用到 社会 ,产生负面影响。

另一方面,伦理的前瞻性研究,学术界一定要发挥引领作用。一方面是在人工智能服务中加入道德约束,使得它更符合伦理道德规范;另一方面,未来是否能开发真正能自主学习、理解人类伦理道德的人工智能,是非常重要的学术挑战。

仅有产业界的努力是完全不够的,甚至几乎没有产业在做这样的事情。

可持续发展和治理是深度协同的关系,既不是竞争,也不是平衡,就像DNA的双链结构,互为支撑,使结构相对稳定。实现发展和治理的深度协同,最终才能实现稳健的发展。学术界应当前瞻性地作出引领工作。中国和阿联酋的人工智能规范中比较强调可持续,其他国家的可能没有那么明显。

人工智能在实现过程中也会带来碳排放。现在人工智能在向大模型方向发展,能耗是非常高的。而产业在推进大模型研发的过程中,基本没有考虑碳排放的问题。人工智能本身的目的是去替代一些体力劳动,但如果替代过程中碳排放的成本还高于人力,负面作用很大,是否值得就是个问题。我们自己做了一个研究,叫做AI Carbon Efficiency Observatory [6] ,人工智能碳能效的观测站。把所有人工智能大模型的碳排放情况列出来,让大家去看一看。

此外,指南中提到的另一个要点是人工智能应该促进文化传承。当时其他的代表提出人工智能促进文化传承,我说,传承是保护,没有交互,它可以更进一步,不仅保护文化,还可以找到文化之间的联系,通过人工智能赋能文化交互。比如你对法隆寺这个传统的佛教寺庙比较熟悉,但不熟悉故宫,它们之间的关联实际上非常多。你喜欢敦煌,而敦煌的文化其实和来自世界其他国家的文化是非常相关的。文化交互引擎(Cultural Interactions Engine) [7]就是通过人工智能技术自动发现不同文化的景点和自然资源间存在着的关联。

参考资料:

[1]

[2]

[3]

[4]

[5]

[6]

[7]

制版编辑 | 卢卡斯

曾毅:企业算法伦理与应用要做到知行合一

中新经纬12月21日电 (张燕征)近日,清华大学 社会 科学学院 社会 学系、中国科学院学部-清华大学科学与 社会 协同发展研究中心主办中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”了“伦理立场、算法设计与企业 社会 责任”研讨会。中国科学院自动化研究所研究员曾毅在研讨会上指出,企业算法伦理与应用要做到“知行合一”。

“人工智能是一个看似智能中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”的信息处理工具,但并不能像人类之间一样默认有一定的基线水平信任,人类的信任来源于长期的文化沉淀与关系网络。”曾毅表示,人们对于人工智能系统的起点应是不信任,随着交互增多,人们开始逐渐对人工智能系统与服务产生一定的、有条件的信任。

“企业算法伦理与应用要做到知行合一。” 曾毅指出,在人工智能伦理和治理方面,一些企业设有伦理研究团队,并产生一些关于伦理研究的结果,但伦理研究结果并没有真正用来指导企业研发人工智能产品与服务,甚至产品团队与伦理团队存在较大鸿沟,如果是这样的话,长远来看企业很难赢得公众、政府、学术界的信任。

伦理原则的技术落地挑战重重,需要企业和学术界真正将伦理关切进行深度技术实践。 曾毅举例说,《中华人民共和国个人信息保护法》、人工智能治理原则都谈到了平台应该给用户授权,比如用户可要求平台删除用户的数据,这件事看起来简单,但它在技术落地上几乎不具备可行性。

“数据库里可以实时删掉用户的数据,但只要是用人工智能算法的企业都知道,应用数据方法绝大多数不是放在数据库里面调用的,而是通过人工智能和机器学习模型学习,把用户特征学习到了以后,以参数的形式内化于人工智能模型当中。如果中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”你采用类似于深度学习的神经网络模型,是很难把单个用户数据的影响从模型当中删除的。”曾毅称。

人工智能对于 社会 长远的影响也不可忽视。曾毅表示,人类的下一代是 社会 当中最脆弱的一代,因为当受到伤害的时候,他们没有成年人的表达欲望和能力。另外,即使他们受到人工智能产品与服务的伤害时,他们可能也不自知。这就使得他们更容易受伤害。

因此,曾毅表示,目前人工智能伦理原则中,应该明确告知用户现在交互的对象是人工智能,而不是人类,未来也不应该混淆人工智能与人类之间的界限。

“如果真正能够实现人类水平的人工智能,它必然是有真正的理解能力。假如它变成 社会 准成员,我们该怎么处理人工智能与 社会 准成员之间的关系中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”?也许我们的文化现在还很难接受人工智能成为 社会 准成员,但是一旦向这个方向迈进,实现通用人工智能或涌现出超级智能,对现在的 社会 来说,是完全没有任何准备的,其存在的长远伦理问题未来三五十年时间未见得有解。”曾毅称。(中新经纬APP)

中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于、中国发展高层论坛2023中科院曾毅:人工智能需要正确的“打开方式”的信息别忘了在本站进行查找喔。

海报

本文转载自互联网,如有侵权,联系删除

本文地址:https://baikehd.com/news/32070.html

相关推荐

感谢您的支持