当前位置:

智能时代的数据伦理与算法伦理──第五届全国赛博伦理学暨数据伦理学研讨会综述

来源:红网 作者:刘梦迪 编辑:司马清 2018-12-18 17:04:17
时刻新闻
—分享—

第五届全国赛博伦理学暨数据伦理学研讨会开幕式

  第五届“全国赛博伦理学暨数据伦理学研讨会”于2018年12月15-16日在海南海口举行。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”课题组、国家社科基金重大项目“高科技伦理问题研究”课题组、中国法学会“人工智能科技的法律规制研究”课题组、《伦理学研究》杂志社、《湖南师范大学社会科学学报》杂志社、上海玛娜数据科技发展基金会、湖南师范大学人工智能道德决策研究所、大连理工大学大数据与人工智能伦理法律与社会研究中心联合举办。海南省法学会、海南政法职业学院、海南省社会治理创新与人才培养基地承办。

  来自中国社会科学院、北京大学、复旦大学、上海交通大学、国防科技大学、华东师范大学、华南理工大学、中南大学、大连理工大学、湖南师范大学、科学出版社、上海玛娜数据科技发展基金会等高校、媒体和企业的近200名代表参加了会议。上海大学孙伟平教授主持开幕式,海南政法职业学院院长吴杰教授致欢迎词,中国自然辩证法研究会理事长何鸣鸿教授、中国自然辩证法研究会科学技术与工程伦理专业委员会理事长王前教授致辞。

  随着科技的发展,对智能时代背景下的数据伦理、算法伦理等伦理问题的探讨是一个开放性的议题,任何一种观点,任何一种理论都可能见诸于对这一论题的讨论。孙伟平教授认为人工智能无论在中国还是在世界,都是一个前所未有的发展阶段。我们应热忱地欢迎人工智能的到来,拥抱整个社会的智能化。面对人工智能发展过程中的一些问题,我们更不应退缩,而是应对人工智能的发展做一个合理的思考。大会围绕“智能时代的数据伦理与算法伦理及其法律规制”这一主题,从数据伦理、算法伦理、人工智能伦理、共享伦理与媒介伦理等四个层面展开了热烈而深入的探讨。

  一、数据伦理与医疗大数据伦理

  中国社会科学院段伟文认为,当前人工智能的发展的主要应用是数据智能,这使得智能算法在社会生活中所扮演的角色日益重要,并正在导致一种新的数据解析社会的来临。对于由此带来的数据解析社会及其算法权力也应该进行政治与伦理层面的审度,使算法权力强化循环机制、以预测为导向的可能性政治以及数据画像对主体性和能动性的剥夺得以揭示与辨析。

  大连理工大学李伦认为,数据主义是数据化的一种哲学表达,主张信息自由主义和数本主义,试图替代自由主义和人本主义。人类的自由和繁衍是永恒的价值,数据主义亦产生了诸多不良后果,数据主义不足以成为信息时代的精神基础。基于数据权利与数据权力失衡的状态,我们应倡导基于权利的数据伦理,减少数据主义的影响。

  江西财经大学黄欣荣认为,大数据将万物数据化并将世界透明化,由此引发了诸多伦理问题。传统的伦理学从消极伦理观出发,认为大数据给人类带来了隐私、公平与安全等问题,于是开出了阻止和治理的药方,试图用旧伦理规制大数据。但从积极伦理观来看,大数据及其透明世界也可能给我们带来真诚、平等、自由、安全和个性等人性的本真回归。大数据革命的历史车轮无法阻挡,我们只能坚持数据开放,提升数据能力,缩小数据鸿沟,并且改变隐私观念,重建伦理体系,追求有限自由,以积极的伦理态度拥抱大数据时代。

  上海交通大学闫宏秀认为,记忆伦理的探究在本源形式上与数据有必然的关联性,这种关联性不仅仅表现为数据作为一种技术对记忆伦理所产生的影响,也表现为数据的伦理属性与记忆伦理之间的羁绊、及数据相关的伦理问题与记忆伦理之间的羁绊。这些影响与羁绊正是记忆伦理的新面相。从技术伦理学的视角看,当其介入到记忆时,会引发一些记忆伦理问题,同时也会解决一些记忆伦理问题;从记忆伦理学的视角来看,记忆与技术的深度关联使得对记忆伦理的考察必须将技术纳入其中。

  国防科技大学张煌提出,伴随数据资源和数据财富的理念日益深入人心,大数据时代的数据资源分配领域矛盾问题凸显,与传统的分配正义理念的冲突集中体现为分配机会正义、分配程序正义和分配责任正义三个方面。根据以上内容,他认为数据时代实现分配正义应当遵循机会均等、分配标准与程序合理和利益与责任同等分配等原则。

  国防科技大学黄嘉认为,空间数据对当代民众社会生活和国防建设都具有重要意义,而实现空间数据的公正共享既是一个经济、政治和法律问题,同时也有着深刻的伦理意蕴。空间数据分享和知识产权保护中的伦理困境实质上是外空探索利用中的“人类共同利益”原则与空间利用商业化发展过程中的“经济理性”相冲突而引发的。化解伦理困境的基本思路是协调人类共同利益与国家、商业利益之间的关系。

  复旦大学黄斌认为,传统的知情同意模式及其内在关系预设,都是建立在个人自主性价值之上。大数据技术将人置于不同的群组进行分析,使得“知情同意主体”和“行动主体”的界线变模糊,从而产生了新的伦理问题。大数据本身所预设的“未知目的”与传统知情同意模式的“确定目的”预设存在着深刻的内在矛盾,从而使得数据主体的自主性很难得到尊重。

  湖南师范大学胡晓萌认为,信息技术的发展改变了人类记忆与遗忘的状况,信息技术以物质手段克服了人类记忆能力的限制,使得记忆可以成为永恒,这就导致了对数字记忆的争议。欧陆保守主义为代表积极推动被遗忘权的立法,GDPR明确赋予个人数据的被遗忘权;另一以维纳和弗洛里迪为代表的数据伦理学家则认为删除信息是一个熵增行为是不道德的。然而这两者观点都过于激进,未来基于权利的信息伦理是将数据权利赋予个体,通过行为准则和技术标准,能够对数字记忆给人类生活带来的诸多问题进行有效地消解,区块链技术为这种理论的现实可行性提供了技术前提。

  上海师范大学苏令银认为,在过去的几个世纪里,学术知识的构建普遍使用小数据研究,然而这种研究方法目前正受到大数据发展的挑战。但小数据研究在未来仍将是受欢迎和有价值的,因为它们在回答有针对性的问题时具有实用价值。报告重点阐述了大数据时代小数据研究的价值,以及它与大数据和数据科学的关系,并重点探讨了将小数据扩展到数据基础设施的意义。

  北京大学医学部张海洪认为,数据的使用对于促进公共健康,提升服务等有着重大意义,伴随着各种机遇的同时也出现了诸多伦理挑战。为了更好地规范政府以及公共部门对于数据的使用,英国文化、媒体暨体育部于2018年更新了《数据伦理框架》(Data Ethics Framework)。该框架尝试界定数据伦理相关的原则,不仅为数据科学专家和政策专家提供具有可操作性的伦理指导,而且从最初的设计出发,对数据收集、存储、分析和共享等全过程可能涉及的伦理问题提出规范要求,对我们进一步探索负责任的数据伦理最佳实践有着积极的启发意义。

  湖南师范大学孙雯波认为,当前以深度学习和数据挖掘两大核心技术为主的人工智能,向医疗产业赋能,政策、资本、社会、技术等优越发展条件推动医疗人工智能领域的开发和进展,将引发医学领域颠覆性革命。但目前医疗人工智能领域关于医学数据诸多乱象和困局亟待破解,以伦理视角关照和分析这些困局中的问题,在科学技术和社会发展的平衡中寻求法律法规和行业伦理约束规范至关重要。

  中南大学王晓敏提出,在2017年6月,国家食品药品监督管理总局正式加入人用药品注册技术要求国际协调会,标志着中国正逐渐走向探索性强、风险性高、技术复杂的创新性临床试验时代,这对我国受试者风险评估和安全权益保护提出了新的挑战。受试者安全评估是伦理委员会审查的重要要素,但我国目前对于非预期事件的关注和审查经验相对不足。通过对临床研究大数据管理系统中的非预期严重不良事件报告进行伦理分析,以全面了解、掌握非预期严重不良事件发生的情况,为非预期事件的全面而系统的评估审查,以及最大限度地保护受试者安全提供参考。

  北京大学医学部李晓洁认为,健康医疗大数据对公民生命健康保障极其重要,然而我国相关法规和伦理体系尚不健全,在采集和应用和管理中面临的一系列问题。因此需要在透明性、现实性、准确性、责任、特性群体保护和公正性等六大原则和共识基础上,设立数据专员并加强监管,在保护患者利益的同时,更好地推动健康医疗大数据对数据所有者的回馈。

  二、算法伦理

  黑龙江大学张本祥认为,复杂适应系统(CAS)核心是遗传算法,它模拟了真实的人类社会,其基本思想来源于进化论,对应的智能社会伦理原则是优先原则和效率原则。智能社会要求契约原则、自由原则、平等原则,智能社会整体层面的智能性自然要求伦理关系的整体原则,智能社会与动物种群的本质不同则在于个人及社会层面的超越理性计算的“神性”,这是智能社会中的博爱原则。

  华中师范大学张卫认为,技术属于真实物理空间,而算法属于虚拟的赛博空间,二者在本质上都是一种转换和输出,因此技术伦理学的研究可以应用到算法伦理中去。算法中的道德物化主要关注积极主动地把道德规范嵌入其中,是算法在助推人们做出合理适当的决策和行为发挥更大作用,更好地实现其正面积极的伦理价值。未来人类生化算法可能被外部算法全面超越,人类道德是否自主将是需要思考和面对的问题。

  武汉科技大学管开明认为,自动驾驶汽车的算法伦理处于人类的伦理道德范畴之中,对它的讨论不能超越人类的伦理范围。现实生活中驾驶环境错综复杂,人工驾驶所做出的道德决策亦难达成一致,更多的只能在事故后进行责任追责与划定。因此实现对自动驾驶汽车的算法进行伦理预设是不现实的,符合自动驾驶汽车的交通配套设施、交通体系的调整,完善相关法律法规与规范措施以利于情景归责才是促进自动驾驶汽车发展的真正解决之道。

  湖南师范大学孙保学提出,在设计高度自主的人工智能系统时,要确保其目标和行为在整个运行过程中与人类价值观相一致。一方面,最佳的伦理政策模式要在理性探讨和对普遍道德偏好的经验研究的基础上达成共识,在协商中不断地修正政策的不恰当之处;另一方面,负责任的伦理行为要求尊重不同集群的合理价值诉求。尤其,对于大数据算法层面的道德分歧的化解,既要剥离价值分歧中的事实分歧,更要充分地发挥伦理委员会在算法监管和实践裁决中的作用。

  重庆邮电大学李杨认为,算法的核心要素是清晰性或准确性,准确而迅速地完成特定任务的算法往往被视为优秀的算法。这种以完成任务的效果作为评价标准的原则背后蕴含着工具理性的逻辑。然而效果上达到最优但并不能避免道德困境的生成和具有天然的道德合理性。或许具有感知能力的情感及其系统在未来的实现能够很好解决这种难题。

  西安交通大学白惠仁认为,在现有法律和事故归责体系中,一旦自动驾驶系统引起交通事故,将会牵涉更多责任主体并导致归责困难。面对自动驾驶汽车事故处理方式,可以选择是否诉诸于道德归责,而避免道德归责的补偿方案和统一规则方案都面临理论困难,因此,讨论道德归责的方案是必要的。但是相较于传统汽车的道德责任问题,自动驾驶技术某种程度上改变了汽车与使用者的边界及二者的关系。面对智能技术可能的自主道德决策:汽车自身作为机器还无法跨越技术和概念框架的困难,不能作为道德责任的归责对象;而基于道德运气,如果使用者决定使用一辆自动驾驶汽车,表明他知道用车要承担的风险,一旦发生事故,使用者至少负有部分责任。

  复旦大学孟令宇提出,算法作为计算机科学的基础,其伦理问题直接关系到整个计算机科学领域的伦理问题,并由此辐射到现代社会的方方面面。他分别从算法伦理的研究对象和研究内容两方面将算法伦理定义为以算法的伦理负荷为研究对象的由一系列中层原则构成的伦理体系。

  三、人工智能伦理与人工智能哲学

  上海大学孙伟平提出,人工智能发展需要遵从伦理道德和价值规范,涉及从规范主体到规范对象从智能机器人的创造者到使用者。人工智能体道德原则比较著名的有阿西莫夫机器人三原则和联合国教科文组织提出的自主机器人应该遵循的道德原则草案,影响最大的是阿希洛马人工智能原则,给我们确立人工智能道德原则提供了很好借鉴。在此基础上提出人工智能发展的五大道德原则:人本原则,科技活动必须要造福人类,人工智能体必须尊重人类保障人的安全;公正原则,保证落后国家和地区人不受歧视;公开透明原则,智能机器人必须是可理解科检视保证不会产生危害人类动机,机器人不能自主联网和逃避监视;知情同意原则,人工智能技术应用到人类本身必须遵循这一原则;责任原则,如何判定机器人和智能驾驶系统的责任。

  华南理工大学闫坤如认为,在人工智能发挥越来越重要作用的同时需要高度重视其引发的潜在道德风险。智能机器的道德主体地位问题、新的社会安全与公平正义问题都需要详细考察和谨慎决断。规范与约束人工智能发展,应从伦理规约、制度建设、文化培育等多维度着手才能更好地规避人工智能风险,促使人工智能向更好方向发展。

  上海大学杨庆峰和伍梦秋认为,记忆理论能够澄清“强弱”人工智能的实质,记忆的分类也为人工智能发展提供了必要的理论基础。人们常将遗忘看作是记忆的负面现象,现代研究表明人类自然认知系统的遗忘并不需要完全抹去先前的信息,但对于机器而言遗忘却是彻底的灾难性的,这也是通用人工智能发展的关键障碍。但记忆并非完全是信息的巩固,遗忘是记忆的互补面,不是完全负面的现象,需要我们重新看待人工智能决策过程只不过记忆与遗忘的辩证关系。

  湖南师范大学毛新志认为,人工智能的飞速发展带来的伦理冲突、价值挑战和道德冲击是前所未有的。人工智能价值嵌入即是解决难题的一剂良方,它的设定既需要考虑全人类的共同价值追求,又需要结合各国的文化传统、价值理念和伦理规范方面的国情,有差别的进行具体价值规范的嵌入。通过多方的参与、讨论与协商,确立一些广泛认可的价值原则和具体的伦理规范嵌入到人工智能系统中。同时,需要思考通过何种途径将这些伦理价值嵌入到人工智能系统。这里就需要首先对人工智能的算法专家进行系统的伦理培训,确保他们能够将这些伦理价值负责任的输入到人工智能系统中。

  长沙理工大学陈万球认为,人工智能伦理问题可以归结为技术功利主义、新旧技术规范脱节和技术行为失范三个方面。人与技术的关系问题实质上是人与人之间的关系。人工智能的伦理问题是技术的异化问题,是人类社会的问题在技术机器身上的延伸和投影。人工智能犯罪也好,侵犯人权也好,或者歧视问题也好,始作俑者是人,因为每个人工智能体的背后都是人,恶不在于技术,而在于人。“垃圾进,垃圾出”,算法歧视是AI背负了人类决策者的种种偏见产生的结果。相应的,人工智能的伦理问题治理应当从观念、规范和行为入手:嵌入正确的技术价值观、新旧技术规范的契合以及对人工智能开发与应用的合理引导。

  大连理工大学谷丽、韩雪和丁堃认为,面对人工智能技术的快速发展和人工智能创造物的冲击,知识产权制度尤其是版权制度理应有所回应。她认为将人工智能创作物纳入版权客体范围具有一定的必要性和正当性,因此,讨论人工智能创造物在版权保护、侵权等方面的制度设计问题具有重要的理论价值和实践意义。她主要阐述应对人工智能对版权带来的潜在影响和挑战进行制度上的设计和回应,以期为我国版权制度创新提供思考和建议。

  南开大学李帅认为,通过构造一个驳斥人工智能威胁论的溯因推理结构,证明人工智能威胁论信念基于不可靠的归纳论证,因而在逻辑上难以成立。另一方面,以哲学的视角,可以将人工智能威胁论视为一种信念。鉴于该信念达成之后的灾难性后果,可以借鉴其他高风险技术领域的成功经验,采取适当的防范策略。

  湖南省委党校张旺认为,人工智能的道德伦理规约是比技术本身更为复杂、更趋深层次、更需要深入探讨的问题。因此,应该立足责任伦理视角探讨人工智能风险的规避原则和路径,从人工智能技术研发和应用两个主要环节剖析了责任原则的嵌入与规约,并在中外比较的基础上深入阐释了政府、企业界、学界等主体在风险治理中的权责定位,旨在为有效规避人工智能技术的风险、推进伦理层面的国际合作共识、提升我国人工智能伦理话语权和主导权,提供一些可供参考的思考建议。

  大连理工大学张媛媛认为,人类在充分享受人工智能带来的高效与便利的同时,也开始为人类是否会被其创造物所超越、伤害、奴役或毁灭而担忧。人工智能作为人类社会发展的工具和手段,其发展不应无边际地泛滥,不应冲击“以人为本”的基本原则,而应设有合理的弹性伦理边界,促进其沿着正确轨道前行。从其发展是否应该无限制地取代人的感知能力、思维能力、交往能力、工作岗位以及人的全面发展这五个问题入手,弹性调整人工智能的发展规模和速度,使人工智能成为人的智能的合理补充和完善。

  海南政法职业学院王强强认为,人工智能在行政法应用和行政治理中已经崭露头角,人工智能广泛参与社会管理同样面临一些风险比如侵犯自然人的隐私权导致政府治理能力弱化等,因此需要提出适应人工智能科研和应用的法案,在行政法领域中对人工智能应用提出了一些具体措施进行探讨。

  大连理工大学王前认为,从中西思维方式比较研究的角度看,人工智能在本质上是“动脑”思考的人工化。当前人工智能的广泛引发了一系列前所未有的社会问题,需要及时解决。在人工智能时代,中国传统的“用心”思考模式呈现出新的重要价值。“用心”思考模式的整体性、有机性、直觉性特征,有助于弥补人工智能技术应用造成的思维碎片化、判断机械化、推理简单化的缺陷,发挥知情意相结合、真善美相结合、提高思维效率的优势,实现人工智能和人类智能的有机统一,使人工智能成为人类社会发展的有利工具,而不至于成为一种“异化”因素。

  华东师范大学颜青山认为,通过更精确地重述“汉字屋”论证的条件,从而证明塞尔试图反驳强人工智能的论证是失败的,尽管其结论依然可以成立。心灵智能的奠基性特征恰好是基于语法或语形的实践理解,完全的实践理解将通过神经肌肉系统重塑大脑,并且具有部分可逆性。完全的实践理解需要周期性的训练维持,这一特征将导致通用人工智能的两难:如果通用人工智能是心灵智能,那么它不可能全面超越人类智能;如果通用人工智能全面超越人类智能,那么它不可能是心灵智能。

  长沙理工大学余乃忠认为,人类自诞生以来,经历了人与自然对抗、人与人对抗和自我对抗的三类对抗。随着人工智能从弱人工智能逐步向强人工智能的迈进,自然人与人工智能的第四类对抗正全面展开。第四类对抗不同于前三类对抗,它预示文明的人类正处于危险之中,人类作为抽象整体的神圣性被玷污与摧毁。第四类对抗以人的对象世界与意义世界的对立与矛盾而显示其独特的个性。对抗构成了意义世界建构的主轴,第四类对抗预示意义世界的“天工开物”。与更高的自我交往、生从死中求、类存在的整体性和意义点的连续分布开辟了智能时代人的意义世界的新形态。

  四、共享伦理与媒介伦理

  河南师范大学刘科和胡华为认为,在数字传媒技术的推动下,媒介信息共享成为人们当下较为迫切的利益诉求和情感需求,不仅是社会发展共享理念在信息领域的具体落实,也是公共精神的一种体现。在媒介信息共享的推进过程中,也面临着一定的挑战和压力。这需要我们积极探索媒介信息共享伦理的本质及其实现路径,构建和谐有序、安全有效的媒介信息共享环境,促进社会发展的公平公开,自觉推动人类命运共同体的形成,进而为数字经济社会的健全发展提供强有力的支持与保障。

  长沙理工大学张承安认为,共享发展是中国特色社会主义的本质要求,也是解决当下社会公平正义的现实关切。社区共享是共享理念实现的必由之路。在社区治理中出现的共享交通短暂乱象可以通过新技术的运用、新秩序的建立、信任与团结的人际对待得以妥善解决。

  四川师范大学刘国云认为,自媒体重构了道德传播与交往方式,引发了以舆论失序、道德失范、伦理关系原子化为代表的困境。根据自媒体矛盾的特殊性,在舆论、伦理与道德三方面可采用系统性的转型策略以适应自媒体的新趋势,营造自媒体空间风清气正的氛围:即以公德引导社会舆论转向;完善自媒体规范,以契约优化伦理关系;在全民教育中引入媒介素养教育,强化自媒体的道德自治。

  湖南科技大学王超群认为,中国人工智能媒介伦理学研究主要包括三方面内容:一是宏观研究人工智能技术所带来的媒介伦理危机,二是微观探讨算法新闻、数据新闻、沉浸新闻在媒介伦理方面呈现的冲突,三是多角度理论探讨了媒介伦理研究的发展方向。相比中国研究,国外相关研究在分析媒介伦理风险表象之外,更是积极探求伦理风险规避研究,试图建构自动化新闻的算法伦理学,并在受众媒介伦理研究方面有所建树。认为未来相关研究进路应朝四方面努力:一是加强人工智能媒介伦理风险的体系化研究,二是挖掘传统媒介伦理规范在智媒时代的适用性程度,三是探讨业界应对伦理风险的媒介伦理规范革新,四是全球视野的媒介伦理规范理论建构。

  (刘梦迪、吴天恒供稿)

来源:红网

作者:刘梦迪

编辑:司马清

本文为论道湖南原创文章,转载请附上原文出处链接和本声明。

本文链接:https://ldhn.rednet.cn/c/2018/12/18/4795846.htm

阅读下一篇

返回红网首页 返回论道湖南首页