人工智能网致力于为中国广大企业、企业家和商界、经济界人士,以及全球华人经济圈提供实时、严谨、专业的财经、产业新闻和信息资讯媒体。

当前位置:人工智能网 > 智能教育 > 科技部:人工智能企业或需设立科技伦理审查委员会

科技部:人工智能企业或需设立科技伦理审查委员会

来源:互联网作者:王林更新时间:2021-07-31 16:48:28阅读:

7月28日,科技部发布《关于加强科技伦理治理的指导意见(征求意见稿)》(下称“《意见》”),向社会公开征求意见。《意见》旨在加大科技伦理治理力度,推动科技向善,《意见》明确了我国科技伦理治理的基本要求和原则,并对科技伦理治理体制、监管与审查做了规定。

科技部发布《关于加强科技伦理治理的指导意见(征求意见稿)》。图自科技部网站

多位专家肯定了《意见》对科技伦理治理的重视,尤其是伦理审查体制的确立,是我国伦理治理的一大进步,为未来发展明确了方向。

有专家向南都记者表示,此次科技部出台的《意见》是一份指导性文件,在具体的领域,还是需要一些标准规范或法律法规,做出强制性规定和指导。

伦理先行,尊重生命权利

《意见》提出了我国科技伦理治理的基本要求。首先是伦理先行,要求科技伦理贯穿科学研究、技术开发等科技活动全过程,覆盖科技创新的各个领域。

敏捷治理也是基本要求之一,《意见》要求加强科技伦理的风险预警与跟踪研判,及时动态调整治理方式和伦理规范,快速、灵活应对科技创新带来的伦理挑战。早在2019年,我国发布《新一代人工智能治理原则》,就把敏捷治理作为一条治理原则。

《意见》的另外两个基本要求是立足国情、开放合作,积极推进全球科技伦理治理。社科院研究员段伟文对此评论,如何将科技伦理制度建设与促进国际科技的交流、开放、合作与共享有机结合起来,对于让科技更好造福人类和推动人类命运体的构建具有尤为重要的意义。

《意见》明确了科技伦理有增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明五大原则。

其中,在尊重生命权利方面,《意见》特别提到要最大限度地避免对人的生命安全、身体健康、精神和心理健康造成伤害或潜在威胁。科技活动要尊重人格尊严和个人隐私,并且要保障参与者的知情权和选择权,使其自主选择是否参加或退出。

近年来,安全和隐私问题屡屡引发技术伦理争议,自动驾驶汽车“刹车失灵”事故多次成为社会焦点,人脸识别等技术应用也引发公众对隐私问题的担忧。今年4月,《个人信息保护法(草案)》提请全国人大常委会二次审议,明确了处理个人信息须遵循“知情同意”原则。

清华大学教授梁正认为,尊重生命权利是科技发展的基本底线,任何情况下都不能侵犯。

《意见》还要求防止技术在不同社会群体中的歧视和偏见。

“协同共治”思想在《意见》中也有所体现。《意见》要求科技活动应建立利益相关方和社会公众的合理参与机制,建立在涉及重大、敏感伦理问题上的披露机制,保持公开透明。

明确伦理监管和审查机制

在具体的治理体制方面,《意见》从政府、创新主体、社会团体、科技人员四个维度分别提出治理要求。《意见》明确,国家科技伦理委员会是科技伦理最高咨询、审查、规制、组织协调机构,要求地方各级政府、各部门负责具体伦理治理工作。

“创新主体”指高等学校、科研机构、医疗机构、企业等。《意见》特别要求,从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

在监管方面,《意见》要求,要明晰科技伦理的监管职责,完善科技伦理监管流程和科技伦理审查、风险处置、违规处理等监管规则。同时,加强立法研究,及时将重要的科技伦理规范上升为法律法规,强化对违背科技伦理要求行为的责任追究。

在伦理审查方面,《意见》要求,涉及人、实验动物等伦理高风险的科技活动,必须经科技伦理(审查)委员会审查批准,不具备设立科技伦理(审查)委员会条件的单位,应委托其他科技伦理(审查)委员会开展审查。任何单位、组织和个人不得资助违背科技伦理要求的科技活动。

梁正评价,《意见》将设立科技伦理委员会的思想变成了实际操作,科技伦理委员会作为治理主体,一套工作程序得以建立起来。但他也提到,《意见》目前主要还是做一些原则性的指引。“在具体的领域中,审查遵循什么样的程序,审查的结果如何发挥作用,这些问题还需要具体化。”

段伟文认为,强化科技伦理审查和监管涉及到对诸多复杂的新兴科技伦理问题的辨析和研判,可能是一个具有实践难度的复杂的系统工程。在科技伦理监管中,相关方的主体责任界定与追究必然涉及认知差异和利益冲突,如何加以统筹和协调,将考验各方的治理智慧。

《意见》最后指出,要加强科技伦理教育和宣传,既要对科技人员进行伦理培训,也要开展面向社会公众的科技伦理宣传,鼓励公众自觉提升科技伦理意识。

段伟文认为,从长远来看,必须在高等教育中凸显科技伦理的重要性,要建立起科技与人文相结合的新的科技伦理研究与教育机制,根据现实需要,大力推动专业化和前瞻性的科技伦理研究。

专家:《意见》为一般性指导,具体领域仍需法律解决

南都记者注意到,此次科技部下发的《意见》中特别强调了对生命科学、医学、人工智能领域的科技伦理的重视,而这些领域正是目前伦理问题比较集中的领域。

中国人民大学副教授郭锐认为,此次科技部发布关于科技伦理的《意见》,很有必要。“特别对人工智能和生物科技、人工智能交叉学科,之前的伦理问题没有得到足够的重视,等到后果严重,往往就不太好应对了。”

他评价,《意见》不仅提到对伦理审查体制的设定,而且对于科技伦理的教育和立法问题都给出了未来发展的方向。但在具体领域,还需要更扎实的研究。

“当谈到科技伦理时,我们目前很多时候还是一种口号式的,或者是简单重复伦理准则,但是在具体领域的具体做法上还是有欠缺。”他说。

梁正认为,此次科技部发布的《意见》,实际上是吸收了此前已经出台的一些重点领域相关文件的经验,制定的一般性、普遍化的伦理指导意见。“在科技伦理监管上,针对此前出现的问题,具体领域已经有了一些措施。这次《意见》是在探索一个普遍化的指引, 科技 是一个非常大的概念。”

2018年的“基因编辑婴儿”事件曾引起轩然大波。11月,南方科技大学副教授贺建奎宣布一对名为露露和娜娜的基因编辑婴儿健康诞生,由于这对双胞胎的一个基因(CCR5)经过修改,她们出生后即能天然抵抗艾滋病病毒HIV。这一消息震动了世界。

2019年12月,法院判定“基因编辑婴儿”行为违反国家有关规定和医学伦理,构成非法行医罪,贺建奎被判处三年有期徒刑。

2020年12月26日,《中华人民共和国刑法修正案(十一)》正式通过,“非法基因编辑”入刑。

梁正肯定了《意见》中强调“将重要的科技伦理规范上升为法律法规”,他说,监管需要法律依据,基因编辑就是一个很好的例子。此外,在人工智能领域,《个人信息保护法(草案)》、《数据安全法》等法规出台,也让伦理监管的可操作性更强。

段伟文认为,大量的新兴科技领域的创新活动是由科技企业开展的,他建议在指导意见中对此有更加具体的表述。

梁正分析,此次科技部出台的《意见》主要针对的是技术研发,而不是商业活动。“企业商业活动涉及的范围太广了。拿人工智能来说,新闻推荐涉及的部门可能是网信办,自动驾驶的主管部门可能是工信部,智慧城市可能涉及到一些社会服务部门 不能指望科技部门把问题都穷尽。”

他指出,《意见》作为一份指导性文件,与过去的一些技术伦理文件相比,有了很大的发展。“但在具体的领域,还是需要一些标准规范或法律法规,做出强制性规定和指导。”

据了解,目前,我国在一些重点领域如医疗数据等方面已经出台了强制性国家标准,而网联车、人脸识别等新兴领域,也将有国家标准。

采写:南都见习记者李娅宁

标题:科技部:人工智能企业或需设立科技伦理审查委员会

地址:http://ai.rw2015.com/edu/10152.html

免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。

返回顶部