接下来是双方辩手充分施展辩才的自由辩论环节。自由辩论阶段共10分钟,正反双方各5分钟。双方4位辩手的发言次数、时间以及发言顺序均无限制。在某一方辩友发言结束后,在对方发言前,这一方任意辩手不得再次发言。当一方时间已到而另一方尚有剩余时,该方可继续发言。

首先有请正方进行发言。

由我问出第一个问题。首先,对方刚刚提到时间问题,我想向对方明确伦理规范和法律的概念。伦理规范既不属于伦理,也不属于法律,它介于伦理和法律之间。我认为对方应该先明确伦理的定义。

其次,如果没有伦理规范,为何说法律是之后才出现的呢?对方说伦理会更快响应,响应之后呢?是进行讨论、引发舆论吗?那响应之后应该如何落实解决问题呢?

我们所说的伦理包含AI方面专家的行业伦理,他们是最能够影响AI发展且最了解AI的人。同时,我所说的那些价值观也属于伦理的范围。

并且,您方一直在强调担责问题,只是强调法律更能规范担责问题,却忽略了担责问题的核心。担责问题的核心并非是谁来担责的条文划分,而是为什么要担责以及如何让担责真正落地的价值共识,这恰恰是伦理的主场。法律是将伦理共识转化为强制条文的下游执行者。

另外,对方辩友还说法律更能够起到威慑作用。那么我想请问,在责任空白期立规矩的人是谁?并且在法律强制担责中,也有可能会沦为刑事合规。比如某些企业可能认为违法成本不高,只交罚款就了事。某社交平台因AI推荐算法导致青少年成瘾,被法院判罚法律强制担责的罚款,但企业仅仅缴纳罚款,并未调整算法逻辑,之后再次被罚,这属于交钱了事的刑事担责,沦为形式合规。而伦理主动担责以及价值引导才能够真正让伦理落地。

如果说法律真的能更好地规范担责,那么在全球领域为何还要呼吁AI伦理责任?

此外,你们方还提出有关滞后性,说伦理有滞后性,法律也有滞后性。但我想请问,既然我们都知道立法的成本和时间成本都很高,且存在空白期,伦理在变化,法律也在变化,此时谁更能够积极做出响应呢?想必是伦理。法律的制定、形成和修改需要一定的时间成本,在这个空白期,伦理能够更好地发挥作用,弥补法律的缺陷。

我想确认一下,您所说的伦理的规范方式究竟是什么?是靠人们内心向善吗?

不仅是当下,美国国防部下属的NHST和国际律师、国际工程师协会制定了自动驾驶的五大标准,这就是伦理规范,它们有效规范了自动驾驶汽车行业。我们的问题是,制定五大标准之后呢,要遵守吗?不遵守又会怎样呢?行业内部,自动驾驶的研发部门会自动对汽车进行分类,明确什么车可以做到什么地步,这就是标准有益的部分。后来国家的法律反而采纳了这个伦理标准,这难道能说伦理标准没有效用吗?

没问题,所以您只是有一个思想性的认知,关键在于它能否落实。而落实靠的是法律。您唯一的质疑是法律有可能管不到这些地方,那请您给我一份举证,告诉我法律在这些地方的监管或认识存在空缺。

您知道中国的自动驾驶法律在L1、L2分级之后多久才提出吗?我不清楚,但我不明白为什么在没有推出法律的时候就不能有相应的规范。就像最初虚拟货币未被纳入个人财产范围,但通过司法的解释,它被列为受保护的个人财产范围。对于肖像权,就算人工智能侵犯了,我们也可以通过对现有法律的解释来处理。法律确实制定得慢,但为什么过去它无法进行管制呢?

我请教您,在没有L1、L2分级之前,您打算如何监管自动驾驶?我不清楚监管具体是什么形式。不过确定有自动驾驶之后,我们可以通过司法的方式来进行追责和尽责。

另外再问您,2023年28国签订了禁止开发完全自主杀伤性武器的条约,在军事领域,您觉得此时伦理要如何进行规范?

我恰恰发现,在自动驾驶提出之后,法律相比于伦理更不了解自动驾驶技术,也无法进行信息分类。先是由行业内部提出规范,后来法律再采纳,这证明了:第一,伦理更贴近时代发展;第二,伦理为法律提供了更多基础,伦理才是核心。

我进一步请教,您方举证说伦理没有惩罚机制,是这个意思吗?

思想先于法律存在,法律依托于思想。我们今天辩论的核心是,您是想靠思想确定之后就进行管理,还是一定要将思想寄托于法律的实质性操控,这才是双方的分歧所在。

所以请您回答我的问题,在军事领域,各国签订条约禁止生产完全自主杀伤性武器,您所说的伦理要如何对各国进行规范?

如今是人工智能刚刚爆发的时代,离强人工智能还有很长的距离。在这个飞速发展的时代,不能寄希望于有一套完整的法律来规范人工智能发展,所以靠伦理是这个时代人工智能发展的核心。

欧盟推出了自己的伦理委员会审查制度,不符合伦理的AI设备不能上市,这就是干预机制和规则机制。但在欧盟及欧洲国家推出伦理委员会之后,照搬其规则来设定伦理委员会的国家或企业并不多。这恰恰说明,靠伦理来实行管制存在漏洞,因为企业会考虑为什么要为了所谓的规则而让步自己的利益,这是我方不理解的地方。

反过来,我方向您举证,在韩国制定了相应的国家政策之后,相关案发率降低了40%多,这是否说明法律在事前同样具有规范性作用?您将案件变少归因于完全是法律的作用,而不是人工智能设备自身做出的相应改变吗?在韩国修订法案、制定法案之后,半年内案件量下跌40%,这是我方向您提供的关于事前能否规范、减少案发率的举证。

我们进一步来看,如果随意制定人工智能,最后责任反正落不到自己头上,是不是更有可能导致对人工智能发展不负责任的现象?

我们对伦理的定义是指广泛的道德准则和价值观,基于社会文化和哲学理念指导人们如何行动才是正确的。而且您方提到签订军事责任书,各国签订军事责任书并非是由法律强制,而是人们内心认为应该让国家和世界更美好,所以才会去签订。

并且在深度伪造的伦理风险没有明确定义法律定义的时候,是伦理界率先通过AI伦理建议书、负责任AI框架等文件提出数据透明、伦理监督的原则。在基因编辑技术发展初期,是伦理界率先提出了人类尊严、生命平等的讨论,为后续的法律制定提供了方向指引,避免技术发展陷入伦理困境。所以人工智能在不断创新,只有伦理才能更灵活地应对它的发展。

我再解释一次,法律一定是基于思想而构建的,不可能凭空出现一套法律。但问题在于,我们辩论的核心是,您是想仅仅依靠思想规制,将人往善的方向引导就好,还是期待将善的思想落实到实践性、强制性、背靠国家暴力机关的规范之中,我方认为是后者。

所以同学,我最后想确认一个态度,您方抛开人工智能不谈,认为在现行人类社会,对于人类行为的规范应该靠法律还是伦理?

法律和伦理就一定要选一个吗?我方认为法律和伦理都可以使用。

那您对于这道辩题的区分是?这道题目因为领域局限在人工智能范围内,当下人工智能离强人工智能的发展还有很长距离,存在未知领域。您认为伦理要更快地行动,是吗?

可是我把同样的问题放到当今社会,处于科技飞速发展的状况下,未知和不确定因素也很多。您似乎也不太清楚到底应该靠法律还是伦理。您所说的伦理的所有好处都建立在伦理很广泛,伦理是人们内心的道德,但在现行社会中,仅仅依靠将人往善的方向引领来指导人们的所有行为是不可靠的,这是否恰恰证明我们应该依靠法律对人们进行强制性规范?

所以法律和伦理都是必要的。而现在我们讨论的是未知领域,伦理能够更快地发挥规范性作用。法律可以进行事先规范,您方后续可以针对这个问题进行回应。

Copyright © 2088 世界杯决赛_世界杯是 - rchzwh.com All Rights Reserved.
友情链接
top