徐英瑾:人工智能让未来战争更“人道”——回应埃隆·马斯克先生

  • 时间:
  • 浏览:0
  • 来源:彩神大发棋牌APP_大发棋牌app

   人工智能技术与武器的结合所因为因为的伦理后果,目前正成为海外媒体热烈讨论的一一个话题。美国著名企业家马斯克便在不同场合表示了对于人工智能武器化的担忧,甚至认为:具有自我意识的人工智能在与特定武器相互结合成为“还都要自动开火的人工智能系统”但是,或会对人类的生存构成威胁。在笔者看来,此类担忧的确是有点言过觉得。可是我施加特定的管制条件,人工智能与武器系统的结合觉得反可是我能助 增加未来战争的伦理指数的。不过,在具体展开相关讨论但是,让我们让我们 首先有必要先将此类讨论所涉及到的其他概念问題加以澄清。

何谓“人工道德主体”与“武器”

   所谓的“还都要自动开火的人工智能系统”什儿 概念,觉得含有了一一个关键成分:一一个成分是在人工智能技术支持下的“人工道德主体(artificial moral agent)”,原来成分则显然是“武器”。但麻烦的是,什儿 一个概念成分的含义,觉得前会像看上去的没办法 一目了然。譬如,某个具有进行敌我识别能力的导弹,固然还都要被说成是有有一种程度上的“人工道德主体”,因为它不能自动寻找并歼灭目标,并在什儿 过程中恪守有有一种军事道德(比如不误杀友军),但什儿 武器的“自主性”,与未来学家们设想的那种还都要完整篇 替代人类士兵的超级军事机器人相比,显然还有一定的距离。与之相反衬,“武器”也是一一个非常模糊的概念:从十字弩到弹道导弹,似乎都还都要被笼统地称为“武器”。有鉴于此,除非让我们让我们 将“人工道德主体”与“武器”什儿 一个概念都予以分层次讨论,但是,让我们让我们 就无法清楚明白地表述出“还都要自动开火的人工智能系统”什儿 概念的所指。

   先来看“人工道德主体”。在美国学者瓦拉赫(Wendell Wallach)与艾伦(Colin Allen)合写的名著《道德机器——教会机器人“是”与“非”》中,两位作者曾将“人工道德主体”区分为一一个层次,笔者觉得颇有参考价值。

   第一,具有“运作性伦理性(operational morality)”——下面简称为“弱伦理性”的人工制品。譬如,一把手枪的保险装置可是我此类伦理性的体现。保险装置有有一种从不具有自觉的伦理意识,但是它的存在,毕竟被动地体现了设计者关于“保护射手安全”什儿 点的基本伦理意识。在什儿 层面上,让我们让我们 甚至还还都要去批评有有一种武器的设计方案是“不伦理的”,譬如二战时代日本“零式”战斗机糟糕的装甲防护,就体现了设计者对于飞行员生命的漠视态度。

   与之相比较,俄罗斯当下最先进的T-14坦克却显示出了什儿 维度的“伦理性”,因为什儿 坦克的无人炮塔设计还都要大大增加乘员在坦克被击中后的生还率(对于既有坦克战数据的统计表明,在炮塔内的乘员在坦克被击中后的生还率,的确要远低于在底盘中工作的成员)。

   第二,具有“功能性伦理性(functional morality)”——下面简称为“中伦理性”的人工制品。譬如,现代喷气式客机的自动驾驶仪,在可是我场合下便不能代替人类驾驶员进行驾驶,并由此体现出了很高的自主性。而此类制品与伦理性的关联则体现在:出于对于伦理性,有点是“保护乘客的身心安全”什儿 伦理规范的考量,此类设备的设计者往往会禁止此类设备操控飞机作出其他剧烈的机动动作。都要指出的是,与前一类人工制品相比,在什儿 类人工制品中,伦理规范是以软件代码的形式出显的,而前会通过件的固定配置模式而体现自身的。但是,从原则上说,此类制品的伦理属性也完整篇 因为仅仅通过代码层面上的变更而变更。

   第三,具有“整全能动性(full agency)”——下面简称为“强伦理性”的人工制品。换言之,此类制品就像活人一样,还都要作出独立伦理决策,并不能理解其决策意义与后果,并在一定程度还都要够为其决策进行负责。很显然,让我们让我们 目前还没办法 做出原来的人工智能产品。

   说完了“人工道德主体”,让我们让我们 再来说“武器”。因为“武器”的品种不多,为了适应本文的讨论语境,让我们让我们 都要从施用武器的伦理后果的高度,来将其分为四类:

   第一类,非致命性武器,如气溶胶弹、激光致盲枪、扩音炮等(累似 武器一般不需要因为人员的死亡,但因为会有致残的后果)。

   第二类,短程战术性武器,如机枪、坦克等(累似 武器一般在低烈度与中等烈度的军事冲突中使用,会因为人员伤亡,且武器使用的技术门槛比较低)。

   第三类,长程战术性武器,如战斗机、轰炸机、军舰与不带核武器的短程战术导弹(累似 武器一般在中等与高等烈度的常规战争中使用,会因为人员伤亡,但武器使用的技术门槛比较高)。

   第四类,战略性兵器,如核、生、化兵器,以及中远程携带常规弹头的导弹(累似 武器会造成多量的人员伤亡,很因为会造成严重的环境污染,合适 会使得国际局势变得非常紧张)。

   很显然,按照排列组合原理,让我们让我们 现在前会了12种将武器类型与“人工道德主体”的类型相互组合的妙招:(1)“弱伦理性”+“非致命性武器”;(2)“弱伦理性”+“短程战术性武器”;(3)“弱伦理性”+“长程战术性武器”;(4)“弱伦理性”+“战略性武器”;(5)“中伦理性”+“非致命性武器”;(6)“中伦理性”+“短程战术性武器”;(7)“中伦理性”+“长程战术性武器”;(8)“中伦理性”+“战略性武器”;(9)“强伦理性”+“非致命性武器”;(10)“强伦理性”+“短程战术性武器”;(11)“强伦理性”+“长程战术性武器”;(12)“强伦理性”+“战略性武器”。在这12种因为性中,有点引发让我们让我们 兴趣的乃是最后有有一种,因为既然“强伦理性”与各种武器形式的结合目前还付诸阙如,对于它们的讨论显然也就具有了明显的前瞻性意义。

   而在什儿 种生活结合妙招之中,首先要予以排除的乃是“强伦理性+战略性武器”什儿 因为性,因为战略性兵器使用的政治后果过于严重,几乎不需要有任何政治力量允许机器自行作出独立的道德决策,以决定是否还都要发出此类攻击(但通过兵棋推演预测核反击的后果除外,因为人工智能支持下的兵棋推演所产生的结果,最后依然都要人类决策者加以理解与运用)。除了什儿 因为性之外,在笔者看来,“强伦理性+非致命性武器”、“强伦理性+短程战术性武器”、“强伦理性+长程战术性武器”什儿 种生活组合前会还都要被接受的。

开发具有自动伦理决策机制的武器平台之必要性

   与马斯克的论点相反,笔者认为:开发具有“自动伦理决策机制”的武器平台,从总体上看是不能增加未来战争的伦理维度的。都要注意的是,“增加未来战争的伦理维度”一语并前会指消除战争。战争的爆发往往受到非常错综复杂的经济、政治与文化心理因素的促动,而单纯的技术进步从能能 消除使得战争爆发的高度因为。在悬置具体战争有有一种的政治属性的前提下,“增加伦理维度”便是指尽量减少平民与友军的伤亡,尽量减少与军事目标无关的民间财产的损失,尽量减少军事行动对自然环境的负面影响,等等。从什儿 高度看,战争有有一种的“非伦理性”或“非道德性”从没哟让我们让我们 的讨论范围之内,而属于政治学与政治哲学的讨论范畴。

   没办法 ,为社 说具有前节所说的“强伦理功能”的高度自动化的武器平台,不能提高未来战争的伦理性呢?这还都要从以下几点来得到说明。

   第一,如前所述,“弱伦理属性”、“中伦理属性”与“强伦理属性”是从属于一根绳子 完整篇 的道德光谱带的,而伦理能动性色彩在武器研发过程中的逐渐增强,往往也伴随着战争自身人道指数的增强。譬如,二战但是使用的自由落体航空炸弹因为不具备敌我识别能力、严重不足精确制导功能,对于它们的运用自然就不可出理 地因为了多量的平民伤亡。而在冷战时期,因为武器的精准度严重不足,华约与北约集团都研制了多量小型战术核武器(核鱼雷、核炮弹等)用以执行其他非战略任务——而此类武器一旦被使用,必将造成巨大的环境破坏。

   而在现代条件下,随着技术的进步,从遥远的距离,并用更小的弹药装量对目标进行打击,因为不再是奢望,而原来的战争模式显然会大大降低无辜群众的伤亡与环境的破坏。先要推论出,人工智能技术的运用,在大方向上是能助 未来战争的人道指数的继续提升的,因为“智能”在原来的语境中首先关涉的可是我“在错综复杂的战争环境中出理 附带伤害的能力”。

   第二,从兵器史的高度看,不能自动开火的武器历史上早前会了,让我们让我们 从不为此大惊小怪。让我们让我们 知道,在传统技术条件的陆地防御战之中,弥补防守一方兵力严重不足的最佳战术手段可是我安置地雷,因为地雷也是有有一种最原始意义上的“自动开火武器”(敌军的脚踩上地雷,地雷就会自动爆炸)。从什儿 意义上说,具有伦理自主性的自动开火平台,在伦理上应当从不需要比地雷更不可接受,因为什儿 拟议中的新兵器还具有根据不同的对象挑选具有不同烈度的打击手段的能力,并因为具备了什儿 挑选能力而不能出理 更多的伤害。

   第三,其他人或许会认为,现有的精确制导技术因为不能满足未来战争对于人道性的诉求,而从不赋予武器平台以自主射击权,以增加从从不的伦理风险。但什么评论者并没办法 意识到赋予武器平台以自动开火权的最重要的好处,即对于士兵人力的极大解放。不得不承认的是,人类士兵在体力与心理上的极限,以及使用人类士兵所因为的人力成本,乃是制约传统军力部署的重要瓶颈,而具有自动开火能力的武器平台的使用,则将在极大的程度上增加军力部署的灵活性(什儿 点甚至适用于远程操控的无人机,因为今天所谓的“无人机”依然是都要多量人力资源加以控制的)。

   对于预防恐怖袭击等特殊任务来说,什儿 灵活性将具有重大的战术价值,因为传统作战条件下人类指挥员对于上级的汇报往往会浪费多量的时间(有点是在跨时区作战的环境下,原来的汇报会因为时区不同步的问題而受到人体生物节律的干扰)——而恐怖分子或许因为会利用什儿 点,在人体最疲惫的时间点对平民发动攻击。多量的武装机器人不受“人体睡眠节律”影响的全天候巡逻活动,将在不增加人类军警人力成本的前提下,比较完美地弥补上什儿 防御漏洞。

   第四,现有的无人机主可是我需要以攻击地面目标的,而前会用以空战。因为一群人要研制用以空战的无人机励志的话 ,人类士兵远程操作的妙招因为会行不通(传输距离因为的延时误差,在攻击慢速的地面目标时是还都要容忍的,但什儿 问題却会在瞬息万变的空战中因为致命的后果)。而什儿 点就会倒逼航空专家去研发还都要自动开火的航空器。从伦理后效来看,此类兵器的出显反而很因为会增加未来空战的人道性。

   得出什儿 结论的具体推理是:因为不载人的战斗机还都要在不考虑人体承受力的前提分类整理挥其机动力,什儿 点就会倒逼其潜在敌对国也开发累似 技术,以免在军事斗争中因为己方作战平台机动力之严重不足而吃亏。什儿 相互竞争很因为会因为未来空战的全面无人化,并使得未来空战出显“有输赢却无伤亡”的新局面。而什儿 “不见血”的局面,也因为使得军事冲突的善后出理 变得更加容易,更少刺激各交战国外部的民族主义势力,而各交战国的外交官也便能更容易找到“台阶”进入斡旋阶段,最终出理 军事冲突的进一步升级。

不应过分忧虑人工智能技术伦理风险

(点击此处阅读下一页)

本文责编:陈冬冬 发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 哲学 > 伦理学 本文链接:http://www.aisixiang.com/data/1066200.html 文章来源:探索与争鸣杂志

猜你喜欢

康允德:超越法律东方主义:一种欧洲视角

Warning:array_unshift()expectsparameter1tobearray,nullgivenin/home/webwww/aisixiang/www/

2020-02-18

信用卡为什么补提额?哪些会影响信用卡提额?这几点千万不能犯!

说信用卡为哪些地方补提额?哪些地方会影响信用卡提额?到养卡提额,亲戚亲戚朋友儿老会 强调重视每每个人的征信,能才能了良好的征信,才能保证尽可能的提额,没办法 对于卡很多的卡

2020-02-18

关爱道德模范!习近平这样为他们“点赞”

【编者按】近日,中共中央总书记、国家主席、中央军委主席习近平对全国道德模范表彰活动作出重要指示。习近平指出,在新中国成立70周年之际,中央文明委评选表彰新一届全国道德模范,这对

2020-02-18

杨采妮晒照为李心洁庆生 梁咏琪许茹芸同框笑容甜

时间:2020-01-24来源:新浪娱乐栏目:娱乐杨采妮为李心洁庆生新浪文娱讯1月23日,杨采妮[微博]在微博晒出合照为好友李心洁[微博]庆生,并配文:“我敬爱的敬爱的心洁,华

2020-02-17

果敢资讯网文艺天地缅甸最大口径的牵引式榴弹炮现身军演现场

  在今年2月初的缅甸陆海空三军联合军事演习中,缅军炮兵阵地上展示了这人 火力强悍的大口径火炮,在进行射击时十分震撼,这就目前缅甸口径最大的以色列M845P牵引式榴弹炮。

2020-02-17