危险程度堪比核武?“杀人机器”研发或引发灾难
- A+
- A-
原标题:危险程度堪比核武?"杀人机器"研发或引发灾难
参考消息网5月14日报道美国石英财经网站5月11日发表了贾斯廷·罗尔利希的题为《"第3次战争革命"是能够自己决定杀人的武器》的文章,现将原文编译如下:
自主致命性武器--批评者称之为"杀人机器人"--的出现让许多分析人士感到惊恐。在没有人类近距离控制的情况下,装备了人工智能的某些此类武器能以士兵无法企及的速度和效率选定并消灭目标。
包括美国在内的多个国家正在研发自主致命性武器,相关项目包括装备人工智能的无人坦克、无人战斗机等。
各国就此自行实施了一些准则,但专家说这些还不够。美国军方政策规定,无人武器装备作出开火决定时必须有"适当程度的"人类判断,但并未对此作出明确定义,而且允许有例外。美国也是反对在该领域进行国际监管的少数国家之一。
不过,担心爆发军备竞赛的荷兰非政府组织"和平"反战组织最新发表的报告称,要想防止最终的灾难,除了全面禁止之外别无选择。
资料图片:科幻电影《终结者》中的天网机器人。(图片来源于网络)
资料图片:未来士兵想象图。(图片来源于网络)
这种担忧不无道理。人工智能专家认为这种武器将引发"第3次战争革命"。和前两次战争革命--黑色火药和核弹--一样,此类武器系统能迅速证明其价值,让拥有它们的一方获得几乎不可超越的技术优势。
如果不加以禁止,人工智能武器可能在全世界的军队中投入使用。就像社交媒体一样,在相关公司强烈抵制--而同时技术还在飞速发展--的情况下,试图到后来再回溯性地实施监管将被证明困难重重。
正如"和平"组织所声称的,"将生死决定权交给机器或算法是极不道德的"。
问题是,我们会及时行动起来吗?对于人工智能武器,快速采取行动极为重要。
(责任编辑:葛景宏 CN081)
国际阅读排行
-
1717 阅读 2019-03-25 23:19
-
770 阅读 2023-01-10 10:12
-
699 阅读 2018-10-15 15:01
-
690 阅读 2019-04-27 15:57
-
635 阅读 2018-01-27 09:27
国际热门推荐
-
93 阅读 2024-07-23 13:34
-
257 阅读 2024-05-31 12:53
-
223 阅读 2024-05-18 11:01
-
183 阅读 2024-05-18 10:47
-
148 阅读 2024-05-16 16:46
评论