芯云购商城
搜索关键词不能为空
搜索关键词不能为空
收缩

QQ在线咨询

电话咨询

  • 0755-82579613

Skype 咨询

  • 3003361628@qq.com

人工智能系统会不会被黑专家警告黑客入侵AI或将很快成为现实

2021/2/20 14:39:39

952

一名权威专家警告说,能够破解自动驾驶汽车和其他汽车如何将它们变成杀手的AI系统们即将问世,而且比许多人想象的要快。

网络安全初创公司Deep Instinct的首席执行长卡斯皮(Guy Caspi)在CNBC的播客节目《硅谷之外》(Beyond the Valley)中说,这类如今看来像是科幻小说的攻击,未来几年可能会变成现实。

它引发了人们对自动驾驶汽车和其他技术可能被黑客入侵的担忧,它们将会被变成临时的战斗武器。

3434

(图源:每日邮报)

卡斯皮说,杀手级汽车所需的许多技术已经存在。

Caspi说,“像谷歌这样的自动驾驶汽车已经在使用深度学习技术,已经可以在现实世界中对障碍物进行攻击,因此在网络领域攻击传统的反恶意软件系统是可能的。”

就在几天前,科技行业的数千名知名人士齐聚一堂,反对开发杀手级机器人。

特斯拉和SpaceX的首席执行官埃隆?马斯克(Elon Musk)长期以来一直直言不讳地谈论人工智能的危险,他加入了谷歌DeepMind的创始人、XPrize基金会(XPrize Foundation),以及2500多名个人和公司,在本周签署了一项誓言,谴责致命的自主武器。

该行业的专家们誓言不会参与或支持使用此类武器,他们认为,不应该把夺人性命的决定委托给一台机器。

业内专家在周三于斯德哥尔摩举行的2018年国际人工智能联合大会(International Joint Conference on Artificial Intelligence)上发布的承诺中指出,公民、政策制定者和领导人迫切需要区分人工智能的可接受和不可接受用途。

来自90个不同国家的2400多人与160多家公司签署了生命未来研究所组织的承诺书。

它呼吁世界各国政府加大努力,防止致命的自主武器(或称“杀人机器人”)出现在全球军备竞赛中。

专家们警告说,人工智能武器可能会失控,“危及每个国家和个人的安全稳定”。

随着世界各地的军队越来越多地将注意力转向人工智能,致命自主武器系统(法律)的潜力在过去几年受到越来越多的关注。

虽然如今的无人机是由人类控制的,或者被用来对抗其他武器,但人们担心,机器可能很快就会被用来识别和杀死人类。

去年年底发布的一段名为“屠宰场机器人(Slaughterbots)”的宣传视频,设想了杀手机器人的反乌托邦未来会是什么样子。

反对杀人机器人的完整誓言:

人工智能(AI)将在**系统中扮演越来越重要的角色。

对公民、政策制定者和领导人来说,有一个紧急的机会和必要性来区分人工智能的可接受和不可接受的用途。

在这种情况下,我们签署了一项协议,即不应将人类生命的决定托付给机器。

这种立场有一个道德上的成分,那就是我们不应该让机器做出决定,而其他人——或者没有人——将为此负责。

还有一个强有力的务实论点:致命的自主武器,在没有人为干预的情况下选择和接触目标,将对每个国家和个人造成危险的不稳定。

成千上万的人工智能研究人员一致认为,通过消除夺人性命的风险、归因和困难,致命的自主武器可能成为暴力和压迫的有力工具,尤其是与监视和数据系统相关的武器。

此外,致命的自主武器具有与核武器、化学武器和生物武器截然不同的特点,单一集团的单方面行动很容易引发一场国际社会缺乏技术工具和全球治理体系的军备竞赛。

谴责和防止这种军备竞赛应该是国家和全球安全的高度优先事项。

我们,署名人,呼吁各国政府和政府领导人创造一个具有强有力的国际规范、法规和法律反对致命自主武器的未来。

由于目前没有这些武器,我们选择了高标准:我们既不参与也不支持发展、制造、贸易或使用致命自主武器。

我们要求科技公司和组织以及领导人、政策制定者和其他个人加入我们的承诺。

早在2016年12月,联合国就开始讨论致命自主武器的问题,26个国家已经表示支持禁止这种技术。

新南威尔士大学(University of New South Wales)人工智能教授、该项承诺的主要组织者之一沃尔什(Toby Walsh)说,我们不能将谁死谁活的决定交给机器。

“它们没有这样做的道德规范。”

联合国下个月将召开关于杀人机器人的会议,许多业内人士希望让更多国家加入到禁止这些武器的行列中来。

本文转载前瞻网,本文内容仅代表作者个人观点,本站只提供参考并不构成任何投资及应用建议。


暂无标签