您当前的位置:中国高新科技网快讯正文

沙特油田遭无人机重创面对灾难人类能做什么

2019-09-15 13:42:17  阅读:3728 作者:责任编辑NO。谢兰花0258

新智元报导

来历:cnn

修改:张佳

据外媒报导,昨日清晨,稀有十架无人机突击了沙特国家石油公司——阿美石油公司的两处(Abqaiq和Khurais)石油设备并引发火灾。其间,Abqaiq被描绘为“世界上最大的原油安稳厂”。

视频中,熊熊燃烧的大火照亮了半边天。尽管现在火势已得到操控,但这次突击对沙特和全球的石油供给是重创。

占全球石油供给量的5%,这次突击会带来油价飙升吗?

依据阿美石油公司的一份声明,这次突击将使该国的产值削减570万桶/日,相当于全球石油供给量的5%。

受突击的Abqaiq和Khurais方位

依据最新的OPEC计算,沙特的石油总产值为每天980万桶,占全球总供给量的10%左右,沙特这次受袭,损坏了该国约一半以上的石油产能。

沙特阿拉伯动力部长Abdulaziz bin Salman标明:该公司现在正在尽力康复丢失的石油数量,并将在未来两天内更新大众。这些进犯不只针对沙特的重要设备,而且还针对全球石油供给及其安全,因而对全球经济构成威胁。

哥伦比亚大学全球动力方针中心的开创主任Jason Bordoff在一份声明中说:“Abqaiq或许是世界上石油供给最要害的设备。石油价格将在这次突击中飙升。

世界动力署(IEA)周六标明正在监测沙特阿拉伯的状况:“咱们正与沙特当局以及首要的石油生产国和消费国坚持联系。现在,市场上的商业库存足够。”

假如沙特阿拉伯的中止时刻延伸,“受制裁的伊朗供给是潜在石油的另一个来历,”Bordoff说。“可是,美国总统特朗普现已标明,即便在油价飙升的状况下,他也乐意采纳最大极限的施压运动。假如说有什么影响的话,那就是地区间互不相让的晋级,然后推高油价的危险现已明显上升。”

美国动力部发言人在一份声明中说,美国动力部长Rick Perry“随时预备”在必要时动用该国的战略石油储藏,以安稳石油市场。美国动力部一名官员说,该国的紧迫石油供给——上世纪70年代石油危机后构成的一系列储油罐和地下窟窿——具有6.3亿桶原油。

美国国务卿Mike Pompeo直接将突击事情归咎于支撑胡塞叛乱分子的伊朗。“伊朗现在对世界动力供给发动了史无前例的进犯。没有依据标明这些突击来自也门,”Pompeo在推特上说。

Pompeo发推斥责伊朗

精准突击、刺杀总统,无人机被用作兵器有多可怕?

在咱们忧虑石油价格要上涨的一起,还有一件事值得咱们沉思,那就是无人机。

跟着技能的前进,无人机被越来越多的用在军事举动中。

2018年8月,委内瑞拉总统在国民警卫队建立81周年庆祝典礼上宣告说话时,一架搭载炸弹的无人机朝他飞去而且引爆,本来规整列队的战士像流水相同四处狂奔,电视直播记载下了全过程。总统尽管没受损伤,但至少有7人受伤。

委内瑞拉总统演讲时遭无人机刺杀

这也是人类历史上第一次动用无人机刺杀一国首脑。尽管委内瑞拉总统逃过一劫,但谁能确保相似的事情不会重演呢?

在这之前,联合国在特定常规兵器条约会议上发布了一段“杀人机器人”视频让人胆寒:

视频中,相似杀人蜂的小型机器人经过面部辨认系统区别射杀方针,结合AI导航技能,飞入会场后躲过演讲人的抓捕,发现方针后敏捷将其击毙。

从详细的装备上看,这个机器人配有广角摄像头、战术传感器、面部辨认技能,而且在其内装有3克炸药。

精准冲击,足以穿透头骨。

视频最终还演示了一段飞翔机器人集体进犯人类的画面,经过面部辨认定位,简单杀死了正在上课的一班学生。

美国政府在全球范围内运用晋级的军用无人机后,工程师和科学家们正告说,自主机器很简单遭到黑客的进犯,它们或许被劫持,从而进犯无辜的人群;而且,它们不行避免地很简单就会被歹意进犯者取得,或许歹意进犯者可以自己制作这类兵器。

马斯克、哈萨比斯等2000多人签署宣言:决不允许杀人机器人呈现!

“人工智能(AI)将在军事系统中扮演越来越重要的人物,公民、方针制定者和领导人都迫切需要区别AI可承受的用处和不行承受用处。”

去年在瑞典斯德哥尔摩,2000多名AI学者一起签署《丧命性自主兵器宣言》成为会议世界人工智能联合会议(IJCAI)上的一项重要议题,这也是学界史上最大规划针对“自主兵器”的联合签名宣言

安排这次举动的生命未来研究所的联合开创人、MIT教授迈克思·泰格马克(Max Tegmark)在会上宣告了这项宣言。

泰格马克教授

泰格马克说:“我很快乐看到人工智能的领军人物从对话转向举动,施行一项政治家们迄今未能施行的方针。人工智能有巨大的协助世界的潜力——咱们不能容忍其乱用,并致力于避免其乱用。自主杀人的AI兵器就像生化兵器相同令人厌恶和不安,咱们应该以对待生化兵器的方法来处理自主兵器。

悉尼新南威尔士大学人工智能科学教授Walsh说:“咱们不能把谁生和谁死的决议权交给机器。”由于丧命性自主兵器系统(lethal autonomous weapon systems),简称“LAWS”,“不具备这样做的品德”。

无人机装上遥控机关枪射击玩具娃娃

在IJCAI会议上,包含马斯克、DeepMind三位开创人都签署了《丧命性自主兵器宣言》,宣誓不参加丧命性自主兵器系统(LAWS)的开发、研发作业。

而就在一年前,116名全球人工智能和机器人范畴的专家(包含马斯克和谷歌AI专家Mustafa Suleyman)宣告联名公开信,呼吁联合国采纳举动制止“自主杀人机器”,称其为“恐惧兵器”。“留给咱们做预备的时刻不多了,”专家们正告说:“一旦这个潘多拉的盒子被翻开,就很难再次关上。”

以下是《丧命性自主兵器宣言》全文:

人工智能(AI)有望在军事系统中发挥越来越大的效果。公民、方针制定者和领导者有必要区别人工智能可承受和不行承受的适用范围。

从这个视点来看,咱们签署者达到共同意见:永久不应将人类生命的决议权托付给机器。“品德”是这个态度的一部分,咱们不应该让机器为那些应当受处分的人做出存亡决议。另一个强有力的观念是:丧命的自主兵器,在没有人为干涉的状况下挑选和参加方针,将危及每个国家和个人的安稳

很多人工智能研究人员共同以为,若是经过丧命的自主兵器消除人类生命的危险或困难,它们或许成为一种暴力和压榨的有力东西(尤其是在监督和数据系统相关联时)。此外,丧命的自主兵器具有与核兵器,化学兵器和生物兵器天壤之别的特色,而且单一集体的单方面举动很简单因世界社会缺少技能东西和全球管理系统而引发军备竞赛。避免发作这种军备竞赛应成为国家和全球安全的优先考虑事项。

咱们联名签署人,呼吁各国政府和政府领导人共建一个具有强壮的世界标准、法规和对立丧命自主兵器法令的未来。这些法令现在是没有的,咱们挑选坚持高标准:咱们既不参加也不支撑丧命自主兵器的开发,制作,贸易往来或运用。咱们要求技能公司和安排以及领导者,方针制定者和其他个人参加咱们的许诺。

当无人机被用作杀人、损坏的兵器,关于全人类来说何曾不是一种浩劫呢?

参阅链接:

https:///2019/09/14/business/saudi-oil-output-impacted-drone-attack/index.html

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!