克耶高斯,免费网络游戏排行榜,吃增高药能长高吗
——涉及无人机群的演习提出了在复杂情况下机器是否能胜过人类操作员的问题。
泰格马克说,人工智能武器应该“像生物武器一样被污名化并被禁止”。NSCAI报告反对全球禁令是一个战略错误,他说:“我认为我们有一天会后悔,甚至比我们后悔武装了塔利班更后悔。”
去年8月,十几架军用无人机和坦克式机器人飞上了西雅图以南40英里的天空和道路。他们的任务:找到被怀疑藏匿在几座建筑物中的恐怖分子。
如此多的机器人参与了这次行动,以至于没有人类操作员可以密切关注所有的机器人。因此,它们被指示在必要时寻找并消灭敌方战斗人员。
这次任务只是一次演习,由国防部高级研究计划局组织,该局是五角大楼的一个蓝天研究部门;这些机器人没有配备更致命的武器,只是用无线电发射器模拟与友方和敌方机器人的互动。
这次演习是去年夏天进行的几项演习之一,目的是测试人工智能如何帮助扩大人工智能在军事系统中的应用,包括在过于复杂和快速发展的场景中,人类无法做出每一个关键决定。这些演习也反映出五角大楼对人工智能武器的思考发生了微妙的变化,因为机器在解析复杂情况或高速运行方面的表现比人类更清楚。
美国陆军未来司令部的约翰-默里将军上个月在美国军事学院告诉听众,成群的机器人将迫使军事规划人员、政策制定者和社会思考,在新的自主系统中,是否应该由人做出使用致命武器的每一个决定。默里问道。“人类是否有能力挑选出哪些人必须参与”,然后做出100个单独的决定?“他补充说:”甚至有必要让人参与其中吗?“
来自军事指挥官的其他评论表明,他们对赋予自主武器系统更多的代理权感兴趣。在上周举行的空军人工智能会议上,麻省理工学院空军人工智能加速器运营总监、美国军方在人工智能方面的主要声音迈克尔-卡纳恩说,思维正在发生变化。他说,人工智能应该更多地执行识别和区分潜在的目标,而人类则做出高级别的决定。“我认为这就是我们发展的方向”,卡纳恩说。
在同一活动中,五角大楼负责战略、整合和需求的副参谋长克林顿-希诺特中将说,是否可以将一个人从致命的自主系统的循环中移除是“即将到来的最有趣的辩论之一,而且还没有解决”。
国会成立的咨询小组--国家人工智能安全委员会(NSCAI)本月的一份报告建议,除其他事项外,美国抵制国际上禁止开发自主武器的呼吁。
负责蜂群项目的Darpa项目经理TimothyChung说,去年夏天的演习旨在探索人类无人机操作员何时应该,以及不应该为自主系统做出决定。例如,当面临几条战线的攻击时,人类的控制有时会妨碍任务的完成,因为人们无法做出足够快的反应。“实际上,这些系统可以再没有人干预中做得更好,”Chung说。
无人机和轮式机器人,每个都有一个大背包那么大,被赋予了一个总体目标,然后利用人工智能算法设计一个计划来实现它。一些无人机包围了建筑物,而另一些则进行了监视扫荡。一些机器人被模拟的爆炸物摧毁;一些机器人识别了代表敌方战斗人员的信标并选择了攻击。
美国和其他国家在武器系统中使用自主权已有几十年。例如,一些导弹可以自主地识别和攻击特定区域内的敌人。但人工智能算法的快速发展将改变军队使用此类系统的方式。现成的人工智能代码能够控制机器人并识别地标和目标,通常具有很高的可靠性,这将使在更广泛的情况下部署更多系统成为可能。
本文地址:http://www.reviewcode.cn/youxikaifa/211133.html 转载请注明出处!