美国军事,算法战和大型科技最新

创业中国
我们本周获悉,国防部正在大规模使用人脸识别,国防部长马克艾斯珀(Mark Esper)表示,他认为中国正在出售致命的无人驾驶无人机。在所有这些之中,您可能会错过联合AI中心...

        人脸识别,算法,科技,创业中国
 
        我们本周获悉,国防部正在大规模使用人脸识别,国防部长马克艾斯珀(Mark Esper)表示,他认为中国正在出售致命的无人驾驶无人机。在所有这些之中,您可能会错过联合AI中心(JAIC)的中将杰克·沙纳汉(Jack Shanahan)中将,他是五角大楼负责现代化和指导人工智能指令的负责人,他谈到了算法战的未来。
 
        众所周知,算法战争可以大大改变战争,它的前提是战斗行动的发生速度比人类的决策能力要快。Shanahan表示,算法战将因此需要一定程度上依赖AI系统,尽管他强调在实地使用AI之前必须进行严格的测试和评估,以确保AI不会“自食其果”。
 
        “我们将对未来战斗的速度,混乱,血腥和摩擦感到震惊,这场战斗有时可能会持续几微秒。我们如何预见战斗会发生?Shanahan 在与前Google首席执行官Eric Sc??hmidt和Google全球事务副总裁Kent Walker 的对话中说:“如果我们试图由人类来对付机器,而另一端却拥有机器和算法而我们却没有,那么我们失去冲突的风险就高得令人难以接受。”
 
        三辐周二在华盛顿的国家安全委员会AI会议,发生的前一天,集团交付了其第一份报告向国会从一些大腕技术和人工智能与输入-像微软研究院主任埃里克·霍维茨,AWS首席执行官Andy Jassy和Google Cloud首席科学家Andrew Moore。最终报告将于2020年10月发布。
 
        五角大楼首先通过Project Maven涉足算法战和一系列AI项目,该计划旨在与Google这样的科技公司以及Clarifai这样的初创公司合作。它是在两年前由Schanat和国防创新委员会推荐的,由Shanahan担任总监创建的。
 
        Shanahan说,在算法战时代,五角大楼需要将AI带给军队的各个级别的服役人员,以便对问题有第一手知识的人可以使用AI来实现进一步的军事目标。Shanahan承认,分散的发展,试验和创新方法将伴随着更高的风险,但他认为这对赢得战争至关重要。
 
        国家安全委员会关于AI的报告草稿中包含了算法战,该报告丝毫不讳言AI对美国国家安全的重要性,并明确指出“ AI的发展将塑造力量的未来。”
 
        “人工智能革命的融合和大国竞争的重新出现,必须引起美国思想的关注。这两个因素威胁着美国作为世界创新引擎和美国军事优势的作用。” “我们处于战略竞争中。人工智能将成为中心。我们国家安全和经济的未来受到威胁。”
 
        该报告还承认,在AI时代,世界可能会遭受公民自由的侵蚀和网络攻击的加速。它提到中国的次数超过50次,指出了当今中美AI生态系统的交织本质,以及中国到2030年成为全球AI领导者的目标。
 
        值得注意的是,NSCAI报告选择专注于狭窄的人工智能,而不是目前还不存在的人工智能(AGI)。
 
        “当我们可能看到AGI的出现时,人们进行了广泛的辩论。报告指出,委员会没有在短期内专注于AGI,而是负责任地处理更多“狭窄”的AI系统。
 
        上周,国防创新委员会(DIB)发布了针对国防部的AI伦理原则建议,该文件由LinkedIn联合创始人Reid Hoffman撰写。MIT CSAIL总监Daniela Rus;以及来自Facebook,Google和Microsoft的高级官员。国防部和JAIC现在将考虑采用哪些原则和建议。
 
        谷歌前首席执行官埃里克·施密特(Eric Sc??hmidt)担任NSCAI和DIB董事会主席,并监督了这两个报告的创建。施密特(Schmidt)由霍维茨(Horwitz),茉莉(Jassy)和摩尔(Moore)以及前国防部副部长罗伯特·沃克(Robert Work)一起加入NSCAI董事会。
 
        Maven项目,科技公司和五角大楼
        在周二的会议上,施密特,沙纳汉和沃克重新审视了Google关于Maven项目的争议。当Google参与该项目于2018年春季公开时,数千名员工签署了一封公开信,抗议该公司的参与。
 
        在数月的员工动荡之后,谷歌采用了自己的一套AI原则,其中包括禁止制造自动武器。
 
        谷歌还承诺在2019年底之前终止其Project Maven合同。
 
        沃克说:“听到人们对我们对国家安全和国防的承诺感到担忧,这令人沮丧。”沃克指出,谷歌正在与JAIC合作处理网络安全和医疗保健等问题。他补充说,谷歌将继续与国防部合作,并说:“这是实现这一目标的共同责任。”
 
        Shanahan表示,认识到AI在军事上的应用是共同的责任,这对美国国家安全至关重要,他承认在Maven事件中军方和工业界之间的不信任感加剧了。
 
       谷歌所做的Maven计算机视觉工作是针对无人驾驶无人机的,但沙纳汉表示,这种强烈反对反映出许多科技工作者对与军方合作的广泛担忧,并强调需要明确传达目标。
 
        但他认为,军队处于永远追赶的状态,政府,企业和学术界之间的纽带必须加强,以使该国保持经济和军事至上的地位。
 
        NSCAI报告还提到,学术界和企业界人士需要“重新认识他们对我们的民主健康和国家安全的责任”。
 
        “无论您对政府未来使用人工智能技术的立场如何,我认为,如果没有行业和学术界的平等合作,我们永远无法实现委员会中期报告中概述的愿景。要采取其他行动,势在必行。”他说。
 
        自主武器
       Heather Roff是约翰·霍普金斯大学(Johns Hopkins University)的高级研究分析师,也是Google DeepMind的前研究科学家。她是DIB报告的主要作者,也是创建NSCAI报告的道德顾问。
 
        她认为DIB报告的媒体报道引人注目地使用了自主武器,但通常没有考虑到AI在整个军队中的应用-在后勤,计划和网络安全等领域。她还列举了AI在促进美军审计方面的价值,美军拥有世界上任何军队中最大的预算,并且是美国最大的雇主之一。
 
       Roff说,NSCAI报告的草稿说自动武器可能有用,但补充说该委员会打算在来年解决道德问题。
 
        罗夫说,关心使用自动武器的人们应该认识到,尽管有足够的资金,但军队今天仍面临着更大的结构性挑战。NSCAI报告中提出的问题包括服务成员不准备使用开源软件或下载GitHub客户端。
 
       “目前唯一在AGI上进行认真工作的人是DeepMind和OpenAI,也许还有一些Google Brain,但是该部门没有计算基础设施来完成OpenAI和Deep Mind的工作。他们没有计算,没有专业知识,没有硬件,也没有数据源或数据,”她说。
 
        NSCAI计划下次与非政府组织开会,讨论自动武器,隐私和公民自由等问题。
 
        莉兹·奥沙利文(Liz O'Sullivan)是纽约ArthurAI的副总裁,也是“制止杀手机器人”人权观察运动的一部分。去年,在与同事表达对自动武器系统的反对后,她辞去了克拉里菲(Clarifai)的工作,以抗议在Maven项目上所做的工作。她认为这两份报告有很多实质性内容,但它们在重要问题上没有明确表示立场,例如是否可以使用有利于男性的历史招聘数据。
 
       奥沙利文感到关切的是,两份报告中提到的2012年国防部指令都要求“适当水平的人类判断”被解释为意味着自动武器将始终具有人类控制权。她宁愿军队采用联合国所提倡的“有意义的人为控制”的思想。
 
       曾从事自动武器研究的罗夫说,一个误解是人工智能系统的部署需要一个人参与。对AI伦理报告的最新修改明确指出,如果AI系统开始自行采取行动或试图避免被关闭,则军方必须关闭电源。
 
        “处于循环中的人员之所以不在报告中是有原因的,这是(因为)这些系统中的许多系统将自动执行,因为它将被编程为可以执行某项任务,并且不会有人在循环中本身。Roff表示:“这将是一个决策辅助工具,或者将有输出,或者,如果是网络安全,它将发现错误并自行对其进行修补,而人类将无法介入。”
 
        尽管AI伦理报告是通过多次公众评论会议编写的,但O'Sullivan认为DIB AI伦理报告和NSCAI报告缺乏反对自动武器人士的投入。
 
        她说:“很明显,他们选择了这些团体来代表行业,都是非常中间的人。” “这至少向我解释了为什么该委员会中没有一个代表反自治的代表。他们堆积了甲板,当他们创建这些小组时,他们必须知道他们在做什么。”
 
        奥沙利文(O'Sullivan)同意军方需要技术人员,但他认为必须在人们的工作上保持领先。诸如Maven之类的基于计算机视觉的项目引起了人们的关注,因为AI是一种双重用途技术,为民用设计的物体检测系统也可以用于武器。
 
        “我认为放弃整个政府行业对所有科技行业来说都不是明智之举。他们需要我们的帮助,但与此同时,在某些情况下,我们处于无法得知我们正在处理什么的状态,因为它已经被分类或部分可能被分类了。” “科技行业内有很多人确实愿意与国防部合作,但是必须要有共识,必须让他们真正了解他们所执行任务的影响和严重性正在努力。如果仅仅出于在构建项目时理解用例的目的,那么以负责任的方式设计[AI]至关重要。”

1
联系我们