标签: 人工智能

美国空军希望将人工智能用于情报收集工作

人工智能(AI)能够比个人甚至一群人更高效地处理海量数据。这意味着,人工智能还可以快速识别模式,突出显示兴趣的东西——这两种技能让人工智能成为美国空军的一个诱人的工具。据报道,空军中将杰克·沙纳汉正在尝试将人工智能融入到该组织的各项任务中。 沙纳汉同时也是五角大楼国防情报部门的主任,他在今年 4 月启动了 Maven 项目,旨在利用机器学习技术更好地使用无人机监控录像,并将其转化为有用的信息。目前,分析师已花大量的时间来浏览视频,以寻找感兴趣的东西。如果成功的话,军事人员观看视频片段的时间将大大减少,从而将时间节省下来,并让他们根据人工智能的发现做出更好的决定。 人工智能也曾被用于类似的任务:今年 10 月,一群天文学家就使用人工智能来寻找引力透镜,这项任务需要人们筛选成千上万的图像。不仅如此,机器学习也已经进行了一些防止人类自杀的测试,还可以用于识别可能发展为癌症的病变。沙纳汉解释说,他和他的团队打算通过持续的使用和改进来开发 Maven 项目。最终,它可以用于战争,也可以用来帮助在战场上作战的敌人。这也可能是说服国防部进一步投资人工智能的原因。 稿源:cnBeta、威锋网,封面源自网络;

中国研制新人工智能服务器:首次搭载寒武纪 AI 芯片

据媒体 10 月 30 日报道,相关记者从我国高性能计算领军企业中科曙光获悉,中科曙光近日成功研制出首款搭载寒武纪 AI 芯片的人工智能服务器,命名为 “Phaneron”。 Phaneron 主要是面向深度学习的在线推理业务环境。在线推理业务不同于离线训练,不需要密集的计算能力,而是需要及时响应。因此,完成推理服务,需要大量的部署前端加速芯片,以实时响应访问请求,对数据迅速作出判断。 中科曙光副总裁沙超群介绍说:“ Phaneron 可以在 4U 空间中部署 20 个人工智能前端推理模块,能够为推理提供强大的计算支持 ”。据悉,“Phaneron” 一词是从 Phaneronzoic Eon衍生过来的,中文可译作“显生宙”,显生宙是地质学的一个年代,而寒武纪是显生宙的开始。这是中科曙光与寒武纪科技自去年开展战略合作以来的首个成果落地。 据了解,在深度学习领域,寒武纪人工智能专用芯片比传统的 CPU/GPU 在性能、功耗和芯片面积方面均有较大优势,是人工智能计算芯片中高性能和低功耗的代表。2016 年被世界互联网大会评为全球 15 项 “世界互联网领先科技成果” 之一。 中科曙光总裁历军表示,接下来,中科曙光还将根据广大用户对人工智能应用场景的具体需求,进一步与寒武纪开发更多搭载有寒武纪专用AI芯片的信息基础设施,如高性能计算机、云服务器等,并通过中科曙光在全国范围内的城市云等系统将高水平的人工智能计算赋能给用户。 稿源:网易科技、新华社,封面源自网络;

迪拜为推进科技发展,新增 “人工智能国家部长” 一职

世界各国政府都开始认识到人工智能(AI)的潜力和重要性。随着人工智能法规的实施,国际社会的接受度也在不断扩大。而在阿拉伯联合酋长国(阿联酋),政府将采取进一步的促使,即任命了一位人工智能部长。 据了解,阿联酋的首位人工智能部长是现年 27 岁的 Omar Bin Sultan Al Olama。阿联酋副总统和总理 Shaikh Mohammad Bin Rashid Al Maktoum 在本周四的一份声明中表示,Olama 是六个新任命的部长之一,其中三名是女性,他们代表了阿联酋追求 “未来技能、未来科学和未来技术的新阶段”,以确保后代拥有更美好的未来。 随着科技公司开始围绕人工智能展开商业模式,像阿联酋这样的国家以及像迪拜这样的城市在技术上投入了大量的资金,这一点也不奇怪,因为他们想要站在这一发展的最前沿。举个例子,迪拜计划在 2030 年让机器人警察走上街头,他们也一直在努力让无人驾驶汽车在城市的道路和天空中行驶。与此同时,人工智能也是迪拜加速器项目的主要研究领域之一。 “我们希望阿联酋成为世界上人工智能准备最充分的国家,”总理 Shaikh Mohammad Bin Rashid Al Maktoum 说。这些新任命是 Shaikh Khalifa Bin Zayed Al Nahyan 总统批准的内阁重组的一部分,他首先与阿布扎比酋长国的王储、阿联酋武装部队副指挥官 Shaikh Mohammad Bin Zayed Al Nahyan 进行了协商。除了人工智能之外,迪拜还投资了一些超级高铁项目,甚至还投资了一个火星计划。 稿源:cnBeta、威锋网,封面源自网络;

美国正利用人工智能程序破解密码获取重要数据

美国史蒂文斯理工学院(Stevens Institute of Technology)开发了一个所谓的生成式对抗网络,可以对你所使用的密码进行合理猜测,准确率达到四分之一。他们的基本理念非常简单:让一个神经网络构建一个东西,然后由另外一个神经网络判定其质量。 这个概念是由伊恩·古德菲洛(Ian Goodfellow)发明的,他曾经入选《麻省理工科技评论》评选的 2017 年 “ 35 岁以下 35 名优秀创新者 ” 榜单,但他本人并未参与该项目。史蒂文斯理工学院的团队让一个人工智能程序利用数千万个泄露的密码来学习如何生成新密码,再让另外一个人工智能程序学习如何判断新生成的密码是否有吸引力。 将实际结果与网上泄露的 LinkedIn 登录数据进行比对后发现,人工智能生成的密码有 12% 与真实密码匹配。当研究人员从 hashCat 软件工具那里获得一些人类制作的规则,并将其加入到人工智能系统后,便可猜测 27% 的密码——比单纯使用 hashCat 高出 24%。 虽然这项技术还处于初期,但这却是生成式对抗网络首次用于破解密码。另外,只要能够获取更多数据,这项技术似乎的确能获得快于传统方法的改进速度。但无论如何,这似乎都是个坏消息,因为不法分子可能利用这项技术来发动网络攻击。 稿源:cnBeta、新浪科技,封面源自网络;

美国 CIA 正开发多个人工智能项目收集社交媒体情报

据外媒 9 月 11 日报道,美国中央情报局( CIA )正通过开发人工智能程序访问、收集与检索社交媒体情报。 美国 CIA 技术开发副主任 Dawn Meyerriecks 在情报与国家安全峰会上发表声明,宣称该机构目前正开展逾 137 个不同人工智能项目作为未来发展计划的一部分,其中多数由硅谷科技公司与 CIA 开发人员共同创建。 由于数据分析的不断发展,人工智能开始走进社交媒体平台,旨在通过公共记录收集目标用户重要信息。虽然从社交媒体收集数据的行为绝非新鲜事件,但利用人工智能做到这一点却有所不同,因为就单单收集数据的数量与速度来说较其他技术有所提高。 目前,尚不清楚 CIA 监控目标是谁,也不了解他们想要什么,以及用户公共资料被审查程度。不过,根据美国国防部的一份报告显示,CIA 运行的 137 个项目中,AI 可以根据数据与相关事件预测未来事件并自动标记视频,以便分析人员日后查看。国家地理空间情报局局长 Robert Cardillo 表示:“ 人工智能似乎是一个自然而然的进展,如果我们手动操作,预计未来 20 年的卫星图像将需要八百万分析人员共同进行。另外,我们希望人工智能能够将分析人员 75% 的工作量进行自动化处理 ”。 原作者:Immanuel Jotham,编译:青楚 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc ” 并附上原文链接。

智能语音助手还敌不过一次小小的 “ 海豚攻击 ”?

自从人工智能成为新的风口之后,如今就变成了 “ 张口即来 ” 的时代。苹果的 Siri、Google Assistant、亚马逊的 Alexa、微软的 Cortana,甚至三星、小米和华为,都迫不及待地要上台好好比一比。 不过虽然动动嘴就能下指令让 “ 助手们 ” 帮你完成一切是挺好的,但这事却没那么简单。近期,来自浙江大学的研究团队就发现,如今市场上的热门智能语音助手都或多或少存在着一些安全漏洞,只要运用一个小小的技巧,就可以轻易地 “ 黑 ” 进去控制它们。 他们把这个小技巧命名为 “ 海豚攻击 ”(The DolphinAttack),只要将特殊的语音指令转换为类似于海豚的超声波,便可以在人类无法感知的情况下对智能语音助手下指令,实现 “ 隐形 ” 的操纵。 在测试中,研究人员不用像平时一样使用 “ Hey Siri ” 或者 “ Okay Google ” 唤醒智能语音助手,他们只要在一台智能手机上安装一个微型的话筒和扩音器,便可以采用 “ 海豚攻击 ” 对指令进行重新编码,然后就能偷偷地让你的 iPhone 拨号,让你的 MacBook 打开一个恶意网站,或者让你的亚马逊 Echo “ 敞开后门 ”。就连搭载了智能语音助手的奥迪 Q3,也能被控制着重新给自己的导航系统定位。 研究团队从理论上来说,只要了解了这个原理,稍微懂一些相关知识的人都可以完成这个 “ 攻击 ”。 在大部分情况下,这种 “ 攻击 ” 仅能在距离很近的范围内实现,因此一般对远处放置的智能语音音箱来说,要通过这种方式进行控制稍微有点难度。不过对于如今能够随身携带的各类智能手表、手机等设备来说,攻击者要想“黑”进去就比较容易了。 比如说攻击者可以在人群中使用手机播放一段人耳听不到的超声波指令,那么周边的设备就很容易被这种指令所 “ 劫持 ”,去完成攻击者所下达的命令。 根据这支来自浙大的团队近期发表的论文,如今市面上包括 Siri、Alexa、Google Assistant 等在内的主流智能语音助手,都可以捕捉到超过 20kHz 的声波。但对于人耳来说,20 kHz 却是一个临界值。 为什么这些公司宁可留着这么一个漏洞也不考虑提高一下产品的安全等级呢?这就不得不提到到产品的易用性了。 首先,为了能更好地 “ 理解 ” 用户下达的指令,这些语音助手们实际上需要尽可能多地捕捉各种语音信息——包括人耳可以接收到的声音以及人类听不到的各种音频。如果为了提高安全性而减少它们能接收的声音范围的话,这些语音助手可能就没法那么“ 智能 ” 了。 其次,很多公司为了给智能语音助手创造更多的使用场景,已经在各种设备互联中使用了超声波连接。比如说亚马逊可以自动下单的 Dash Button 和手机的连接,大概使用的音频在 18 kHz 左右。对于普通用户来说,他们基本感知不到这种被 “ 隐形化 ” 的连接声音,因此才能获得一种类似魔法般的使用体验。 正因为如此,这种 “ 用户友好型 ” 的设计和数据信息安全越来越成为一种悖论般的存在。来自非营利性机构 SimplySecure 的设计总监 Ame Elliott 表示:我认为硅谷方面在关于产品会不会被滥用还存在很多盲点,很多时候产品规划和设计并不如想象中那么完善。语音控制系统显然很难去保障安全,这方面应该提高警惕。 目前,还是有一些措施可以防范类似于 “ 海豚攻击 ” 的行为。比如说关闭 Siri 和 Google Assistant 的常开装置,这样黑客就没办法通过这种方式侵入你的手机了;而对于亚马逊和 Google Home 这样的智能音箱来说,它们本身就有可以静音的设置。 不过如今这些保护措施还是处于“用户自我防范”的状态,各大厂商们会对此采取什么防范措施,仍然是个未知数。 稿源:凤凰科技,封面源自网络;

特斯拉 CEO 马斯克:全球人工智能或将引发第三次世界大战

据 CNBC  9 月 4 日报道,特斯拉和 SpaceX 首席执行官埃隆·马斯克警告称,人工智能可能引发第三次世界大战。马斯克的上述表态是对俄罗斯总统普京说法的回应。普京于 9 月 1 日表示,全球人工智能领域的领头羊将“成为世界的主宰者”。 马斯克于 4 日发表博文称,“中国、俄罗斯等国家的计算机科学非常强大。我认为,在国家层面的人工智能优势争夺,极有可能成为第三次世界大战的起因 ”。普京表示,人工智能的发展带来了 “ 巨大的机遇 ” 和 “ 难以预测的威胁 ”。 目前,美国通常被认为在人工智能领域具有领先优势,谷歌、微软等科技巨头在人工智能研发项目上投入了巨额资金。但高盛上周发表报告称,中国在人工智能领域可能赶超美国。此外,企业圈一直非常支持马斯克对人工智能的看法。上个月,马斯克与多名人工智能领域大腕联名签署一封公开信,呼吁联合国禁止使用杀人机器人。马斯克甚至认为,人工智能技术带来的威胁甚至大于与朝鲜的核冲突。因此,发动战争的可能是人工智能而非国家领导人。 稿源:cnBeta、凤凰科技,封面源自网络;

特斯拉 CEO 马斯克表示:AI 安全问题要比朝鲜攻击更加危险

据外媒报道,看起来特斯拉、SpaceX CEO 马斯克对人工智能(AI)的出现并不感到乐观。近日,他在 Twitter 上发布的一条推文中表示,AI 的安全问题甚至比朝鲜要危险得多。 另外他附上了一张忧心忡忡的女性海报,上面写着:“ 最后,机器会赢 ”。机器会赢?看起来确实这样,看看手机就知道了,许多人似乎都已经成为了它的奴隶。 马斯克还称:“没有人喜欢被管制,但所有对公众来说有危险的东西(汽车、飞机、食品、药物等)都要被监管。AI 亦是如此。”他在上个月的全国州长协会会议提出了这一观点。此外,马斯克还在 Twitter 提到了 Open AI 公司开发的机器人打败著名《 Dota 2 》职业玩家一事。据悉,马斯克是非营利性组织 Open AI 的创始人,他希望借此能找到打败机器人的方法。 马斯克认为,AI 确实已经成为了一个迫在眉睫的威胁。他在 Twitter 写道:“认识 AI 危险最大的障碍是那些对自己(开发)智能深信不疑的人,他们无法想象其他人在做他们不能做的事情。” 稿源:cnBeta,封面源自网络;

科学家正在使用 Wi-Fi 和人工智能来确定人类情绪状态

据外媒报道, 麻省理工学院的科学家正在使用 Wi-Fi 和人工智能(AI)来确定人类的情绪状态。他们已经创建了一种算法,可以通过反弹射频(RF)信号来检测和测量人类心率。与算法相结合的射频信号发射器的工作方式与心电监测仪类似。 这是使用我们目前在家用路由器中采用的相同技术完成的。其中最显着的部分是机器学习可以进入科学家们所说的 EQ Radio。人工智能接收的信息必须与标准心电监测仪不同的处理方式进行处理。EQ Radio 设备在接收这些反弹的射频信号后,就会使用特殊的算法,在分析讯号之后就能推测人们的心率状态。 正如科学家指出的那样,这种技术可以做的不仅仅是利用人们的心率来确定情绪状态:“我们设想,这一结果为在情感认知情景下和非侵入性健康监测和诊断的情景下了解心跳形态的研究铺平了道路。” 稿源:cnBeta.com,封面源自网络

霍金建议组建“世界政府”防御 AI 崛起

据外媒报道,著名理论物理学家史蒂芬·霍金( Stephen Hawking )最近一直在谈论一个主题:人类的未来。 近期,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。 他早已就人工智能对中产阶级工作岗位的影响向我们发出了警告,并与特斯拉 CEO 埃隆·马斯克(Elon Musk)一起,呼吁禁止开发用于军事用途的人工智能机器人。他也担心人工智能可能会接管世界,或者更糟糕的是,它会终止这个世界。现在,他在接受英国《泰晤士报》采访时表示,防御人工智能崛起的最好方式,是组建可以控制这种技术的“某种形式的世界政府”。 霍金接着解释了他建立这样一家国际管理机构的理由: 自人类文明开始以来,人类的积极进取是有益的,因为它具有明确的生存优势。它是在达尔文进化过程中渗透到我们人类基因的。然而,现在技术的发展速度,使这种积极进取可能以核战争或生物战争的方式摧毁我们人类。我们需要利用逻辑和理性来控制这种继承下来的本能。 为了跟上人工智能的发展,我们必须学会适应。霍金在 2014 年年底表示:“人工智能的发展可能会导致人类的终结。它将自己发展自己,并以不断增长的速度重新设计自己。人类则受到缓慢的生物进化限制,将无法与它竞争,并最终将被它取代。” 他认为这些人工智能机器人抛弃我们,不会是出于任何情感的原因:“人工智能的真正风险不是它有恶意,而是它的能力。一个有超常智慧的人工智能能将非常善于实现目标,如果那些目标与我们的目标不一致,那我们就麻烦了。” 因此,根据霍金的看法,某种形式的管理机构和快速适应的能力——这是即将到来的人工智能或超级智能时代我们生存的法宝。 幸运的是,这样的机构已经出现。这些机构,例如“人工智能伙伴关系” (Partnership on AI) 和人工智能伦理与治理基金 (Ethics and Governance of Artificial Intelligence Fund),已经开始制定有关指导方针或框架,以让人们更负责任地开发人工智能技术。国际电子电气工程协会 (IEEE) 还发布了世界首个有关人工智能道德准则的“指南”。 尽管未来的一切难以预料,霍金对未来仍然感到乐观:“这一切听起来有点像厄运来临,但我仍是一个乐观主义者。我认为人类会奋起迎接这些挑战。” 稿源:cnBeta,有删改,封面源自网络