标签: 人工智能

赛门铁克:2018 年黑客将首次用上人工智能,冰箱也不能幸免

全球网络安全服务厂商赛门铁克( Symantec ) 12 月 7 日称,2018 年黑客将首次使用人工智能 ( AI ) 和机器学习 ( ML ) 技术发动网络攻击,届时冰箱等物联网 ( IoT )设备也不能幸免。赛门铁克产品管理总监塔伦·库拉 ( Tarun Kaura ) 在一份声明中称,2018 年黑客将首次使用人工智能技术发动攻击。物联网设备被入侵后,黑客还会利用这些设备发动 DDoS 攻击。 由于物联网设备配备了传感器被入侵后,黑客可以利用音频、视频或其他输入方式,让该设备执行黑客操作,而不是用户希望它们做的事情。除了用于发动 DDoS 攻击和索取赎金,黑客还可以利用这些被入侵的家庭物联网设备持续访问被入侵用户的电脑网络。这里所说的“ 持续 ”访问,是指无论用户多么频繁地对计算机进行杀毒或保护,黑客都会拥有一个“ 后门 ”访问被入侵者网络。 库拉说:“ 家庭用户一般想不到他们家中的物联网设备也会遭到黑客攻击,因此通常会保留这些设备的默认设置,也不会像升级电脑软件那样经常升级物联网设备”。至于比特币所使用的区块链技术,赛门铁克称,黑客不会直接攻击区块链技术,而是会攻击比特币交易所和用户的比特币钱包,因为这样做更容易,回报也更高。 稿源:cnBeta、新浪科技,封面源自网络;

IEEE 发布人工智能伦理标准 确保人类不受影响

人工智能(AI)已经从一个科幻小说式的探索领域发展到一个蓬勃发展的科技领域,在这个领域里,不可能的事情正在成为可能。为了确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。 IEEE 自称为“世界上最大的技术进步技术专业组织”。根据最近发布的一份新闻稿,他们的人工智能标准将优先考虑人类,因为他们承诺要跟上该领域不断发展的脚步。这些新标准将成为一份题为《伦理一致的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》的 IEEE 文档的一部分。这份文件将继续随着时代的变迁而不断变化,鼓励那些推动技术进步的人考虑这样的进步可能会如何影响伦理方面的担忧。 Satoshi Tadokoro 是 IEEE 机器人和自动化协会的主席,他解释了为什么他们在发布会上制定了这样的标准:“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能产生的巨大潜在利益。不幸的是,在这些讨论中,可能会出现一些来自虚构和想象的错误信息”。Tadokoro 继续说道:“IEEE 将基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化 ”。三大人工智能标准将作为一个单独的项目引入,每个项目由专家领导。 第一个标准:“机器化系统、智能系统和自动系统的伦理推动标准”。探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。 第二个标准:“自动和半自动系统的故障安全设计标准”。包含了自动技术,如果它们发生故障,可能会对人类造成危害。就目前而言,最明显的问题是自动驾驶汽车。 第三个标准:“道德化的人工智能和自动系统的福祉衡量标准”。阐述了进步的人工智能技术如何有益于人类的益处。 这些标准的实施可能比我们想象的要早,因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展,甚至创造出能够自我学习又扩大 “智能” 领域的人工智能系统。专家们认为,这样的人工智能会破坏世界稳定,导致大规模的失业和战争,甚至转向创造“杀人武器”。 最近,联合国的重要讨论促使人们开始认真思考,需对将人工智能技术当作武器使用进行更严格的监管。这三个标准项目有望能够规范人工智能的发展,而不是阻碍进步,但是我们所了解的社会也并未被我们努力创造的东西所破坏。 稿源:cnBeta、威锋网,封面源自网络;

美国空军希望将人工智能用于情报收集工作

人工智能(AI)能够比个人甚至一群人更高效地处理海量数据。这意味着,人工智能还可以快速识别模式,突出显示兴趣的东西——这两种技能让人工智能成为美国空军的一个诱人的工具。据报道,空军中将杰克·沙纳汉正在尝试将人工智能融入到该组织的各项任务中。 沙纳汉同时也是五角大楼国防情报部门的主任,他在今年 4 月启动了 Maven 项目,旨在利用机器学习技术更好地使用无人机监控录像,并将其转化为有用的信息。目前,分析师已花大量的时间来浏览视频,以寻找感兴趣的东西。如果成功的话,军事人员观看视频片段的时间将大大减少,从而将时间节省下来,并让他们根据人工智能的发现做出更好的决定。 人工智能也曾被用于类似的任务:今年 10 月,一群天文学家就使用人工智能来寻找引力透镜,这项任务需要人们筛选成千上万的图像。不仅如此,机器学习也已经进行了一些防止人类自杀的测试,还可以用于识别可能发展为癌症的病变。沙纳汉解释说,他和他的团队打算通过持续的使用和改进来开发 Maven 项目。最终,它可以用于战争,也可以用来帮助在战场上作战的敌人。这也可能是说服国防部进一步投资人工智能的原因。 稿源:cnBeta、威锋网,封面源自网络;

中国研制新人工智能服务器:首次搭载寒武纪 AI 芯片

据媒体 10 月 30 日报道,相关记者从我国高性能计算领军企业中科曙光获悉,中科曙光近日成功研制出首款搭载寒武纪 AI 芯片的人工智能服务器,命名为 “Phaneron”。 Phaneron 主要是面向深度学习的在线推理业务环境。在线推理业务不同于离线训练,不需要密集的计算能力,而是需要及时响应。因此,完成推理服务,需要大量的部署前端加速芯片,以实时响应访问请求,对数据迅速作出判断。 中科曙光副总裁沙超群介绍说:“ Phaneron 可以在 4U 空间中部署 20 个人工智能前端推理模块,能够为推理提供强大的计算支持 ”。据悉,“Phaneron” 一词是从 Phaneronzoic Eon衍生过来的,中文可译作“显生宙”,显生宙是地质学的一个年代,而寒武纪是显生宙的开始。这是中科曙光与寒武纪科技自去年开展战略合作以来的首个成果落地。 据了解,在深度学习领域,寒武纪人工智能专用芯片比传统的 CPU/GPU 在性能、功耗和芯片面积方面均有较大优势,是人工智能计算芯片中高性能和低功耗的代表。2016 年被世界互联网大会评为全球 15 项 “世界互联网领先科技成果” 之一。 中科曙光总裁历军表示,接下来,中科曙光还将根据广大用户对人工智能应用场景的具体需求,进一步与寒武纪开发更多搭载有寒武纪专用AI芯片的信息基础设施,如高性能计算机、云服务器等,并通过中科曙光在全国范围内的城市云等系统将高水平的人工智能计算赋能给用户。 稿源:网易科技、新华社,封面源自网络;

迪拜为推进科技发展,新增 “人工智能国家部长” 一职

世界各国政府都开始认识到人工智能(AI)的潜力和重要性。随着人工智能法规的实施,国际社会的接受度也在不断扩大。而在阿拉伯联合酋长国(阿联酋),政府将采取进一步的促使,即任命了一位人工智能部长。 据了解,阿联酋的首位人工智能部长是现年 27 岁的 Omar Bin Sultan Al Olama。阿联酋副总统和总理 Shaikh Mohammad Bin Rashid Al Maktoum 在本周四的一份声明中表示,Olama 是六个新任命的部长之一,其中三名是女性,他们代表了阿联酋追求 “未来技能、未来科学和未来技术的新阶段”,以确保后代拥有更美好的未来。 随着科技公司开始围绕人工智能展开商业模式,像阿联酋这样的国家以及像迪拜这样的城市在技术上投入了大量的资金,这一点也不奇怪,因为他们想要站在这一发展的最前沿。举个例子,迪拜计划在 2030 年让机器人警察走上街头,他们也一直在努力让无人驾驶汽车在城市的道路和天空中行驶。与此同时,人工智能也是迪拜加速器项目的主要研究领域之一。 “我们希望阿联酋成为世界上人工智能准备最充分的国家,”总理 Shaikh Mohammad Bin Rashid Al Maktoum 说。这些新任命是 Shaikh Khalifa Bin Zayed Al Nahyan 总统批准的内阁重组的一部分,他首先与阿布扎比酋长国的王储、阿联酋武装部队副指挥官 Shaikh Mohammad Bin Zayed Al Nahyan 进行了协商。除了人工智能之外,迪拜还投资了一些超级高铁项目,甚至还投资了一个火星计划。 稿源:cnBeta、威锋网,封面源自网络;

美国正利用人工智能程序破解密码获取重要数据

美国史蒂文斯理工学院(Stevens Institute of Technology)开发了一个所谓的生成式对抗网络,可以对你所使用的密码进行合理猜测,准确率达到四分之一。他们的基本理念非常简单:让一个神经网络构建一个东西,然后由另外一个神经网络判定其质量。 这个概念是由伊恩·古德菲洛(Ian Goodfellow)发明的,他曾经入选《麻省理工科技评论》评选的 2017 年 “ 35 岁以下 35 名优秀创新者 ” 榜单,但他本人并未参与该项目。史蒂文斯理工学院的团队让一个人工智能程序利用数千万个泄露的密码来学习如何生成新密码,再让另外一个人工智能程序学习如何判断新生成的密码是否有吸引力。 将实际结果与网上泄露的 LinkedIn 登录数据进行比对后发现,人工智能生成的密码有 12% 与真实密码匹配。当研究人员从 hashCat 软件工具那里获得一些人类制作的规则,并将其加入到人工智能系统后,便可猜测 27% 的密码——比单纯使用 hashCat 高出 24%。 虽然这项技术还处于初期,但这却是生成式对抗网络首次用于破解密码。另外,只要能够获取更多数据,这项技术似乎的确能获得快于传统方法的改进速度。但无论如何,这似乎都是个坏消息,因为不法分子可能利用这项技术来发动网络攻击。 稿源:cnBeta、新浪科技,封面源自网络;

美国 CIA 正开发多个人工智能项目收集社交媒体情报

据外媒 9 月 11 日报道,美国中央情报局( CIA )正通过开发人工智能程序访问、收集与检索社交媒体情报。 美国 CIA 技术开发副主任 Dawn Meyerriecks 在情报与国家安全峰会上发表声明,宣称该机构目前正开展逾 137 个不同人工智能项目作为未来发展计划的一部分,其中多数由硅谷科技公司与 CIA 开发人员共同创建。 由于数据分析的不断发展,人工智能开始走进社交媒体平台,旨在通过公共记录收集目标用户重要信息。虽然从社交媒体收集数据的行为绝非新鲜事件,但利用人工智能做到这一点却有所不同,因为就单单收集数据的数量与速度来说较其他技术有所提高。 目前,尚不清楚 CIA 监控目标是谁,也不了解他们想要什么,以及用户公共资料被审查程度。不过,根据美国国防部的一份报告显示,CIA 运行的 137 个项目中,AI 可以根据数据与相关事件预测未来事件并自动标记视频,以便分析人员日后查看。国家地理空间情报局局长 Robert Cardillo 表示:“ 人工智能似乎是一个自然而然的进展,如果我们手动操作,预计未来 20 年的卫星图像将需要八百万分析人员共同进行。另外,我们希望人工智能能够将分析人员 75% 的工作量进行自动化处理 ”。 原作者:Immanuel Jotham,编译:青楚 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc ” 并附上原文链接。

智能语音助手还敌不过一次小小的 “ 海豚攻击 ”?

自从人工智能成为新的风口之后,如今就变成了 “ 张口即来 ” 的时代。苹果的 Siri、Google Assistant、亚马逊的 Alexa、微软的 Cortana,甚至三星、小米和华为,都迫不及待地要上台好好比一比。 不过虽然动动嘴就能下指令让 “ 助手们 ” 帮你完成一切是挺好的,但这事却没那么简单。近期,来自浙江大学的研究团队就发现,如今市场上的热门智能语音助手都或多或少存在着一些安全漏洞,只要运用一个小小的技巧,就可以轻易地 “ 黑 ” 进去控制它们。 他们把这个小技巧命名为 “ 海豚攻击 ”(The DolphinAttack),只要将特殊的语音指令转换为类似于海豚的超声波,便可以在人类无法感知的情况下对智能语音助手下指令,实现 “ 隐形 ” 的操纵。 在测试中,研究人员不用像平时一样使用 “ Hey Siri ” 或者 “ Okay Google ” 唤醒智能语音助手,他们只要在一台智能手机上安装一个微型的话筒和扩音器,便可以采用 “ 海豚攻击 ” 对指令进行重新编码,然后就能偷偷地让你的 iPhone 拨号,让你的 MacBook 打开一个恶意网站,或者让你的亚马逊 Echo “ 敞开后门 ”。就连搭载了智能语音助手的奥迪 Q3,也能被控制着重新给自己的导航系统定位。 研究团队从理论上来说,只要了解了这个原理,稍微懂一些相关知识的人都可以完成这个 “ 攻击 ”。 在大部分情况下,这种 “ 攻击 ” 仅能在距离很近的范围内实现,因此一般对远处放置的智能语音音箱来说,要通过这种方式进行控制稍微有点难度。不过对于如今能够随身携带的各类智能手表、手机等设备来说,攻击者要想“黑”进去就比较容易了。 比如说攻击者可以在人群中使用手机播放一段人耳听不到的超声波指令,那么周边的设备就很容易被这种指令所 “ 劫持 ”,去完成攻击者所下达的命令。 根据这支来自浙大的团队近期发表的论文,如今市面上包括 Siri、Alexa、Google Assistant 等在内的主流智能语音助手,都可以捕捉到超过 20kHz 的声波。但对于人耳来说,20 kHz 却是一个临界值。 为什么这些公司宁可留着这么一个漏洞也不考虑提高一下产品的安全等级呢?这就不得不提到到产品的易用性了。 首先,为了能更好地 “ 理解 ” 用户下达的指令,这些语音助手们实际上需要尽可能多地捕捉各种语音信息——包括人耳可以接收到的声音以及人类听不到的各种音频。如果为了提高安全性而减少它们能接收的声音范围的话,这些语音助手可能就没法那么“ 智能 ” 了。 其次,很多公司为了给智能语音助手创造更多的使用场景,已经在各种设备互联中使用了超声波连接。比如说亚马逊可以自动下单的 Dash Button 和手机的连接,大概使用的音频在 18 kHz 左右。对于普通用户来说,他们基本感知不到这种被 “ 隐形化 ” 的连接声音,因此才能获得一种类似魔法般的使用体验。 正因为如此,这种 “ 用户友好型 ” 的设计和数据信息安全越来越成为一种悖论般的存在。来自非营利性机构 SimplySecure 的设计总监 Ame Elliott 表示:我认为硅谷方面在关于产品会不会被滥用还存在很多盲点,很多时候产品规划和设计并不如想象中那么完善。语音控制系统显然很难去保障安全,这方面应该提高警惕。 目前,还是有一些措施可以防范类似于 “ 海豚攻击 ” 的行为。比如说关闭 Siri 和 Google Assistant 的常开装置,这样黑客就没办法通过这种方式侵入你的手机了;而对于亚马逊和 Google Home 这样的智能音箱来说,它们本身就有可以静音的设置。 不过如今这些保护措施还是处于“用户自我防范”的状态,各大厂商们会对此采取什么防范措施,仍然是个未知数。 稿源:凤凰科技,封面源自网络;

特斯拉 CEO 马斯克:全球人工智能或将引发第三次世界大战

据 CNBC  9 月 4 日报道,特斯拉和 SpaceX 首席执行官埃隆·马斯克警告称,人工智能可能引发第三次世界大战。马斯克的上述表态是对俄罗斯总统普京说法的回应。普京于 9 月 1 日表示,全球人工智能领域的领头羊将“成为世界的主宰者”。 马斯克于 4 日发表博文称,“中国、俄罗斯等国家的计算机科学非常强大。我认为,在国家层面的人工智能优势争夺,极有可能成为第三次世界大战的起因 ”。普京表示,人工智能的发展带来了 “ 巨大的机遇 ” 和 “ 难以预测的威胁 ”。 目前,美国通常被认为在人工智能领域具有领先优势,谷歌、微软等科技巨头在人工智能研发项目上投入了巨额资金。但高盛上周发表报告称,中国在人工智能领域可能赶超美国。此外,企业圈一直非常支持马斯克对人工智能的看法。上个月,马斯克与多名人工智能领域大腕联名签署一封公开信,呼吁联合国禁止使用杀人机器人。马斯克甚至认为,人工智能技术带来的威胁甚至大于与朝鲜的核冲突。因此,发动战争的可能是人工智能而非国家领导人。 稿源:cnBeta、凤凰科技,封面源自网络;

特斯拉 CEO 马斯克表示:AI 安全问题要比朝鲜攻击更加危险

据外媒报道,看起来特斯拉、SpaceX CEO 马斯克对人工智能(AI)的出现并不感到乐观。近日,他在 Twitter 上发布的一条推文中表示,AI 的安全问题甚至比朝鲜要危险得多。 另外他附上了一张忧心忡忡的女性海报,上面写着:“ 最后,机器会赢 ”。机器会赢?看起来确实这样,看看手机就知道了,许多人似乎都已经成为了它的奴隶。 马斯克还称:“没有人喜欢被管制,但所有对公众来说有危险的东西(汽车、飞机、食品、药物等)都要被监管。AI 亦是如此。”他在上个月的全国州长协会会议提出了这一观点。此外,马斯克还在 Twitter 提到了 Open AI 公司开发的机器人打败著名《 Dota 2 》职业玩家一事。据悉,马斯克是非营利性组织 Open AI 的创始人,他希望借此能找到打败机器人的方法。 马斯克认为,AI 确实已经成为了一个迫在眉睫的威胁。他在 Twitter 写道:“认识 AI 危险最大的障碍是那些对自己(开发)智能深信不疑的人,他们无法想象其他人在做他们不能做的事情。” 稿源:cnBeta,封面源自网络;