标签: AI

美国情报机构想要能自动分类卫星图像的 AI

间谍卫星及其商用卫星每天拍摄了数十 TB 的卫星图像,而人类分析师只能从卫星图像中筛选出高价值的目标如核设施和导弹。这就是为什么美国情报机构资助了自动识别卫星图像中感兴趣目标的 AI 挑战赛。挑战赛从 7 月开始,参赛者用世界最大的卫星图库数据集训练机器学习算法,该数据库由 U.S. Intelligence Advanced Research Projects Activity 提供。 目前,10 名决赛选手将能在 12 月底在一个秘密的卫星图像数据集里测试他们的 AI 算法。美国情报机构想要用 AI 自动处理目前由人类完成的四分之三的工作负荷。 稿源:solidot奇客,封面源自网络;

研究人员开发无监督的 AI,以在 Twitter 上发现非法药物销售

据外媒报道,美国民众在打击阿片类药物滥用斗争中最新的 “盟友”是一台计算机,其正在学习如何弄清人类在互联网上销售的其他处方药。圣迭戈的一个医学研究团队创建了一种无监督的人工智能,在 Twitter 上寻找非法销售阿片类药物的现象。 在收到含有特定药物参考文献的推文后,该机器能够通过现实世界的位置产生关于阿片样药物滥用的准确数据,并发现在线药物销售情况。其分析了超过 60 万条推特,并发现在线销售药物的 1778 条推文。 机器在地理上分离了数据,被发现与人类进行的可比较研究一致。研究人员在他们的论文中得出结论: 我们的方法可以通过大量的推文识别非法在线销售处方阿片类药物。我们的研究结果表明,受控药物通过不同的战略和供应商在线投放。 这种研究可能不会直接用于执法,因为人工智能使用公开的数据来进行调查。大多数罪犯在进行非法活动时并没有在 Twitter 上验证身份; 这个数据对研究人员来说更重要。这一进程的更为相关的后果是作为确定阿片类药物滥用趋势的工具,其比目前的方法更有效。 社会媒体是非法处方药销售的有效形式,因为它代表了一个(相对)安全的环境,并获得适度的匿名性。研究人员的AI代表着结束传统调查方法作为科学证据。一个机器可以在几秒钟内看到 Twitter,并在理论上做出相同的决定,而不是花费几年时间查看可验证数据来尝试调查阿片类药物滥用的发展情况。 稿源:cnBeta,封面源自网络;

亚马逊计划在德国设立一所 AI 研究中心,其专注开发视觉系统

据外媒 10 月 24 日消息,电商巨头亚马逊宣布,将在德国建立一个新研究中心,专注于开发人工智能(AI)以提高客户体验——尤其是在视觉系统方面。亚马逊表示,在该研究中心进行的研究也将致力于帮助亚马逊云服务(AWS)的用户及其语音驱动的人工智能助手Alexa。目前,该研究中心将设在图宾根,其靠近马克斯•普朗克智能系统学院。知情人士获悉,它将聘用 100 多名机器学习工程师。 亚马逊表示,未来五年该研究中心将创造约 100 个工作岗位。该研究中心是继柏林、德累斯顿和亚琛之后,亚马逊在德国的第四个研究中心。图宾根研发中心是亚马逊的第一个专注于视觉人工智能研究的德国研究中心,尽管这只是亚马逊在这方面已经广泛开展的研发工作的最新延伸。另外,亚马逊还将聘用马普研究院的两位教授为亚马逊学者。Bernhard Schölkopf,机器学习领域专家,他还是计算机辅助摄影的共同发明人;Michael J. Black,机器视觉领域的专家,同时还是人体 3D 成像公司 Body Labs 的联合创始人。 亚马逊的柏林研究中心最初是一个客户服务中心,但自 2013 年以来,它还包括开发亚马逊云业务(包括管理程序、操作系统、管理工具和自我学习技术);亚马逊的的德累斯顿中心是内核和操作系统团队,内核和操作系统在 EC2 核心上运行;在亚马逊的的亚琛研发中心,工程师们正在研究 Alexa 和架构云 AWS 服务。 除了建立研发中心,亚马逊还表示,将向 “Cyber Valley” 项目捐赠 125 万欧元(约合 150 万美元)。此外,亚马逊还将出资 42 万欧元(约合 50 万美元),对个别研究成果进行奖励。“Cyber Valley” 项目是去年德国推出的一个创新项目,旨在将学术与业界研究成果相结合,以推动人工智能的研究。目前,这个创新项目现有的合作伙伴包括宝马、博世、戴姆勒、IAV、保时捷和德国采埃孚集团以及现在加入的亚马逊。 稿源:cnBeta,封面源自网络;

Google:没有人能够免受网络攻击,AI 防御也不例外

根据 CNBC 消息,保护 Google 系统 15 年的网络安全专家在旧金山召开的 TechCrunch Disrupt 2017 技术会议中谈到,没有人能够免受网络攻击,就算使用了人工智能也无济于事。Google 表示有超过 10 亿人使用其 Gmail 程序。 但 Google 的信息安全和隐私总监 Heather Adkins 以及 Google 安全团队的创建成员建议用户不要将敏感的个人信息保存在 Gmail 当中。此外,Adkins 在场上接受采访时表示,网络攻击可能会发生在任何人任何地方,她呼吁初创公司时刻做好应对黑客入侵的准备。 Adkins 解释说, AI 驱动的安全软件在面对 20 世纪 70 年代的网络攻击面前都不是很有效,更不用提最新的攻击方式了。詹姆斯·安德森在一篇 1972 年的研究报告中指出:“防御技术并没有任何改变,即使我们已经知道这种攻击的方法已经很久了”。虽然 AI 非常适合发起网络攻击,但并不是说它会比非 AI 系统具有更好的防护能力,AI 在防毒功能中表现出太多的 “ 假阳性 ” 了。 Adkins 认为将 AI 应用用于安全性的问题在于机器学习需要反馈“好”与“不好”的经验,特别是当恶意程序试图掩盖其真实性质时,AI 就会接受恶意程序学习。当 Adkins 被问及会向企业提供什么建议来保护网络安全时, Adkins 建议人们网络维护方面更多地使用人力,尽量减少对 “ 技术 ” 的依赖。 稿源:cnBeta、威锋网,封面源自网络;

苹果机器学习博客在线分享 3 篇有关 Siri 技术的最新文章

今年 7 月,苹果推出了 “ Apple Machine Learning Journal ” 在线博客。这个博客会定期分享苹果在机器学习、AI 和其他相关领域的进展。苹果分享的文章全部由苹果工程师写出,这也给予了他们分享自己进度以及与其他研究人员、工程师沟通的方式。 苹果于 8 月 24 日在机器学习博客分享了 3 篇新文章,都是关于 Siri 技术的。对于普通用户来说,第一篇文章可读性更高一些,主要涉及 iOS 11 中 Siri 语音助手的深度学习。 另外两篇文章主要提到了日期、时间和其他数字的呈现技术,以及 Siri 如何支持更多语言。 苹果机器学习播客在线分享的 3 篇文章包括: ○ 《 Deep Learning for Siri’s Voice: On-device Deep Mixture Density Networks for Hybrid Unit Selection Synthesis 》 ○ 《 Inverse Text Normalization as a Labeling Problem 》 ○ 《 Improving Neural Network Acoustic Models by Cross-bandwidth and Cross-lingual Initialization 》 稿源:cnBeta、威锋网,封面源自网络;  

发展中国家成为 AI 网络攻击的实验场

这种网络攻击带有多年来研究人员极为担心的特征:使用人工智能的恶意软件可能导致新的数字军备竞赛,以人工智能为主的防御措施与以人工智能为主的进攻手段在网上决一胜负,人类只能站在一边观看。但是,没有被广泛预测的事情是,这类恶意软件的最早实例之一是在印度发现的,而不是在英国或美国。 安全研究人员正越来越多地在西方以外的国家发现这类网络攻击软件的最新、最有创意和最具潜在危险的使用。印度发生的这次网络攻击使用的恶意软件在其传播过程中就能自我学习,并且不断改变方法,以尽可能长时间地待在计算机系统中。Recorded Future 公司的高级威胁情报分析师 Allan Liska 说,“几年来,台湾和韩国已被证明是中国一些更先进的小组的测试场,这些国家拥有高速互联网,大范围的互联网普及率,但没有投入很多的网络安全基础设施。”他补充说:“我们看到攻击者中的一种模式。他们先测试一些东西,对其进行改进,六周后再次测试软件,然后将其用于真正的目标。” 稿源:solidot,封面源自网络

会“读心术”的 AI 能够通过功能性磁共振成像信号猜测你在想什么

在医疗应用中,深度学习神经网络已经可以执行一些令人印象深刻的任务,例如帮助皮肤科医师诊断皮肤癌,或让机器人像人类一样思考如何抓取实物。而现在卡内基梅隆大学正在研发一个人工智能(AI)系统,能够基于功能性磁共振成像技术(fMRI)解码人类的复杂思想,甚至可能解释完整的句子。 这个系统涉及从功能性磁共振成像(fMRI)机器收集数据,然后使用AI机器学习算法来精确解码大脑构造复杂思维的构建模块。卡内基梅隆大学心理学教授兼这项研究的主要作者 Marcel Just 表示:“人类大脑的一大进步就是具有将单一概念融入复杂思想的能力,不仅仅会想到香蕉,还可以联想到晚上和朋友一起吃香蕉。我们终于开发出了一种通过 fMRI 信号读取这种复杂想法的方法。思想与大脑激活模式之间的这种对应关系的发现告诉我们思想的构建单元是什么。” 在卡内基梅隆大学的研究中,该团队能够根据 240 个复杂事件展示不同的大脑激活。研究人员使用了一个计算模型在特定的时间内来评估 7 个人对作为材料的 239 个句子有怎样不同的神经系统反应特征。然后,这个系统能对第 240 个被遗漏的句子的特征进行解码。它能够以令人印象深刻的 87% 的准确度做到这一点。这项题为“预测与句子的命题内容相关的大脑激活模式”已发表在《人类大脑图谱》杂志上。 稿源:cnBeta,封面源自网络

在图片中加入噪点就能骗过 Google 最顶尖的图像识别 AI

近期,一群来自华盛顿大学网络安全实验室( NSL )的计算机专家发现,恶意攻击者可以欺骗 Google 的 CloudVision API ,这将导致 API 对用户提交的图片进行错误地分类。 近些年来,基于 AI 的图片分类系统变得越来越热门了,而这项研究针对的就是这种图片分类系统。现在,很多在线服务都会采用这种系统来捕捉或屏蔽某些特殊类型的图片,例如那些具有暴力性质或色情性质的图片,而基于 AI 的图片分类系统可以阻止用户提交并发布违禁图片。 虽然这种分类系统使用了高度复杂的机器学习算法,但是研究人员表示,他们发现了一种非常简单的方法来欺骗 Google 的 Cloud Vision 服务。 Google 的 Cloud Vision API 存在漏洞 他们所设计出的攻击技术其实非常简单,只需要在一张图片中添加少量噪点即可成功欺骗 Google 的 Cloud Vision API。其中的噪点等级可以在 10% 到 30% 范围内浮动,同时也可以保证图片的清晰度,而且这足以欺骗Google的图片分类 AI 了。 向图片中添加噪点其实也非常的简单,整个过程并不需要多么高端的技术,一切只需要一个图片编辑软件即可实现。 研究人员认为,网络犯罪分子可以利用这种技术来传播暴力图片、色情图片或恐怖主义宣传图片。除此之外,Google 自己的图片搜索系统也使用了这个 API,这也就意味着,当用户使用Google进行图片搜索时,很可能会搜索到意料之外的图片。 解决这个问题的方法很简单 研究人员表示,修复这个问题其实跟攻击过程一样的简单,所以Google的工程师们完全没必要紧张。 为了防止这种攻击,Google 只需要在运行其图片分类算法之前,对图片中的噪点进行过滤就可以了。研究人员通过测试发现,在噪点过滤器的帮助下,Google 的 Cloud Vision API 完全可以对图片进行适当的分类。 后话 研究人员已经将这种攻击的完整技术细节在其发表的论文中进行了描述,感兴趣的用户可以阅读这篇论文【传送门】。已经值得注意的是,这群研究人员在此之前也使用过类似的方法来欺骗 Google 的 Cloud Video Intelligence API【参考资料】。注:他们在一个视频中每两秒就插入一张相同的图片,最后 Google 的视频分类 AI 会根据这张不断重复出现的图片来对视频进行分类,而分类的依据并不是视频本身的内容。 文章转载自:FreeBuf.com,FB 小编 Alpha_h4ck 编译

上班偷看网页要被逮,程序员利用 AI 防 “老板”

人工智能已被应用于经济、医学及交通等多种领域。但看上去“高大上”的人工智能有时候的用途也未必都是那么高大上。今日要说的这一个 AI 应用程序“ Boss Sensor ”出自日本程序员 Nakayama 之手,研发动机只是不想让老板发现他在偷懒。 上班时候偷偷浏览与工作无关的网页对于职场人来说再熟悉不过了,而为了避免领导突然出现在身后被抓个现行,各种物理遮挡硬件和应用程序等方式都冒了出来。为防止反应不及动作过大而引起领导的怀疑,Nakayama 想到了用 AI 程序来自动完成这一过程,既显得十分自然又不会引起领导的疑心。他将这一 AI 程序称为 Boss Sensor,通过网络摄像头和软件相结合的方式来对领导进行“监视”。 据他介绍,领导的办公桌距离他的座位不过 5 秒钟的路程,因此留给 AI 程序反应的时间其实也不多。为此,他利用 OpenCV 跨平台计算机视觉库来进行人脸识别,并使用 Keras 深度学习框架来构建卷积神经网络( CNN ),专门针对领导的面部进行识别认证。当该 AI 程序识别到老板出现在 Nakayama 办公桌周围时,电脑桌面就将自动出现静态程序代码的画面,让领导以为 Nakayama 一直在努力工作着。 目前,Nakayama 已将 Boss Sensor 的源代码发布在了 GitHub 上。 稿源:cnbeta,有删改,封面来源:cnBeta