分类: 人工智能

谷歌开发AI新工具:预测病人死亡时间 将应用到诊所

新浪科技讯 北京时间6月19日上午消息,谷歌旗下的Medical Brian团队开发了一种新的人工智能算法,可以帮助医院预测病人的死亡时间,并有望在医疗领域展开更广泛的应用。 一名身患乳腺癌晚期的女士来到一家城市医院,她的肺里已经充满液体。她看了两位医生,还做了一次放射扫描。医院的电脑读取了她的生命体征,估计她在住院期间去世的概率为9.3%。 之后轮到谷歌出场。该公司开发的一种新型算法读取了这位女士的175,639个数据点,然后测算其死亡风险为19.9%。她几天之后便去世了。 今年5月,这位女士的故事被匿名发表在谷歌的一篇研究报告中,希望借此凸显神经网络在医疗行业的潜力——这种技术很擅长使用数据自动学习和提升。谷歌开发了一种工具,可以预测很多病人的结果,包括他们可能的住院时间、再次住院的概率以及短期内死亡的概率。 最令医疗专家印象深刻的在于,谷歌可以筛选之前无法获得的数据:埋藏在PDF文件中的注释或旧资料中的潦草笔记。这个神经网络会获取所有非常规信息,经过分析之后进行预测。不仅如此,它的速度也比目前的技术大幅加快,准确率同样大幅提高。谷歌的系统甚至可以显示具体哪项记录导致其得出现有的结论。 医院、医生和其他医疗服务提供商多年以来都希望更好地利用海量电子病历和其他病人数据。如果能在合适的时间分享和突出更多信息,就有可能拯救更多生命——至少也可以帮助医护人员减少写论文的时间,多投入一些精力来治病救人。但目前用来挖掘医疗数据的方法成本太高,而且非常繁琐耗时。 斯坦福大学副教授、谷歌论文的联合作者尼加姆·沙阿(Nigam Shah)表示,当今的预测模型所花费的时间有多达80%用在了“枯燥的粗活”上。谷歌的方法则避免了这种模式。“完全不必担心这个问题。”沙阿说。 谷歌人工智能主管杰夫·迪恩(Jeff Dean)今年5月表示,谷歌的下一步计划就是将这套预测系统应用到诊所。迪恩负责的医疗研究部门Medical Brain正在开发多款能够预测疾病的人工智能工具。 谷歌内部对该项目也非常振奋。“他们终于发现一种具有商业前景的新型人工智能应用。”一位谷歌员工说。自从谷歌在2016年自称是一家“人工智能优先”的公司之后,他们在这一领域的多数工作都用于改进现有的互联网服务。而Medical Brian团队的成果给谷歌提供了进入全新市场的机会——这也是该公司联合创始人拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin)反复尝试的。 Alphabet医疗部门前高管、投资公司Foresite Capital董事总经理维克·巴佳吉(Vik Bajaj)表示,如今的医疗软件大都是程序员手工编写的。与之相对,谷歌的方法则会让及其自主理解数据。“他们明白哪些问题值得解决。”他说,“他们现在已经做了很多小型实验来了解究竟哪些方向富有成果。” 迪恩认为,人工智能系统可以引导医生采用某些特定的医疗和诊断方式。还有谷歌研究人员表示,现有的模型忽略了一些明显的医疗事件,包括病人之前是否接受过手术。他表示,目前这些手动编写的模型是医疗领域“明显而巨大的障碍”。但此人拒绝透露身份。 尽管谷歌认为潜力很大,但想要利用人工智能来改进医疗结果仍然要面临很大挑战。其他公司也在尝试把人工智能应用到医疗领域,IBM旗下的沃森部门就是典型例子,但也只能帮助企业节约资金,并把技术融合到报销系统中。 谷歌一直以来都希望获取数字病例,但结果喜忧参半。为了开展最近的研究,谷歌与加州大学旧金山分校和芝加哥大学达成协议,得以匿名获取460亿份病例数据。谷歌的人工智能系统为每家医院分别开发预测模型。如果要为所有医院开发统一模型,就会遭遇更大的挑战。谷歌正在寻找新的合作伙伴,以便获取更多数据。 更加深入地挖掘医疗数据只会进一步增加谷歌已经掌握的海量信息。“谷歌这样的科技巨头将会具备独一无二、近乎垄断的能力来挖掘我们生成的所有数据。”数据公司Immuta首席隐私管安德鲁·波特(Andrew Burt)说。他和儿科肿瘤专家萨缪尔·沃尔琴伯姆(Samuel Volchenboum)在最近的一篇专栏文章中表示,政府应该阻止这些数据成为少数几家公司的特权地带。 谷歌对待病例数据非常小心,尤其是在外界对数据问题日益敏感的当下。英国监管者去年批评Alphabet旗下的DeepMind人工智能实验室,指责其在没有告知病人的情况下利用一款应用来分析他们的公开病例数据。而在最新的研究中,谷歌及其合作医院都坚称他们的数据经过匿名处理,而且获得了病人许可。沃尔琴伯姆表示,如果要向规模更小的医院和医疗网络扩张,该公司在维护数据方面会遭遇更多挑战。 不过,他还是认为这些算法可以拯救生命、节约资金。他希望病例数据能够与其他统计信息结合起来。最终,人工智能模型可以包含当地的天气和交通数据,以及其他可能对病人的结果构成影响的因素。“医院就像一个有机体。”他说。 没有几家公司比谷歌更懂得分析这样一个“有机体”。该公司和Alphabet旗下的Verily都在开发各种设备,并追踪更多的生物学信号。即便消费者没有大量使用可穿戴健康追踪设备,谷歌也可以利用其他数据来源。该公司掌握天气和交通数据,而Android手机也可以知道人们的步行信息,甚至可以了解他们是否心情低落或其他轻症信息。这都可以提供给医疗算法进行分析。 病例也只是谷歌人工智能医疗计划的一部分。该公司的Medical Brian为放射科、眼科和心脏病科都设计了人工智能系统。他们也在皮肤病学领域开展研究,利用一款应用来识别恶性皮肤病:他们还让在产品经理身上涂抹了15个假纹身,用来检测系统的效果。 迪恩强调,这项实验严格遵循医疗顾问提供的建议,而不仅仅依靠满怀好奇心的软件程序员。谷歌还在印度开展了一项新的实验,使用该公司的人工智能软件来过滤眼球图像,以便尽早识别出糖尿病视网膜病变。迪恩表示,在发布之前,谷歌找来3名视网膜专家对早期研究结果展开了激烈辩论。 假以时日,谷歌可以将这些系统授权给诊所使用,或者通过该公司的云计算部门,以“诊断即服务”的方式提供给他们。作为谷歌在云计算领域的重要竞争对手,微软也在开发预测性人工智能服务。为了对该服务进行商业化,谷歌需要首先获取更多病例,但不同的医疗提供商所存储的数据差异较大。谷歌可以购买数据,但却有可能遭到监管者或消费者的反对。谷歌与加州大学旧金山分校和芝加哥大学的协议并非商业交易。 该公司表示,目前就设定商业模式还为时尚早。Medical Brian团队成员彭丽丽(Lily Peng)在5月的谷歌年度开发者大会上提到,他们在心脏病风险识别方面的准确率已经超过人类。但她还是补充道:“我还想再强调一遍,该技术目前还处于早期。”   稿源:新浪科技,封面源自网络;

以色列专家谈人工智能、网络安全: 新一轮科技革命利弊并存

新一轮科技革命正在悄然改变着世界,以技术创新著称的以色列也在不断推动新技术的广泛和深入应用。以色列专家们认为,人工智能、网络安全、基因工程等技术会在新一轮科技革命中得到进一步发展,为人类带来巨大变化。同时他们也担心会产生一定弊端。 特拉维夫大学戴维·曼德洛维奇博士对新华社记者表示,在某个特定的技术领域,往往5到10年就会出现新一轮科技革命。10年前的科技革命主要出现在通信和互联网技术领域,未来10年内,人工智能、基因工程等领域都有望出现新一轮科技革命。研究如何扩大新技术的应用将会给社会带来巨大影响。 以色列网络安全公司塞塔雷首席执行官马克·加齐特认为,随着人工智能和物联网技术的发展,会产生新的网络安全威胁,为此未来基于人工智能的自动网络安全工具会得到快速发展。网络安全技术正从防止外部病毒入侵发展到具备监测未知网络攻击和自动采取防御措施的能力,且未来出现错误警报的概率有望大幅下降。目前以色列的网络安全技术已朝这个方向发展。 专家们普遍认为,自动驾驶将是未来发展的重要方向,是人机互动的一个重要应用领域,此外物联网技术发展前景巨大。数字健康也将是新一轮科技革命的重点领域。 以色列非营利性机构创业国度中心总经理盖·希尔顿认为,目前数字健康技术的应用可以让医生进行快速诊断,但未来这一领域的发展可以让人类得到预见性的判断、预防和药物治疗。曼德洛维奇认为,生命科学是未来科技革命的一个重要领域,主要表现在基于基因工程开发出的个性化治疗方案和药物,有助于使人们的寿命更长,生活质量更高。 农业方面,以色列正朝着精细和智能农业发展。专家认为,未来以色列农业领域也将运用大量的人工智能技术,例如通过向智能手机传输相关数据便能预见农作物可能出现的病虫害。 以色列专家们同时认为,新一轮科技革命在改变人类的生活和生产方式的同时也会出现一定弊端。以色列工学院校长佩雷茨·拉维表示,随着机器人和自动设备的广泛应用,很多产业会出现人工闲置,导致失业,这可能会迫使人们改变就业方式。同时过度沉迷于高科技产品会导致人们忽视在现实世界的社交和沟通,这一点在青少年中表现尤为明显和严重。   稿源:新华网,新华社记者:陈文仙、杜震,封面源自网络;

谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。 去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。 据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。 一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。 此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。 今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。   以下为桑达尔•皮查伊署名的原文(翻译): AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。 在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。 我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。 我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。 AI应用的目标 我们将根据以下的目标来评估AI技术的应用,我们相信AI应该: 1、对社会有益 新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。 AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。 2、避免制造或加强不公平的偏见 AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。 3、为安全而建立并经受考验 我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。 4、对用户负责 我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。 5、纳入隐私设计原则 在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。 6、鼓励科技美德的高标准 技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。 我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。 7、适用这些原则的应用 很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性 性质与独特性:我们是提供独特的技术还是更普遍的技术 规模:该技术的使用是否会产生重大影响 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案 哪些AI应用我们不追求 除了上述目标,我们不会在以下应用领域设计或部署AI: 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。 违反普遍接受的国际法和人权原则的技术。 我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。 长期的人工智能 虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。 我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。   原文地址:https://www.blog.google/topics/ai/ai-principles/ 稿源:环球网,封面源自网络;

印度宣布将利用人工智能开发武器 系统正制定路线图

据VentureBeat北京时间5月22日报道,印度政府官员今天宣布,该国将利用人工智能(AI)技术开发武器、防御和监视系统。“世界正朝着人工智能驱动的生态系统发展,而印度也在采取必要的措施,为未来战争打造我们的国防力量,”印度国防部长阿杰伊·库玛(Ajay Kumar)在一份声明中说。 据《印度时报》报道称,目前一个17人的工作组正在为印度军方制定人工智能路线图。未来两年,工作组将向政府推荐将机器学习运用于空军、海军、陆军、网络安全、核、生物资源等的方式。具体而言,它将涉及自主化武器系统和无人监视等领域。 上述17人小组以Tata Sons公司主席纳塔拉詹·钱德拉塞卡兰(Natarajan Chandrasekaran)为首,还包括印度陆军、海军、原子能委员会和财政部成员。预计该小组将在未来三个月内向印度政府提交首份报告。 “工作组将提出建议……在地区建立战术威慑,研究潜在的革命性武器,并智能、自主的机器人系统,同时加强网络防御,”一位印度官员向媒体说道。 今年4月,印度总理纳伦德拉·莫迪(Narendra Modi)在钦奈举行的国防博览会上表示,人工智能和机器人将成为未来军事最重要的决定因素。他说,印度将凭借在信息技术领域的领导地位,努力利用人工智能技术。 印度的最新声明将很可能引起全球抨击和抵制。此前,包括特斯拉CEO埃隆·马斯克(Elon Musk)和已故天文学家霍金在内的各界人士纷纷呼吁禁止利用人工智能开发自主化武器,称此举很可能引发军备竞赛,甚至是引发第三次世界大战。显然,印度开了一个十分不好的先例。   稿源:凤凰网科技,封面源自网络;

亚特兰大市政府拒付勒索软件赎金 宁可耗费数百万美元去修复

3 月 22 号的时候,亚特兰大市遭遇了一场大规模的勒索软件攻击,政府机构的一些关键系统也不幸中招,迫使官员放弃了电子邮件和数字系统,转而使用传统的纸笔记录方案。路透社上月报道称,攻击者索取价值高达 5.1 万美元的比特币赎金,但该市觉得不能助长黑客的嚣张气焰,于是决定硬扛下来。为了让系统恢复正常运转,当前承包商仍在修复,即便此举会耗费更多资金。 攻击导致许多机构和官员无法访问包含数字记录和电子邮件等内容的系统。一些勒索软件的会设置时间期限,比如超期赎金翻倍、或者直接删除被其恶意加密的文件。 目前暂不清楚该市拒付赎金的原因,也不知其是否尝试过支付。然而一些纳税人很遗憾地发现,该市最终竟然耗费了数百万美元来解决这个问题。 由亚特兰大政府网站公开的紧急采购信息可知,官员们将大把钱(超过 250 万美元)砸到了 SecureWorks 和 Pioneer Technology Group 等承包商身上。 稿源:cnBeta,封面源自网络;

ATI Systems 警报器现「SirenJack 远程漏洞」,可通过无线电频率激活警报制造全城混乱

近日,网络安全公司 Bastille 发布的安全公告称, ATI Systems 的紧急警报系统中暴露了一个名为 SirenJack 的远程劫持漏洞,攻击者可以通过无线电频率(RF)来利用该漏洞激活、触发错误警报,以制造混乱和恐慌。 Bastille 的研究人员认为 SirenJack 缺陷实际上是由于 ATI 从控制站向警报器传输信号的方式引起的,因为其研究人员发现 ATI Systems 用于控制警报器的无线电协议并不安全,其激活命令直接以明文形式发送,而没有采用加密。在这种情况下,恶意人士可以找到分配好的无线电频率,制作恶意激活消息,然后将其通过自己的无限电发送,以便启动系统。Bastille 称完成这些步骤所需要的设备仅仅是一台电脑和一台价值 30 美元的手持式收音机。 ATI Systems 的产品遍布北美和全球各地城市,军事设施、大学和工业基地(包括石油和核能)的都是其重要客户。目前 Bastille 仅在旧金山和其他两个地点证实了 SirenJack 漏洞 ,但并不明确还有哪些其他 ATI 系统受到影响。Bastille 敦促所有客户与 ATI Systems 合作,以了解他们的系统是否受到影响,并立即采取补救措施。 SirenJack 的潜在影响是什么? 正常情况下,紧急警报系统仅在合法威胁(通常是天气或与安全有关的威胁)时才启动,而虚假警报引起了公众的广泛关注,导致公众对这些系统降低了信任,特别是在 2017 年达拉斯警报事件之后(全市范围内超过 150 个龙卷风警报系统启动 90 分钟以上)。 Bastille 完整分析报告: 《SirenJack》 消息来源:Security Affairs,编译:榆榆,审核:FOX; 本文由 HackerNews.cc 编译整理,封面来源于网络; 转载请注明“ 转自 HackerNews.cc ” 并附上原文链接。

美国提出新法案 希望建立人工智能国家安全委员会

据外媒报道,众议院武装部队新兴威胁和能力小组委员会主席 Elise  Stefanik 最近提出新法案,希望建立一个人工智能国家安全委员会。如果该法案通过,美国总统特朗普将在 2019 年某个时候收到关于人工智能的完整报告。该法案将制定“ 2018 年国家安全委员会人工智能法”,并要求临时组建一个 11 人委员会,其目的是对政府进行人工智能的全面审查。它要求在颁布后 180 天内制定初步报告。 根据该法案,委员会成员将负责提供以下方面的见解: 确定美国在人工智能和相关技术方面的竞争力 保持美国人工智能和量子计算机技术的领先地位 人工智能的国外发展情况 鼓励私营企业投资人工智能 劳动力教育和奖励计划,以吸引高质量的候选人加入 AI 领域 与人工智能军事化有关的风险 人工智能的道德 建立鼓励开放源码共享数据的“数据标准” 制定与人工智能相关的隐私和安全措施 以及“委员会认为与国家共同防御有关的任何其他事宜”。 该委员会将要求“不超过 1000 万美元”进行审查,并将于 2020 年 10 月 1 日解散。这当然取决于该法案是否会获得众议院和参议院通过,然后通过总统签署成为法律。目前特朗普尚未公开讨论这个新法案。 特朗普此前仅发布过关于机器人的推文,但它与机器学习或人工智能无关。 相比之下,美国前总统奥巴马花了大量时间讨论人工智能。在 2016 年接受《连线》采访时奥巴马曾表示: 我一直在思考人工智能的监管结构问题,在技术早期,应该百花齐放。政府的管理应该更轻松,大力投资研究,并确保在基础研究和应用研究之间的对话。随着技术的出现与成熟,如何将人工智能纳入已有的监管结构中成了一个更为棘手的问题,政府需要参与更多。 稿源:cnBeta,封面源自网络;

埃及电信公司将用户定向到加密货币的采矿网站当中

 3 月 9 日,据多伦多大学公民实验室发布的一份报告显示,在电信埃及分界点发现的设备正秘密地将埃及的互联网用户重定向到广告和加密货币的采矿网站当中。 据该技术研究实验室的报告解释说, 这项计划被称为 Adhose, 是通过 middleboxes、计算机网络设备来操作互联网流量。报告中还指出了埃及公民使用的两种重定向模式:“喷雾模式”和“涓滴模式”。“喷雾模式”指的是一个“中间框”,“当用户向任何网站发出请求时,他们会将埃及的互联网用户群定向到广告或加密货币的挖掘脚本中”,这种模式似乎“很少”使用。 而“涓滴模式”指的是,只要当用户尝试打开某些 url 时,那么就会将用户重定向到这些广告或挖掘脚本,特别是 CopticPope.org(以前是科普特东正教会的教皇的网站)和 babylon-x.com(formely a 色情网站)。 Monero 采矿平台的在线广告替代品 Coinhive,也被列入了多家公司的链接列表中,以便对埃及用户进行重定向。 Coinhive 曾被认为与在 2018 年 1 月底发生的一场大规模的案列联系在了一起。当时黑客们用 Coinhive 脚本运行 YouTube 广告, 这是暗中耗尽用户的 CPU 资源进行挖掘的。而美国有线电视网 Showtime 也被发现在去年 9 月的两个网站上使用 Coinhive 插播广告作为替代广告,而这并没有通知他们的客户。在 Showtime 对挖掘剧本的偷偷使用曝光后,Coinhive 宣布,在使用他们的电脑来挖掘 Monero 之前,它将寻求用户的许可。 据公民实验室的报告显示,同样的 middlebox 也负责在埃及的互联网审查, 阻止人权观察网站和半岛电视台的网站。 该报告还指出,土耳其和叙利亚的“ middleboxs ”将重定向用户,试图将软件下载到同一软件的不同版本,并附带间谍软件。 深包检测(DPI)装置的一个网络注入的指纹被加拿大网络设备公司 Sandvin 生产的二手 PacketLogic 装置修补。 在这份报告中,Sandvine 否认他们的产品可以以这样的方式使用,并向公民实验室强调了他们的人权保护标准,并表示当客户是一个在全球治理指标中排名较低的国家的一部分时,他们就会对销售进行审查。 公民实验室在他们的报告中写道,Sandvine 的保障措施已经“出现短缺”,并建议该公司开始从事“定期咨询民间社会有关人权尽职调查和商业道德计划。” 据报道,埃及首个比特币交易所将于 2017 年 8 月开放,但埃及政府对国内的加密货币采取了强硬立场。今年 1 月,埃及最高宗教领袖根据伊斯兰教法表示,比特币(BTC)是“非法的”。 一年前在 2017 年 2 月,一位伊斯兰教法专家曾对记者表示,由于伊斯兰教历史上只承认“内在价值的商品”作为货币,“比特币很可能会被忽略。”“目前尚不清楚 Monero 或 Coinhive 的挖掘脚本将如何受到伊斯兰教法的管辖。 稿源:区块网,封面源自网络;

微软扩大蒙特利尔研究实验室继续关注人工智能

在 2017 年 1 月收购了位于蒙特利尔的深度学习创业公司 Maluuba 后,微软表示,这座加拿大城市将成为其新的 AI 研发组织所在地。就在这个宣布一年之后,雷德蒙德巨头今天宣布了其蒙特利尔研究中心的大规模扩张,任命了一位新的研究总监。 卡内基梅隆大学机器学习教授 Geoffrey Gordon 将在蒙特利尔领导一个扩大的微软研究团队,微软计划在未来两年内创建一个由 75 位 AI 专家组成的团队,强化学习和自然语言处理方面的专家 Gordon 将帮助当地的研究团队创建AI系统,以完成更复杂的任务。 微软研究院新英格兰,纽约市和蒙特利尔地区的技术研究员兼总经理 Jennifer Chayes 解释说:“ 我们希望做的研究工作将会在今天和明天将 AI 注入到微软的产品中,Geoffrey Gordon 的研究真正涵盖了这一点。他将能够帮助我们改进我们的产品,同时他也将为人工智能做更多的工作奠定基础。” 稿源:cnBeta,封面源自网络;

韩国将禁止开设虚拟货币匿名账户

韩国政府于 12月 28 日发表声明称,该国将推行额外措施,以监管比特币交易中的投机行为。这些措施包括禁止开设匿名账户、在司法部要求下关闭虚拟货币交易所等措施。 声明中称:“ 政府已多次警示,虚拟货币不能作为实际货币,有可能因过度波动性导致高损失。”  声明中还提到,韩国交易所的多数虚拟货币价格比其它国家交易所要高很多。 此前于 12 月 13日,韩国正式宣布抑制加密货币投机的措施,包括禁止金融机构持有加密货币和进行加密货币投资,寻求阻止未成年人和非居民进行加密货币交易。同时,韩国财政部将考量针对加密货币征税的可能性。 稿源:新浪科技,封面源自网络;