TensorFlow1.0正式发布,AI圈互怼那些事儿

生活知识 2024-12-10 12:44www.robotxin.com生活百科

TensorFlow 1.0正式发布:更快、更灵活

本周,谷歌在山景城举办了盛大的TensorFlow开发者峰会,作为此次大会的一大亮点,TensorFlow 1.0正式版本隆重登场。新版本的TensorFlow带来了哪些令人期待的新特性呢?让我们一同揭晓。

一、运算速度惊人

TensorFlow 1.0版本运算速度更快,表现堪称惊艳。据谷歌透露,在使用八个GPU的情况下,TensorFlow 1.0在Inception v3测试中的运行速度提升了7.3倍。而在64个分布式GPU集群上运行,Inception v3的更是增加了58倍。这一切得益于XLA(Accelerated Linear Algebra,加速线性代数)技术的加持,为未来进一步的性能提升打下了坚实基础。

不仅如此,谷歌还更新了官方网站tensorflow.org,新增了官方使用指南和秘诀,帮助开发者对模型进行调参,以达到最大的训练速度。针对几大主流模型的实践指导(更新版本)也将陆续发布,为如何最大化利用TensorFlow 1.0提供指导。

二、灵活性显著提升

TensorFlow 1.0在灵活性方面也有显著的提升。新版本加入了新的高级别API,以及tf.layers、tf.metrics、tf.losses等模块,让开发者能够更轻松地构建和训练模型。更为关键的是,TensorFlow 1.0内置了全新的tf.keras模块,为Keras提供了“完全”兼容支持。

Keras作为一个在机器学习开发者中广受欢迎的神经网络库,其加入无疑让TensorFlow的使用变得更加便捷。无论是初学者还是资深开发者,都能从中受益,享受到更灵活、更强大的深度学习体验。

更稳定,更商业:TensorFlow强化Python API的稳健性

TensorFlow近期强化了其Python API的稳定性,这一改进使其更适合商业化使用。这一变革使得为平台添加新功能变得更加便捷,无需推翻已有的代码。稳定性的提升,为开发者带来了实实在在的便利。

MXNet之父李沐:工业界追求“如何实现”,学术界关注“为何如此”

在旧金山的AAAI盛会上,经由余凯老师的引荐,雷锋网AI科技评论得以在Palo Alto的亚马逊AWS办公室与李沐进行了一次独家对话。

在AAAI的演讲中,Smola通过对比MXNet的运行速度与其他开源平台来展示其优势。李沐在谈话中并不倾向于这种直接的比较。他告诫员工,如果其他公司邀请你们分享,不要进行对比,只需深入讨论技术本身。

李沐表示:“我理解大家喜欢阅读对比类的文章,但这是一种有偏见的做法。我们比别人快一两倍,这并不是我们想要传达的信息。我们更希望分享的是为什么能做得更快,我们做了哪些技术优化,以及离我们理想的状态还有多远。这样的总结对我来说更有价值。”

作为在工业界和学术界都有丰富经验的大牛,李沐虽然在四年前投递论文时遭遇连续拒绝,但他现在对两个领域的研究都有了深刻的理解。回忆起那段日子,他在2013年8月的微博上写道:

“今年我尝试向nips投稿了一篇关于分布式优化的文章,我坚信其性能和通用性可以超越度厂和谷歌的主流机器学习系统。”南大教授周志华荣任AAAI 2019程序主席,创华人学者新里程碑

周志华教授,来自中国南京大学计算机系,被广大科技领域关注者所熟知。近日,一个令人振奋的消息传遍科技界:周志华教授当选为AAAI 2019的程序主席,这是华人学者第一次担任此重要职务。自AAAI大会创办以来,欧美学者长期担任大会程序主席,而周志华教授成为第一位来自欧美之外国家的学者担任此角色,这一里程碑式的事件标志着华人学者在国际人工智能领域的地位和影响力不断提升。

据AAAI现任主席Subbarao Kambhampati透露,AAAI 2019的程序主席人选已经确定。除了密歇根大学教授Pascal Van Hentenryck外,就是周志华教授。这一消息引起了广泛的关注和讨论,尤其是在科技界和学术界。

回顾周志华教授的学术历程,不难发现他的成就与其深厚的学术功底和不懈的努力密不可分。他的研究涉及机器学习的多个领域,尤其在深度学习和强化学习方面取得了突出的成果。他还对开源社区和平台有着深厚的理解和独到的见解。他认为亚马逊的成功并非依赖于特定的软件与平台,而是依赖于机器时间的积累和用户量的增长。这种对技术和商业模式的深刻理解,使他能够在学术和商业领域都取得卓越的成就。

作为AAAI 2019的程序主席,周志华教授将承担起组织和管理大会的重要职责。他表示期待与全球的学者和专家共同探讨人工智能的未来发展方向,共同推动人工智能的进步。他对技术的热情和执着,使他不断追求创新和突破,努力将最新的研究成果应用到实际生活中。他的成就和影响力已经超越了国界,成为华人学者的骄傲和楷模。他将继续带领人工智能领域的研究者们在科技前沿不断探索和创新。

周志华教授的成就不仅仅是他个人的荣誉,更是对全球华人学者的鼓舞和激励。他的成功证明了华人学者在国际科技领域的实力和影响力不断提升。我们期待周志华教授在未来继续取得更多的成就,为全球科技发展和人工智能的进步做出更大的贡献。周志华教授的教育背景令人瞩目。他于南京大学计算机科学与技术系取得了学士、硕士和博士学位,学成后继续在南大执教。他的学位全部在中国大陆获得,海外停留时间不超过两个月,是一位名副其实的本土学者。周教授在人工智能领域取得了卓越成就,是AAAI Fellow、IEEE Fellow、IAPR Fellow等荣誉的获得者。他在2016年更是荣获ACM Fellow和AAAS Fellow,几乎涵盖了人工智能领域的所有重要学会,堪称人工智能领域的佼佼者。

近年来,AAAI越来越注重国际化,越来越多的来自美国之外的学者进入其常务组织机构。中国学者的影响力也在逐渐增强,并在AAAI中扮演着越来越重要的角色。2016年,香港科技大学的杨强教授成为首位进入AAAI执行委员会的华人学者。不可否认,华人学者在大会中担任越来越重要的角色,这不仅是因为AAAI本身的国际化需求,更是因为华人学者在AI领域的影响力日益提升。Subbarao Kambhampati还向雷锋网透露,AAAI正在考虑让2021年的AAAI会议走出北美,虽然尚未确定,但深圳可能成为其主办城市。

在即将召开的ICLR 2017会议上,一场关于论文的评审引发了广泛的关注。一篇由牛津大学人工智能实验室、谷歌DeepMind和加拿大高等研究院联合发布的论文《LipNet: End-to-End Sentence-level Lipreading》在OpenReview上遭到拒绝,引发了公开的辩驳。这篇论文自去年11月发布以来,就受到了广泛关注,第一作者Yannis Assael和第二作者Breandan Shilingford也频频接受采访。这场评审争议也凸显了学术会议中论文评审的重要性,以及学术界对于新思想和研究的热烈讨论和辩论。论文的热度可谓达到了巅峰。Nvidia CEO 黄仁勋在 CES 2017 大会上,透露了与牛津大学 LipNet 团队的合作动态。他们共同研发了一种读唇深度学习网络模型,并计划将其应用于 Nvidia 的协同驾驶技术中。这篇论文却在今年遭遇了 ICLR 的拒绝。

这篇论文的导师,牛津大学的机器学习教授、DeepMind 研究科学家 Nando de Freitas CIFAR 的 Fellow,对评审的意见表示强烈反对。他认为评审给出的修改意见毫无价值,甚至批评评审站着说话不腰疼,一派胡言。尽管面对这样的批评,评审依然毫不留情地给出了拒绝的结论。

评审主要提出了两点意见:他们非常看重论文的创新度和研究意义。经过审阅,这篇论文并未达到 ICLR 的入选标准。论文主要围绕应用展开,作者提出了首个用机器学习实现端到端的语句层面唇读技术。但评审认为,尽管论文在应用领域有所突破,如在唇语判别能力上提升了 10%,对于工业界来说是一个大突破,但从研究角度来说,其创新性或理论贡献并不足以达到 ICLR 的要求。

换句话说,这篇论文更注重于“how”,即如何达成目标,但在学术研究中,更被看重的其实是“why”,即为何能如此。产品与研究的方向完全不同,产品追求效果,能做出东西就是胜利,而研究则更看重突破性创新。这篇论文的结果虽然对工业界有很大价值,但从学术研究的角度来看,其并未达到突破性的标准。尽管如此,这场争论无疑为这一研究领域带来了更多的关注和讨论。最近,Google Brain的研究工程师Eric Jang在Quora上针对“IBM、谷歌、Facebook、苹果和微软等公司在AI研究方面的领先地位”这一问题发表了犀利的看法。他以其独特的行文风格引起了广泛的关注,并且针对著名科学家Yann LeCun对Google Brain的评价进行了有力的反驳。

引子:谷歌论文数量并不能全面衡量其深度学习研究的实力

Google Brain的研究论文数量并不是衡量其在深度学习领域贡献的唯一标准,尽管这一指标被一些人用作衡量尺度。对此,那些暗示仅凭论文数量就能判断Google Brain在深度学习研究上有所欠缺的观点,显然是不够全面的。这并没有算上Deepmind和其他谷歌内部团队(如搜索、VR和图片团队)的杰出贡献。谷歌的深度研究实力,显然不能仅通过论文数量来简单衡量。

MIT黑科技打破常规,语音识别功耗降低99%

日前,MIT的研究人员推出了一款专为自动语音识别设计的低功耗芯片。这款芯片的问世,将语音识别的功耗降低到了一个全新的水平,最高可达99%。这一突破性的技术对于智能语音助手而言意义重大。无论我们使用的是苹果的Siri、谷歌的Google Assistant还是亚马逊的Alexa,智能语音助手正在逐渐普及。这些虚拟助手需要依靠语音识别技术,并需要长时间在后台运行以检测语音命令,这无疑会增加设备的功耗并缩短续航时间。而这款MIT新研发的芯片则完美解决了这一问题。它能够以极低的功耗实现高效的语音识别功能。据称,手机上的语音识别功能功率通常在1瓦特左右,而这款芯片可以将功率降低到仅0.2至10毫瓦。这无疑是语音识别的革命性进步。那么,这款芯片是如何实现如此惊人的功耗降低的呢?原来,它增加了一个简单的“声音探测”电路,能够准确识别出人类的声音。一旦检测到人声,便会激活更复杂的语音识别电路。这种方式就像一个协处理器,极大地降低了功耗。这也意味着未来小型电子设备也能使用先进的语音识别系统和AI助手。雷锋网了解到,传统的语音识别芯片会不断在后台运行神经网络以检测所有声音,包括人声和噪声。而这款MIT芯片的智能识别功能大大提高了能效。随着这项技术的进一步发展,我们有望看到更多小型电子设备配备先进的语音识别功能。这一突破无疑将为智能设备带来更为广泛的应用前景。尽管我们尚不清楚这款芯片的具体工作原理和性能表现如何,但可以预见的是,随着技术的不断进步和创新思维的推动,未来将会有更多类似的创新产品问世并推动行业的发展。而这一进步不仅意味着电子设备的续航能力的提升也为未来的语音识别和AI技术发展提供了无限可能性和潜力。让我们拭目以待这一领域的未来发展吧!

OpenAI最新研究揭示对抗样本威胁AI系统安全的问题及其解决方案探讨

OpenAI的最新研究为我们揭示了AI安全领域的一大隐忧:“对抗样本”。这种样本可以轻松让机器学习系统产生误判并且可能会对AI的应用实践产生深远影响。在这篇由Ian Goodfellow领衔的文章中OpenAI探讨了对抗样本的防御策略实验其中两种方法取得了一定的效果但仍无法解决根本问题。“对抗样本”的问题引起了广泛关注也给AI系统的安全性带来了挑战。如何有效地抵御对抗样本的攻击是当前AI领域亟待解决的问题之一。尽管目前已有一些防御策略的实验取得了一定的效果但仍需要更多的探索和研究来找到根本的解决方案以保障AI系统的安全性和稳定性。随着技术的不断进步和创新思维的推动我们相信未来会有更多的解决方案出现以应对这一挑战同时也为AI技术的发展提供更广阔的前景和机遇。让我们共同期待AI领域的未来发展吧!“对抗样本”是一种由攻击者巧妙设计的输入值,能够引发机器学习模型的错误判断,犹如为机器制造视觉上的幻觉。这些对抗样本的存在具有潜在的威胁性。想象一下,攻击者利用贴纸或一幅画作,制造出一个特殊的“对抗样本”作为“停止”指示牌,以此来愚弄自动驾驶汽车,使其误认为其他交通指示牌,正如在论文“Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples”中所描述的那样。

对抗样本展示了现代算法的不稳定性。无论是监督学习还是增强学习,这些算法在执行时已经不再完全按照设计者的意愿行事,而是以一种出人意料的方式运行。传统的机器学习模型稳定化技术,如权重衰减和dropout,在面对对抗样本时,往往无法提供有效的防御。目前,仅有的两种具有明显防御效果的方法是对抗训练(Adversarial training)和防御净化(Defensive distillation)。随着攻击者计算能力的提升,这些方法也可能逐渐失效。

对抗样本之所以难以防御,是因为其制作过程难以用理论模型来精确描述。为了构建安全的机器学习模型,我们需要让模型对每一种可能的输入都能产生准确的输出。设计和开发出能够有效抵御强大、具有适应性的攻击者的防御策略,是当前研究领域的重要挑战和关键方向。这一领域的研究对于保护机器学习系统的安全性和稳定性至关重要。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by