O’Reilly AI峰会纽约站“游记”:AI应用加速落地,强化学习更受关注
来源:企业新闻  (转载协议)   发布日期:2019-05-06 13:36   浏览:19557专栏投稿 值班编辑:QQ281688302

2019年4月15-18日,OReillyAI Conference在纽约举行,整个大会为期4天,在会上,参会嘉宾讨论了人工智能学术现状、公司在部署AI中遇到的问题,以及在业界的应用情况。 作为机器学习和数据科学领域最有影响力的全球峰会之一,本次大会据了解有超过2000人参加
w-1广告位招商中...更多广告位投放事宜点击查看
 

2019年4月15-18日,O’Reilly Conference在举行,整个大会为期4天,在会上,参会嘉宾讨论了学术现状、公司在部署中遇到的问题,以及在业界的应用情况。

作为和数据科学领域最有影响力的全球峰会之一,本次大会据了解有超过2000加。文摘作为特约合作媒体,也是整场会议唯一的中国媒体受邀参会,在现场度过了收获满满的4天。

除了现场论坛,还从各种细节安排上感受到了O’Reilly这一国际顶级行业论坛的诚意,所以今天的稿子与其说是干货,不如说是一次现场“游记”。

那么,请各位跟着文摘菌一起出发吧!

学术成果正加速落地

本次大会主论坛最让文摘菌印象深刻的演讲来自O’Reilly Media的首席数据科学家Ben Lorica,他介绍了现在行业的现状和发展方向。

Ben Lorica提到,2010年学术论文和patent and invention的转化率由的8:1到2016的3:1,种种数据都表明现在已经加速进入了落地实施阶段。

在所有的学术论文转化中,视觉方面的专利申请最多,比2011年增长24%,排在第二位和第三位的分别是以及语音处理。

在方面,涌现出现了很多开源的模型例如ELMo, BERT, MT-DNN和GPT-2。另外,根据O’Reilly的问卷调查,Tensorflow和Pytorch变得十分常见,其他工具例如Nauta,Keras等等也在帮助公司进一步优化资源、流程以及建模方面发挥着越来越重要的作用。

强化学习也得到越来越多的关注。O’Reilly在一项对1300个公司的问卷调查中发现,大约有1/5的公司开始着手准备或已经在使用RL强化学习。原因之一是许多的开源工具及公司开发的专有proprietary tools的涌现还有的发展。

Ben Lorica还表示,不同企业的发展有不同的挑战,对于刚开始采用或还在评测考虑的企业,他们最大的瓶颈是:公司文化没有认识到的需求以及难以确定适当的业务案例。而对于应用和使用方面比较成熟的公司来说,他们认为缺乏足够的数据进行分析或者数据质量方面的问题与缺乏合适的人才是当前最大的瓶颈。另外,对大多数公司来说,对数据工程师和基础架构人才的需求同等重要。

总的来说,公司应该更加关注:公平和公正、和可靠、隐私、漏洞、模型的可解释性。如果对他们排序的话,重要程度从高到低分别是:模型的可解释性以及透明度、公平以及偏见、隐私、和可靠性、漏洞。

分论坛演讲:IntelNetflix

除了主论坛,每天下午都有5个时间段的40分钟的分论坛,第一个从午饭后开始,每场有9个可以选择,对你没有看错,会议议题就是这么的丰富!

Intel的产品组的副总裁GadiSinger也在大会发表了演讲。他认为正在改变着计算,并且改变了计算带给人们和公司的价值。

越来越多的和被运用到企业里面,当前企业面对的应用三个常见的问题分别是:如何应用规模部署、如何推动绩效但保持管理成本以及如何应对未来所需的不确定性和变化。另外他还提到,现阶段的deep learning和应用是可以用CPU实现完成的。

在CPU上实现模型,3年时间经历了3个阶段的变化。

接下来Gadi分别聊到intel是如何帮助四家公司在图像识别、推荐系统、NLP等领域基于CPU应用和优化企业解决方案。

Philips在领域的图像识别应用案例

Taboola在内容推荐系统的应用

科大讯飞的NLP应用

令文摘菌印象比较深刻的还有Netflix总监TonyJebara介绍的Netflix如何用推荐系统给用户提供个性化的服务:除了众所周知的推荐节目,到标题的展示,到搜索功能等等。

TonyJebara重点介绍了推荐系统是如何给用户提供个性化封面图片。什么意思呢?比如对于stranger things这部剧,如果用户对青少年题材感兴趣,那么推荐系统就会使用带有主角的处境的图片来推荐。而对恐怖题材感兴趣的用户就会见到留鼻血的这张图片作为推荐的图片。

接下来Tony进一步指出,传统batch machine learning和A/B test的问题,还介绍了Netflix如何应用online learning来实现数据收集和学习相辅相成,并优化推荐系统。

他指出,传统的监督学习和contextual bandits的不同以及netflix的图片推荐系统是如何利用online learning在更短时间内找到点击率最高的图片。

来自Alibaba硅谷研发中心的专家陈三鉴博士和常剑博士介绍了时间序列模型的特点以及技术在时序预测中产生的巨大效果提升,受到了现场听众的热烈反响。陈三鉴博士在做完演讲之后,在现场被提问者团团围祝

A group of people standing in a kitchenDescription automatically generated

现场花絮

最近火到爆炸的BERT模型创始人之一Chang-Ming Wei也受邀来到现场介绍BERT模型。

Dr. Chang-Ming Wei先简单介绍了现阶段的几种比较受欢迎的NLP模型包括Word embeddings, ELMO等,指出现阶段模型的不足之处。接着详细讲解了BERT这种双向编码器连接(transformer blocks)是如何打破了前几个模型的纪录。并着重介绍pretraining和fine-tuning两个BERT的训练步骤,他指出这两者的区别在于pretraining是用大量的没有标签的数据(unlabel)完成的,而后者是用少量的针对特定任务的标签数据(task-specific label data)完成的。如果小伙伴对BERT感兴趣可以参见我们前两天发的另外一篇科普文哦。

大会从第三天开始,也开启了现场展位。各个booth前都热闹非常,企业和各公司都很想借助这个机会更多了解不同的service provider和不同类型的服务,以及如何借力使公司进一步发展。

A group of people standing in front of a crowdDescription automatically generated

H20.ai的现场展位👇熟悉kaggle竞赛的小伙伴应该都知道H2Oai有好几位grandmaster的加持,并且他们的xx产品是号称“brings you the intelligence of a Kaggle Grandmaster in a box(拥有xx产品你就拥有了世界顶级的数据科学家)。”

文摘菌在参会过程中也和参会者们聊了聊,基本都是来自业内顶级公司的技术从业者。各大公司当然也不会放弃这么好的招人机会,现场黑板留言区满满的招聘信息。

A picture containing floor, indoor, text, cabinetDescription automatically generated

大会现场文摘菌还偶遇了不少大咖,包括Deep Learning Cookbook一书的作者DouweOsinga,并且请他为文摘的读者们签了个名。

最后,这次峰会的部分精彩演讲已经被主办方放上官网啦,对keynote感兴趣的小伙伴可以通过下面的网址注册会员观看!

https://learning.oreilly.com/home/

另外,O’Reilly Conference在今年6月份也要来北京啦,不用飞到就能直接体验这个超棒的会议,学习先进的行业知识与顶尖的科技公司0距离接触哦。

今年的北京站嘉宾也绝对是重量级的。包括大学伯克利分校EECS教授IonStoica,Google Brain团队中移动和TensorFlow Group的技术主管Pete Warden,以及刚刚加入阿里巴巴达摩院的大神贾扬清。

抢票参会:

本届 Conference 2019北京站早鸟票价本周五结束(5月10日),搜索大会或大会,进入官网查看详情。

登陆 | 注册 欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!

赞助本站

海南七星彩开奖直播

相关热词: 海南七星彩

相关内容
最新资讯
本月热点
热门排行

阅读量:40693

阅读量:40255

阅读量:37558

阅读量:35672

阅读量:30626

阅读量:27055

展开
Copyright © 2010-2019 AiLab Team. 海南七星彩开奖直播 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 |