• 今天是我的生日04月02日,来祝福我吧~

Repost

抱歉,作者已设置仅展示半年内微博,此微博已不可见。 ​​​​

转发微博
《Explaining Deep Learning Models - A Bayesian Non-parametric Approach》W Guo, S Huang, Y Tao, X Xing, L Lin [The Pennsylvania State University & Netflix Inc & Columbia University] (2018) O网页链接 view:O网页链接 ​​​​
  • 长图
转发微博
《An Introductory Survey on Attention Mechanisms in NLP Problems》D Hu [Georgia Institute of Technology] (2018) O网页链接 view:O网页链接 ​​​​
  • 长图
//@爱可可-爱生活:用了2176块V100,一堆技巧,把ImageNet上的ResNet-50训练时间缩短到3.7分钟,29h->1h->30m->15m->6.6m->3.7m 照这速度2020年恐怕只要半秒就够了(via:Andrej Karpathy)增速放缓是一定的,往后再大规模的并行化恐怕也很难让大家High起来,下个兴奋点会在哪?更期待基本问题层面的突破…
《ImageNet/ResNet-50 Training in 224 Seconds》H Mikami, H Suganuma, P U-chupala, Y Tanaka, Y Kageyama [Sony Corporation] (2018) O网页链接 view:O网页链接 ​​​​
  • 长图
转发微博
【Kaggle技巧:特征构建技术(我的Kaggle代码库)】《Good Feature Building Techniques — Tricks for Kaggle — My Kaggle Code Repository》by Rahul Agarwal O网页链接 pdf:O网页链接 ​​​​
转发微博
【BERT的PyTorch实现,可加载Google的BERT预训练模型】’PyTorch implementation of Google AI's BERT model with a script to load Google's pre-trained models' by Hugging Face GitHub: O网页链接 ​​​​
转发微博
【北京大学 计算机编程 公开课合集】
计算导论与C语言基础O网页链接
C++程序设计O网页链接
C程序设计进阶O网页链接
计算机组成O网页链接
算法基础O网页链接
数据结构基础O网页链接...展开全文c
//@爱可可-爱生活:经典回顾,Transformer图解
【图解Transformer】《The Illustrated Transformer》by Jay Alammar O网页链接 ​​​​
  • 动图
  • 动图
转发微博
《Graph Convolutional Reinforcement Learning for Multi-Agent Cooperation》J Jiang, C Dun, Z Lu [Peking University & Macalester College] (2018) O网页链接 view:O网页链接 GitHub:O网页链接 ​​​​
  • 长图
转发微博
不少搞工程的人认为,要理解什么东西,搞明白其底层数学描述是必要和充分的,你需要“了解背后的数学原理”。其实,在所有场景下,这几乎都不是充分的,也不是必要的——远远不是。以PCA为例,知道怎么做5x5矩阵对角化,算是“知道PCA背后的数学原理”。但这对你了解PCA是什么、能做什么,以及为何有用 ​​​​...展开全文c
转发微博
不少搞工程的人认为,要理解什么东西,搞明白其底层数学描述是必要和充分的,你需要“了解背后的数学原理”。其实,在所有场景下,这几乎都不是充分的,也不是必要的——远远不是。以PCA为例,知道怎么做5x5矩阵对角化,算是“知道PCA背后的数学原理”。但这对你了解PCA是什么、能做什么,以及为何有用 ​​​​...展开全文c

正在加载中,请稍候...