互联网科技博主

查看更多 a
有没有人收到9月15号的ACL ARR新机制的审稿反馈啦?拖半个月了呀[允悲] ​​​​
latex语法真是玄学。。一张空纸上(或者最后一页上)画两个表格,总是如图1所示居中展现。查了下可以通过在序言中加入"\makeatletter \setlength{\@fptop}{0pt} \makeatother" 解决(O网页链接),但试了半天发现这个解决方案只对单栏(如table)有效,对双栏的(如table*)无效。最终解决 ​​​​...展开全文c
赞~self-supervised learning on low-level视觉任务上达到的SOTA//@刘群MT-to-Death:[good][good][good]
提起Transformer,就会想到BERT、GPT-3。但其实,这个在各种自然语言处理任务中「混迹」,强大的无监督预训练模型,现在已经在CV道路上越走越远了。最近华为北大等联合提出图像处理Transformer,就在降噪、超分、去雨等多项底层视觉任务达到SOTA>> °华为北大等联手打造的Transformer竟在CV领域... ​​​​
华为北大等联手打造的Transformer竟在CV领域超过了CNN:多项达到SOTA
量子位

华为北大等联手打造的Transformer竟在CV领域超过了CNN:多项达到SOTA

看到了一篇借助目标端语言模型知识蒸馏,优化高资源语种到低资源语种翻译模型的方法,爱丁堡的《Language Model Prior for Low-Resource Neural Machine Translation》。这样确实可以解决目标端不好用上预训练模型的问题。只是好奇如果已经用了BT,还能有多少delta[费解] ​​​​
《百度EMNLP 2020精选论文解读》新鲜出炉,包含了text-to-SQL, Document-Level情感分类,融合知识图谱的QA等工作。其中第一项“同声翻译的自适应分割策略”是我们百度翻译组的工作,用于百度翻译APP同传功能,小度耳机(京东有售哦)等产品。我们今年也支持了中国国际进口博览会、服贸会、全球人工智能 ​​​​...展开全文c
发现一篇有意思的工作,讯飞在EMNLP2020的短文《Is Graph Structure Necessary for Multi-hop Question Answering?》实验加了Pretrained embedding+finetuning后,用两层Transformer吊打酷炫GNN。我也一直质疑那些手工规则连接的GNN边真能有多大用?self-attention应该是都能学到的。论文链接: ​​​​...展开全文c
//@刘群MT-to-Death:赞👍//@52nlp :[good]//@刘知远THU : 很全面呀!推荐!
2018年即将结束,在18年的最后一个工作日,清华大学自然语言处理组整理了一份机器翻译论文的阅读清单想给大家看。这份阅读清单里回顾了统计机器翻译(SMT)时代的亮点论文,并概括了近期神经机器翻译(NMT)方向下的各个子领域,其中包括:模型架构、注意力机制、开放词表问题与字符级别神经机器翻译、 ​​​​...展开全文c
  • 长图
用c++实现python模型注意事项:1)精度上的diff:一个kernel内顶多能到2e-5,太多就不正常了。 2)c++程序执行多次结果不一样?不是你瞎了,有两种可能:①读到脏数据 ②kernel里该同步(syncthreads)的地方没同步到位。 3)cuda里的内置函数学问大:什么<sqrt,fsqrt,frsqrt>, <pow, __powf>等等精度 ​​​​...展开全文c

正在加载中,请稍候...