陈丹琦博士论文翻译:Neural Reading Comprehension and Beyond_浏览懂得_斯坦福年夜学
上午看到FlyAI-AINLP群里李俊毅同学发出的一条信息:
最近刚翻译、整理完的陈丹琦博士的论文,https://chendq-thesis-zh.readthedocs.io/en/latest/ ,感兴趣的同学可以来看看。Neural Reading Comprehension and Beyond,里面讲了很多关于神经阅读理解的背景知识,以及作者自己的实验思路。个人以为适宜初入nlp的以及对阅读理解和对话感兴趣的同学。才疏学浅,希望大家多多互换
赶紧去看了一下,译者非常存心的将陈丹琦博士论文整理在了readthedocs.io上:
陈丹琦博士,本科毕业于清华姚班,之后在斯坦福大学师从 Christopher Manning 教授,今年春季她的博士论文《Neural Reading Comprehension and Beyond》一经发布就引起了全体社交媒体的亢奋:
“很少有人的博士论文能够成为「爆款文章」,但陈丹琦做到了。这位近日从斯坦福毕业的打算机科学博士引发了人们的广泛关注。据斯坦福大学图书馆先容,她长达 156 页的毕业论文《Neural Reading Comprehension and Beyond》上传仅四天就得到了上千次的阅读量,成为了斯坦福大学近十年来最热门的毕业论文之一。”
但是热潮归热潮,亢奋过后还是须要安心的读论文,这156页博士论文,光读完就须要很多韶光,更不要说这么知心的翻译版了,这里要再次感谢一下译者,以下选自这个文档的译者序,感兴趣的同学可以点击‘阅读原文’,直达原文链接:
关于这篇论文的中文翻译在这里:
https://chendq-thesis-zh.readthedocs.io/en/latest/
阅读一本精良的博士毕业论文是最快理解一个领域的办法。这篇论文中会先容机器阅读理解的前因后果以及最近和未来的发展趋势,并且,这里面会引用大量的参考文献,这都是宝贵的经由整理的NLP干系的学习资料。
本论文文紧张研究了基于深度神经网络的阅读理解模型。与传统的稀疏的、手工设计的基于特色的模型比较,这些端到端神经模型被证明在学习丰富的措辞征象方面更有效,并在很大程度长进步了所有当代阅读理解基准的性能。
NLP领域逐渐进入人们的视野,从word2vec到BERT再到后来提出的一些模型,都是在dig预演习这个环节。网络上流传很多资料,但很少有如此系统的文章,强推大家去仔细阅读一下。
才疏学浅,有不敷之处,还望指出。感激。可以直接提出issue或者通过邮件联系:4ljy@163.com。
本文翻译已经咨询过原作者。
本文仅供学习互换所用,统统权利由原作者及单位保留,译者不承担法律任务。
原文地址:https://www.cs.princeton.edu/~danqic/papers/thesis.pdf
陈丹琦博士个人主页:https://www.cs.princeton.edu/~danqic/
Duke Lee
2019年
作者 | 李俊毅
版权声明
本文版权归《AINLP》,转载请自行联系
点击下方“理解更多”,理解CCAI 2019大会信息
点击下方“理解更多”,理解CCAI 2019大会信息
本文系作者个人观点,不代表本站立场,转载请注明出处!