随园厚学分享 http://blog.sciencenet.cn/u/gothere 计算语言学博士 希望在这里留下学术的足迹

博文

NLP和语言学会议的共性与差异

已有 3603 次阅读 2017-11-9 23:55 |个人分类:Computational Linguistics|系统分类:科研笔记

最近忙的掉渣,差点忘了科学网的存在。趁着今天头脑昏昏,干不了正事,弥补一下博客多日的空白。

最近开了一些会议,我们自己主办的计算语言学会议,外语学院主办的认知语言学大会还有一些中小型会议。忽然觉得NLP和纯语言学的会议有共性,也有很大不同,那就列个表格吧。


对比项引进或使用国外理论
借用国外工具
报告表达效果
研究特点
投稿方式
NLP大部分大部分(神经网络)ppt强于oral强调应用效果长文双盲
语言学大部分大部分(WMatrix, Word Smith 等)oral强于ppt注重特殊语言现象摘要

从这种分析可以看出,大部分的选题都是运用了国外的理论来研究中英文的语言问题,一个侧重教学或特殊语言现象,一个是面向NLP实际应用。在工具方面,也很相似,都是用国外的工具包和算法为主。NLP领域的算法看似高大上,但一眼望去,神经网络、深度学习都是舶来品。语言学的报告质量显得略高,大概是文科的口才更好哈。在审稿制度上差别比较大,语言学的会议大都是邀请制或者摘要评审,录用率一般高于50%,主要讲究同行交流。NLP的会议则采用国际惯例,采用双盲投稿评审制度,录用率只有30%左右。从研究成果来看,语言学的应用性比不了NLP,研究所得的往往是更多的问题,而非问题的解决方案。NLP力求更高、更好的自动分析处理效果。但是在会场氛围上很有趣,语言学的更专注与热烈。300多人的会议,分了12个平行会场,每个会场都坐满了,而且发言讨论热烈,对各种语言现象乐此不疲。相比之下,计算语言学会议之前都分多个并行session,但分布极不平均,所以去年开始改为了单会场运作。即便如此,在很多时候大家听会也并不太认真,因为深度学习的框架差不多,区别是处理任务不同和实验细节略有差异。

总的来说,复杂多样的语言现象是语言学界的口香糖,越嚼越香;对NLP领域来说,语言现象没啥要紧,关键是要更强大的硬件和机器学习算法来刷分。为什么就不能结合起来呢,用机器学习的牛刀来分析和解决语言问题。

语言是复杂的,如果它简单,早已被alpha们攻破。对于复杂系统的把握,单单靠拍脑袋也难,从目前来看,对语言现象的建模,需要的还是对语言现象的数学化描写,寻找合适的数学模型。此事待不得别人,赶紧做吧。





https://blog.sciencenet.cn/blog-39714-1084583.html

上一篇:古汉语语料库《左传》于10月19日在LDC发布
下一篇:编程夹诗糖——计算语言学本科的养成与未来
收藏 IP: 223.65.8.*| 热度|

1 武夷山

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-1 08:39

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部