欢迎大家赞助一杯啤酒🍺 我们准备了下酒菜:Formal mathematics/Isabelle/ML, Formal verification/Coq/ACL2/Agda, C++/Lisp/Haskell
Natural language processing
来自开放百科 - 灰狐
				
								
				(版本间的差异)
				
																
				
				
								
小 (→图集)  | 
			小 (→链接)  | 
			||
| 第36行: | 第36行: | ||
==链接==  | ==链接==  | ||
*[https://www.xenonstack.com/blog/overview-of-artificial-intelligence-and-role-of-natural-language-processing-in-big-data Overview of Artificial Intelligence and Role of Natural Language Processing in Big Data]  | *[https://www.xenonstack.com/blog/overview-of-artificial-intelligence-and-role-of-natural-language-processing-in-big-data Overview of Artificial Intelligence and Role of Natural Language Processing in Big Data]  | ||
| + | *[http://www.infoq.com/cn/articles/predicting-movie-ratings-nlp 预测电影评级:NLP正是电影公司所需要的]  | ||
*[http://www.52nlp.cn/?p=8339 斯坦福大学深度学习与自然语言处理第一讲:引言]  | *[http://www.52nlp.cn/?p=8339 斯坦福大学深度学习与自然语言处理第一讲:引言]  | ||
*[http://www.52nlp.cn/?p=8438 斯坦福大学深度学习与自然语言处理第二讲:词向量]  | *[http://www.52nlp.cn/?p=8438 斯坦福大学深度学习与自然语言处理第二讲:词向量]  | ||
2017年8月24日 (四) 02:54的版本
|   | 
您可以在Wikipedia上了解到此条目的英文信息 Natural language processing Thanks, Wikipedia. | 
Natural language processing(简称NLP) 自然语言处理是人工智能和语言学领域的分支学科。
目录 | 
项目
- Speech and Natural Language Processing 
 - fastText
 - DrQA Reading Wikipedia to Answer Open-Domain Questions
 - Apache UIMA
 - DeepDive
 - Apache OpenNLP
 - ScalaNLP
 - Natural Language Toolkit
 - Stanford NLP Group, 斯坦福大学自然语言处理工具
 - Stanford NLP @ GitHub
 - NLPChina: 中国自然语言处理开源组织
 
文档
- Deep Learning for Natural Language Processing
 - NLP and Deep Learning 1: Human Language & Word Vectors
 - NLP and Deep Learning 2: Compositonal Deep Learning
 - Deep NLP Recurrent Neural Networks
 - Memory, Reading, and Comprehension
 - Deep NLP Applications and Dynamic Memory Networks
 
图书
图集
链接
- Overview of Artificial Intelligence and Role of Natural Language Processing in Big Data
 - 预测电影评级:NLP正是电影公司所需要的
 - 斯坦福大学深度学习与自然语言处理第一讲:引言
 - 斯坦福大学深度学习与自然语言处理第二讲:词向量
 - 斯坦福大学深度学习与自然语言处理第三讲:高级的词向量表示
 - 用MeCab打造一套实用的中文分词系统(一)
 - 用MeCab打造一套实用的中文分词系统(二)
 - 用MeCab打造一套实用的中文分词系统(三):MeCab-Chinese
 - 用MeCab打造一套实用的中文分词系统(四):MeCab增量更新
 - 无限大地NLP_空木的专栏,研究自然语言处理、机器学习、信息抽取等方向
 - 清华大学自然语言处理与社会人文计算实验室
 
	分享您的观点