Skip to content

Latest commit

 

History

History
10 lines (6 loc) · 800 Bytes

README.md

File metadata and controls

10 lines (6 loc) · 800 Bytes

seq2seq-chinese-textsum

近几十年来,获取新信息的方式发生了根本性变化,也带来了越来越多挑战。信息的获取已不再是瓶颈;瓶颈在于我们是否有能力紧跟信息的步伐。我们都必须通过越来越多的阅读来获取关于工作、新闻和社交媒体的最新进展。我们研究了人工智能在信息大潮中帮助人们提高工作能力的方法——答案之一是让算法自动归纳长文本。

 本程序主要是利用seq2seq+Attention模型进行自动摘要生成。详细介绍请参考我的博文:中文文本摘要生成

文章生成标题模型:搜狗中文语料 2.流程 Vocabulary contains the most-frequent tokens up to max_vocabulary_size.