首页
博客
源码
资源
博客
源码
写文章
发布博客
发布资源
登录
X
nlp
相关资讯
热门
最新
人工智能
01-01 08:00
人工智能
NLP实战:自动生成原创宋词(一键生成宋词)
NLP实战:自动生成原创宋词(一键生成宋词),1.背景我有两个爱好,一个是传统文化,另一个是高新技术。传统文化,我喜欢唐诗宋词、笔墨丹青,高新技术我则从事前沿的IT编程,喜欢研究人工智能。我很想让这两者联系起来,这一老一新,不知道会碰撞出什么火花。2.成果通过试验,利用循环神经网络结合文本生成,我最终练成神功:提供一个开头,他就会自动生成一篇宋词。而且,这篇新词绝对是原创。开头生成细雨细雨仙桂春。
1001
人工智能
01-01 08:00
人工智能
NLP基础-中文语义理解:豆瓣影评情感分析
NLP基础-中文语义理解:豆瓣影评情感分析,1.NLPNLP(NaturalLanguageProcessing)是指自然语言处理,他的目的是让计算机可以听懂人话。下面是我将2万条豆瓣影评训练之后,随意输入一段新影评交给神经网络,最终AI推断出的结果。"很好,演技不错",0.91799414===>好评"要是好就奇怪了",0.19483969===>差评"一星给字幕",0.0028086603==
355
后端
01-01 08:00
后端
NLP入门学习中关于分词库HanLP导入使用教程
NLP入门学习中关于分词库HanLP导入使用教程,NLP入门学习中关于分词库HanLP导入使用教程大家好,时隔多年再次打开我的博客园写下自己的经验和学习总结,开园三年多,文章数少得可怜,一方面自己技术水平局限,另一方面是自己确实想放弃写博客。由于毕业工作的原因,经常性的加班以及仅剩下少的可怜的休息时间实在是想好好休息。但现在又回到了校园,在2019年4月份我选择了辞职考研,如愿考取了计算机科学与技
182
后端
01-01 08:00
后端
NLP与深度学习(六)BERT模型的使用
NLP与深度学习(六)BERT模型的使用,1.预训练的BERT模型从头开始训练一个BERT模型是一个成本非常高的工作,所以现在一般是直接去下载已经预训练好的BERT模型。结合迁移学习,实现所要完成的NLP任务。谷歌在github上已经开放了预训练好的不同大小的BERT模型,可以在谷歌官方的githubrepo中下载[1]。以下是官方提供的可下载版本:其中L表示的是encoder的层数,H表示的是隐
177
后端
01-01 08:00
后端
NLP与深度学习(五)BERT预训练模型
NLP与深度学习(五)BERT预训练模型,1.BERT简介Transformer架构的出现,是NLP界的一个重要的里程碑。它激发了很多基于此架构的模型,其中一个非常重要的模型就是BERT。BERT的全称是BidirectionalEncoderRepresentationfromTransformer,如名称所示,BERT仅使用了Transformer架构的Encoder部分。BERT自2018年
168
后端
01-01 08:00
后端
NLP基础-中文语义理解:豆瓣影评情感分析
NLP基础-中文语义理解:豆瓣影评情感分析,1.NLPNLP(NaturalLanguageProcessing)是指自然语言处理,他的目的是让计算机可以听懂人话。下面是我将2万条豆瓣影评训练之后,随意输入一段新影评交给神经网络,最终AI推断出的结果。"很好,演技不错",0.91799414===>好评"要是好就奇怪了",0.19483969===>差评"一星给字幕",0.0028086603==
141
后端
01-01 08:00
后端
NLP领域预训练模型发展趋势解读
NLP领域预训练模型发展趋势解读,作者|张俊林策划|孟夕众所周知,自然语言处理领域在最近两年发生了天翻地覆的技术变革,进入了技术井喷的快速发展期,而这一巨变的引发者是由BERT为代表的预训练模型及新型特征抽取器Transformer的快速发展与普及带来的。从BERT的应用来看,已经在对话系统、机器阅读理解、搜索、文本分类等几乎大多数NLP应用领域快速应用,并在部分应用领域取得了突破性的效果提升,而
138
代码人生
01-01 08:00
代码人生
NLP知识点:文本数据的预处理
NLP知识点:文本数据的预处理,1.为啥要有预处理?NLP(NaturalLanguageProcessing)指的是自然语言处理,就是研究计算机理解人类语言的一项技术。要研究语言处理,那么首先得有语言文本。之前讲过利用Tokenizer分词器对固定格式的文本进行序列化处理。在序列化之前,如何把这些文本按照一定的格式处理好,也是一项基础的工作,这一步叫数据的预处理。2.文本存储的几种载体一般直接可
136
代码人生
01-01 08:00
代码人生
NLP必学:Word2Vec、Glove和ELMO
NLP必学:Word2Vec、Glove和ELMO,前言词汇表示(WordRepresentation)一直是自然语言处理(NLP)中最基础也是最重要的任务之一。深度学习已经给这一领域带来了革命性的变革。其中一个很关键的概念就是词嵌入(wordembeddings),这是语言表示的一种方式,我们可以理解成,将词汇的语义表示成向量,而向量之间的相似度用来衡量词与词之间的关系强弱。本文是我在学习吴恩达
133
代码人生
01-01 08:00
代码人生
NLP进阶,使用TextRNN和TextRNN_ATT实现文本分类
NLP进阶,使用TextRNN和TextRNN_ATT实现文本分类,TextRNNTextRNN仅仅是将WordEmbedding后,输入到双向LSTM中,然后对最后一位的输出输入到全连接层中,在对其进行softmax分类即可,模型如下图:代码:classRNN(nn.Module):def__init__(self,vocab_size,embedding_dim,hidden_dim,outp
127
«
1
2
»