【AI写作】体验如何通过训练让程序帮我们自动写文章

人工智能这个词,对于今天我们来说已经是不陌生了,特别是对于我们这种搞互联网的人。基本上天天都能听到,但是似乎离我们还是有点遥远。尽管在有些地方已经开始运用了,可是目前来说还只是在少数的领域能清晰的看到它的影子。

在seo方面,人工智能的影子就更少了。只有寥寥的几家打着“AI伪原创”的幌子在招摇撞骗,反正不懂的人也不知道其真正的核心是什么。能出效果就好了,不是吗?

这些天正好有空,我就专门折腾了一下目前比较流利的真正的NLP模型GPT-2。并顺利的在我的win10系统上搭建和运行起来了。虽然速度慢,但还可以体验一下人工智能的魅力的。

在进入正题之前,先给大家普及点小知识。

NLP是什么

NLP,全称 nature language processing,翻译过来就是自然语言处理了。这玩意主要做的工作就是想尽办法让机器能够理解人类的语言。目前由于芯片和算法以及设备的升级已经能够让机器通过学习的方式从一定程度上理解了人类的语言了,但是还是存在很多的难题哈。

大家用到的,天猫精灵、小爱同学、Siri等等都是NLP的产物。

回归正题,想要让机器理解我们说的话,那就得需要一个比较重要的东西:语言模型;语言模型是根据语言客观事实而进行的语言抽象数学建模,是一种对应关系。语言模型与语言客观事实之间的关系,如同数学上的抽象直线与具体直线之间的关系。

简单说来,语言模型的作用就是根据已有句子的一部分,来预测下一个单词会是什么。最著名的语言模型你一定见过,就是手机上的输入法,它可以根据当前输入的内容智能推荐下一个词。

而本文用到的GPT-2就是一个无监督学习的语言模型,据说是目前最强大的。

GPT-2 有着超大的规模,是一个在海量数据集上基于 transformer 训练的巨大模型。本文将带你一起探索取得优异性能的 GPT-2 模型架构,重点阐释其中关键的自注意力(self-attention)层,并且看一看 GPT-2 采用的只有解码器的 transformer 架构在语言建模之外的应用。

一通介绍也看不懂,我们直接来看效果吧。

实际写作效果

我从网上直接下载了一个别人训练好的模型,然后开干。

心酸历程,为了搭建这个环境,折腾了我一天的时间,后来发现原来是姿势不对

因为这个玩意必须要给个开头它才能知道往后余生怎么走,所以我这里就给了个秋天,让它生成5篇样本看看。

可以看到,虽然看起来有的地方写得没毛病,但是有很多地方在逻辑以及通顺上还是有待改进的。不过至少可以看到一些希望的曙光了,相信不久的将来,这些问题一定能够很好的解决。

我后来又试了一下其他的字词,发现毛病还是不少的,主要还是在语句的逻辑和可读性上。不过这也是因为我选的这个模型本身比较小,只有100多兆,训练的预料不多造成的。

想要把这些内容放到网站上还有一定的距离,不过对于做垃圾站来说应该是足够的。

我就有一个学员在弄这个了,目前反馈来看似乎效果还不错?不过他这个不是单一的使用GPT-2模型,还结合了其它的语言模型一起调优。

还有一点要说明的事,这个玩意特别的吃硬件,我笔记本的配置是:I7 9系列CPU 32G内存 RTX2060显卡 6G的显存 算力7.5 但是跑这个的时候,生成一篇文章都要1分钟左右。得需要那种P100的显卡(四五万块钱)才能更快。

后续有时间我再自己训练一些其他领域的文章来看看效果,敬请期待。

当AI写作成熟的时候,就基本没有编辑啥事了???

THE END
分享
二维码
海报
【AI写作】体验如何通过训练让程序帮我们自动写文章
人工智能这个词,对于今天我们来说已经是不陌生了,特别是对于我们这种搞互联网的人。基本上天天都能听到,但是似乎离我们还是有点遥远。尽管在有些地方已经开……
<<上一篇
下一篇>>
文章目录
关闭
目 录