如今大型语言模型(如ChatGPT)风靡全球,其最重要的应用之一就是辅助使用者完成各种日常写作,如撰写电子邮件,创作部落格文章,都能得到它的有力支援。但是目前包括ChatGPT 在内的各种大语言模型在长内容创作领域,如小说,剧本,长篇文案等领域却显得力不从心。
近期,来自苏黎世联邦理工和波形智慧的团队发表了RecurrentGPT,一种让大语言模型(如ChatGPT 等) 能够模拟RNN/LSTM,透过Recurrent Prompting 来完成互动式超长文本写作,让利用ChatGPT 进行长篇小说创作成为了可能。
基于Transformer 的大语言模型最明显的限制之一就是输入和输出的长度限制。虽然输入端的长度限制可以透过VectorDB 等方式缓解,输出内容的长度限制始终是限制ChatGPT 等大语言模型广泛应用于长内容生成的关键障碍。为解决这一问题,过去很多研究试图使用基于向量化的State 或Memory 来让Transformer 可以进行回圈计算。这样的方法虽然在长文本建模上展现了一定的优势,但是却要求使用者拥有并可以修改模型的结构和参数,这在目前闭源模型遥遥领先的大语言模型时代中是不符合实际的。
RecurrentGPT 则另辟蹊径,是利用大语言模型进行互动式长文本生成的首个成功案例。它利用ChatGPT 等大语言模型理解自然语言指令的能力,透过自然语言模拟了循环神经网路(RNNs)的循环电脑制。
如下图所示,在每一个时间步中,RecurrentGPT 会接收上一个时间步生成的内容、最近产生的内容摘要(短期记忆),历史生成内容中和当前时间步最相关的内容(长期记忆),以及一个对下一步产生内容的大纲。 RecurrentGPT 根据这些内容产生一段内容,更新其长短时记忆,并最后产生几个对下一个时间步中产生内容的规划,并将当前时间步的输出作为下一个时间步的输入。这样的回圈电脑制打破了常规Transformer 模型在创作长篇文本方面的限制,进而实现任意长度文本的生成,而不遗忘过去的资讯。
具体来讲。作者们设计了如上图所示的prompt 去指导和规范回圈的产生:
首先指明任务,比如写小说,并说明在输入部分会给出的内容:上一步产生的段落(图中Ot-1)、当前维持的近期产生内容的摘要,即短期记忆(图中ht-1),所有产生内容中和当前时间步相关程度最高的几个段落,即短期记忆(图中ct-1),以及对接下来产生内容的规划(图中xt-1)。
接着在prompt 中给ChatGPT 提出要求:首先基于当前的输入产生一个新的段落,接着对维护的短期记忆进行修改,同时在对短期记忆修改时作者们指示大语言模型首先分析短期记忆中哪些内容对于后续创作不再重要以及新产生的内容中哪些会对后续生成有所影响,之后相应地在地短期记忆库中去去除无用的资讯并增添新的资讯,进而保持短期记忆不会因为反覆运算的轮数增加而变得过长。最后要求ChatGPT 基于当前的情节铺设,给出三个逻辑顺承又有趣的新的情节的规划。
在提出要求后,作者在结尾再次精心设计了prompt 来规范ChatGPT 的输出,并重申了当前小说写作的情景。这个好处是让ChatGPT 产生的内容更具备像小说那样的细节,而不是在每一轮的反覆运算中,快速地完成情节的叙述。
在实际使用中,内容创作者只需先选择一个主题,然后简单地描述一下要生成的内容的背景设定和大纲,剩下的工作就可以交给RecurrentGPT。每一个它将自动产生第一段,并提供几个可能的选项(plan)供创作者继续写故事。创作者可以选择一个选项、对某个选项进行修改或者自己编辑一个新的选项。这个流程能显著提高内容创作者的效率。
这个新的长文本生成典范将带给所有内容创作者和读者一种全新的体验。首先,相比现有的方法,RecurrentGPT 有更强的可解释性,因为使用者可以观察和编辑自然语言记忆,这使得使用者可以更清晰地理解这个框架是如何工作的。其次,使用者可以直接影响产生内容的方向,让整个写作过程变得更加有趣。
除了作为AI 内容生成(AIGC) 的工具以外,RecurrentGPT 可以直接作为互动式小说,直接与消费者互动,跳过了内容创作者使用AI 进行内容创作的步骤。这让消费者的体验更直接有趣,并且带来更丰富的可能性。作者们将这样的生成式AI 的使用典范称之为(AI as Content, AIAC), 也就是「AI 即内容」。而RecurrentGPT 则是通往这个典范的第一步。
在实验中,作者们将RecurrentGPT 与之前的SoTA 长文本产生方法,在统一使用ChatGPT 作为基座模型的情况下,在长文本(6000 单词)和较长文本(3000 单词)的设定下进行pair-wise 的人工比较。
在上述一系列测试中,RecurrentGPT 无论是在科幻、浪漫、幻想、恐怖、神秘还是惊悚小说的生成上,都被人类读者认为更有趣和连贯。
总结
研究人员提出了RecurrentGPT,用基于自然语言的元件取代了RNN 中向量化的结构,并且用基于自然语言的Prompt 类比了RNN 的回圈计算图,进而实现Recurrent Prompting,让ChatGPT 等大语言模型类比RNN 的回圈电脑制,产生有趣并连贯的长内容。
该项目已经在GitHub 上开源,并提供了基于Gradio 的网页UI,方便每一个使用者去使用和调教自己的长内容创作助手。
原文链接: AI即内容! ChatGPT能写长篇小说了! RecurrentGPT能让大语言模型实现互动式超长文本写作| T客邦
您也可以联系文章作者本人进行修改,若内容侵权或非法,可以联系我们进行处理。
任何个人或组织,转载、发布本站文章到任何网站、书籍等各类媒体平台,必须在文末署名文章出处并链接到本站相应文章的URL地址。
本站文章如转载自其他网站,会在文末署名原文出处及原文URL的跳转链接,如有遗漏,烦请告知修正。
如若本站文章侵犯了原著者的合法权益,亦可联系我们进行处理。
hi6个月前0
请问有详细一点的自己搭建的教程吗你好7个月前0
你好,可以再帮我看看吗? 我已经按照你的方法设定了,还是一样,wordpress后台的 Purge Varnish Cache 插件还是清除不到cache,依旧显示 the varnish control terminal is not responding at。谢谢https://mjj.today/i/Srk2Tz https://mjj.today/i/Srkcoi你好7个月前0
对,你说的没错,我配置的时候改了一些东西,现在我按照你的教学,可以启动了,网页可以缓存了,不过wordpress 清除cache 那个插件没用的,我输入本地回环地址127.0.0.1 :6082 ,再输入API key ,插件显示the varnish control terminal is not responding at 127.0.0.1:6082,就你图片那样,然后试一下点击清除cache 那里,他显示error,研究了一天,还是没有不行。你好7个月前1
你好,为啥我按照你的方法,到第三部分,去到真正后源的服务器设定Varnish 部分,我填了真正后源的IP跟端口跟域名,然后重启 Varnish ,就出现这样了? 这是怎么回事? 谢谢[Linux] AMH 7.1 https://amh.sh[varnish-6.6 start] ================================================== =========== [OK] varnish-6.6 is already installed. Could not delete 'vcl_boot.1713549650.959259/vgc.sym': No such file or directory Error: Message from VCC-compiler: VCL version declaration missing Update your VCL to Version 4 syntax, and add vcl 4.1; on the first line of the VCL files. ('/home/usrdata/varnish/default.conf' Line 1 Pos 1) ...#---Running VCC-compiler failed, exited with 2 VCL compilation failedchu7个月前0
很完善的教程‘hu7个月前0
我用gmail EMAIL_SERVER="smtp://********@gmail.com:bpyfv*********chry@smtp.gmail.com:587"叽喳7个月前0
MAIL_SERVER="smtp://no-reply@vort.me:password123@wednesday.mxrouting.net:587"大佬 这个使用outlook 或者gmail 是什么样子的格式? 邮寄已经开启smtp了hu7个月前0
输入框的问题解决了,我没有设置反代,NEXTAUTH_URL改为域名+端口就好了