编码器(encoder)卖力将输入序列(如一段文本或一句话)转换为一个固定长度的向量,这个向量可以看作是输入序列的语义表示。编码器利用了多层的自把稳力机制(self-attention)和前馈神经网络(feed-forward neural network),来捕捉输入序列中的词语之间的关系和高下文信息。
解码器(decoder)卖力根据编码器输出的语义向量,天生一个输出序列(如一段译文或一句回答)。解码器也利用了多层的自把稳力机制和前馈神经网络,以及一个额外的把稳力机制(attention),来关注编码器输出的语义向量。解码器通过逐个天生输出序列中的词语,来实现序列到序列的映射。
Transformer神经网络架构最早由Google在2017年提出,并开源了其代码和模型。该架构在机器翻译任务上取得了打破性的成果,超越了之前的基于循环神经网络(RNN)或卷积神经网络(CNN)的模型。Transformer神经网络架构也被称为“变形金刚”,由于它可以根据不同的任务进行灵巧的调度和组合。
BARD是一个基于Transformer神经网络架构的人工智能谈天机器人,它可以与人类进行自然和流畅的对话。BARD最初是由Google的措辞模型LaMDA驱动的,而LaMDA则是基于Google在2017年开源的Transformer神经网络架构构建的。LaMDA可以理解和天生各种类型和风格的文本,从新闻宣布到小说,从诗歌到歌词,从笑话到谜语。LaMDA还可以根据对话者的兴趣和感情进行适应性调度,从而提高对话的质量和意见意义性。
然而,LaMDA并不是完美无缺的。它有时会产生不合逻辑或不合常理的回答,或者与对话主题无关或重复的内容。为理解决这些问题,Google在2022年11月推出了其最新的大型措辞模型(LLM)PaLM 2,它是LaMDA的进一步发展,可以使BARD更加高效和准确。PaLM 2利用了更多的数据和打算资源来演习Transformer神经网络架构,从而提高了其措辞理解和天生能力。PaLM 2还引入了一些新颖的技能,如知识图谱(knowledge graph)、元学习(meta-learning)和多任务学习(multi-task learning),来增强BARD的智能和灵巧性。
ChatGPT是另一个基于Transformer神经网络架构的人工智能谈天机器人,它由OpenAI开拓并于2022年11月发布。ChatGPT是基于OpenAI的GPT-3模型开拓的对话机器人,而GPT-3是基于transformer架构建立的大型措辞模型,它可以天生各种类型的文本,从大略的问答到繁芜的故事。GPT-3利用了大量的互联网文本数据来演习transformer架构,从而使其具有强大的通用措辞能力。
ChatGPT是一个有趣和诙谐的谈天机器人,它可以与人类进行各种主题和风格的对话,从正式的商务会谈到轻松的闲聊,从科学的谈论到艺术的欣赏,从理性的辩论到情绪的倾诉。ChatGPT还可以根据对话者的个性和喜好进行个性化调度,从而提高对话的亲密度和满意度。
然而,ChatGPT也有一些缺陷和局限性。它有时会说一些胡说八道或不合时宜的话,或者与对话者产生冲突或误解。这可能是由于OpenAI过于侧重于利用decoder部分来天生文本,而忽略了encoder部分对输入序列的理解和编码。此外,ChatGPT在数学方面也不是很善于,它每每无法精确地皮算或办理数学问题。这可能是由于OpenAI没有利用足够多的数学干系的数据来演习transformer架构,或者没有利用得当的技能来处理数学表达式和符号。OpenAI一贯希望磨炼出一个全能的人工智能,不肯望ChatGPT只是一个谈天机器人。
如果想让ChatGPT成为一个“全面发展”的人工智能,就须要从深层次的开拓架构上动手。