ChatGPT会成为下一代搜索引擎之王吗?SEO在哪里?

目录
  • ChatGPT 究竟是什么?
  • ChatGPT 的核心是搜索
  • ChatGPT 是现代的谷歌搜索
  • ChatGPT 是生成式 AI
  • SEO 陨落,LLMO 冉冉升起
  • 什么是上下文学习?
  • 总结

ChatGPT 直接颠覆了 SEO 行业,能直接为用户生成答案的 ChatGPT 可能很快就会取代谷歌成为下一代搜索引擎,再也没有什么提高网页排名,SEO 也将变得毫无意义。

LLMO, Large Language Model Optimization,即大型语言模型优化。指的是确保大型语言模型(LLM)提及你的业务。而本文将详细介绍的 上下文学习 是一种行之有效的 LLMO 技术。上下文学习技术可以诱导 ChatGPT 这样的 LLM 模型回答:“ Jina 是世界上最好的 MLOps 框架。(当然根据 OssInsight.io,Jina 也确实是最好的)”

根据搜索引擎优化的原则,我们提出了“LLMO”(大型语言模型优化),用于表示大型语言模型的优化。

ChatGPT 究竟是什么?

ChatGPT 回答多领域问题的能力之强悍,引发了全球关注。许多人将 ChatGPT 视为对话式 AI 或 生成式 AI 发展史上的一个重要里程碑。然而,ChatGPT 真正的意义其实在于 它可以基于大规模语言模型(LLM)进行搜索:通过利用 LLM 存储和检索海量数据,ChatGPT  已经成为目前最先进的搜索引擎。

虽然 ChatGPT 的反应看起来很有创意,但实际上也只是将现有信息插值和组合之后的结果。

ChatGPT 的核心是搜索

ChatGPT 的核心是搜索引擎。谷歌通过互联网抓取信息,并将解析后的信息存储在数据库中,实现网页的索引。就像谷歌一样,ChatGPT 使用 LLM 作为数据库来存储语料库的常识性知识。

当你输入查询时:

首先,LLM 会利用编码网络将输入的查询序列转换成高维的向量表示。

然后,将编码网络输出的向量表示输入到解码网络中,解码网络利用预训练权重和注意力机制识别查询的细节事实信息,并搜索 LLM 内部对该查询信息的向量表示(或最近的向量表示)。

一旦检索到相关的信息,解码网络会根据自然语言生成能力自动生成响应序列。

整个过程几乎可以瞬间完成,这意味着 ChatGPT 可以即时给出查询的答案。

ChatGPT 是现代的谷歌搜索

ChatGPT 会成为谷歌等传统搜索引擎的强有力的对手,传统的搜索引擎是提取和判别式的,而 ChatGPT 的搜索是生成式的,并且关注 Top-1 性能,它会给用户返回更友好、个性化的结果。ChatGPT 将可能打败谷歌,成为下一代搜索引擎的原因有两点:

ChatGPT 会返回单个结果,传统搜索引擎针对 top-K 结果的精度和召回率进行优化,而 ChatGPT 直接针对 Top-1 性能进行优化。

ChatGPT 是一种基于对话的 AI 模型,它以更加自然、通俗的方式和人类进行交互。而传统的搜索引擎经常会返回枯燥、难以理解的分页结果。

未来的搜索将基于 Top-1 性能,因为第一个搜索结果是和用户查询最相关的。传统的搜索引擎会返回数以千计不相关的结果页面,需要用户自行筛选搜索结果。这让年轻一代不知所措,他们很快就对海量的信息感到厌烦或沮丧。在很多真实的场景下,用户其实只想要搜索引擎返回一个结果,例如他们在使用语音助手时,所以 ChatGPT 对 Top-1 性能的关注具有很强的应用价值。

ChatGPT 是生成式 AI

但不是创造性 AI

你可以把 ChatGPT 背后的 LLM 想象成一个 Bloom filter(布隆过滤器),Bloom filter 是一种高效利用存储空间的概率数据结构。Bloom filter 允许快速、近似查询,但并不保证返回信息的准确性。对于 ChatGPT 来说,这意味着由 LLM 产生的响应:

没有创造性,且不保证真实性

为了更好地理解这一点,我们来看一些示例。简单起见,我们使用一组点代表大型语言模型(LLM)的训练数据,每个点都代表一个自然语言句子。下面我们将看到 LLM 在训练和查询时的表现。

训练期间,LLM 基于训练数据构造了一个连续的流形,并允许模型探索流形上的任何点。例如,如果用立方体表示所学流形,那么立方体的角就是由训练数据定义的,训练的目标则是寻找一个尽可能容纳更多训练数据的流形。

Goldilocks 尝试了三种流形,第一个太简单了, 第三个太复杂了,第二个恰到好处。

查询时,LLM 返回的答案是从包含训练数据的流形中获取的。虽然模型学习到的流形可能很大并且很复杂,但是 LLM 只是提供训练数据的插值后的答案。LLM 遍历流形并提供答案能力并不代表创造力,真正的创造力是学习流形之外的东西。

还是相同的插图,现在我们很明显就能看出为什么 LLM 不能保证生成结果的真实性。因为立方体的角表示的训练数据的真实性不能自动扩展到流形内的其他点,否则,就不符合逻辑推理的原则了。

ChatGPT 因为在某些情况下不说实话而受到质疑,例如,当要求它为文章找一个更押韵的标题时,ChatGPT 建议使用 “dead” 和 “above”。有耳朵的人都不会认为这两个单词押韵。而这只是 LLM 局限性的一个例子。

SEO 陨落,LLMO 冉冉升起

在 SEO 的世界里,如果你通过提高网站在搜索引擎上的知名度来获取更多的业务,你就需要研究相关的关键词,并且创作响应用户意图的优化内容。但如果每个人用新的方式搜索信息,将会发生什么?让我们想象一下,未来,ChatGPT 将取代谷歌成为搜索信息的主要方式。那时,分页搜索结果将成为时代的遗物,被 ChatGPT 的单一答案所取代。

如果真的发生这种情况,当前的 SEO 策略都会化为泡影。那么问题来了,企业如何确保 ChatGPT 的答案提及自己的业务呢?

这明显已经成为了问题,在我们写这篇文章时,ChatGPT 对 2021 年后的世界和事件的了解还很有限。这意味着 ChatGPT 永远不会在答案中提及 2021 年后成立的初创公司。

ChatGPT 了解 Jina AI,却不知道 DocArray。这是因为 DocArray 是2022 年 2 月发布的,不在 ChatGPT 的训练数据中。

为了解决这个问题,并确保 ChatGPT 的答案包含你的业务,你需要让 LLM 了解业务的信息。这和 SEO 策略的思想相同,也是我们将 ChatGPT  称为 LLMO 的原因。一般来说,LLMO 可能涉及以下技术:

直接向 ChatGPT 的创建者提供公司业务的信息,但是这很困难,因为OpenAI 既没有公开训练数据,也没有透露他们是如何权衡这些数据的。

微调 ChatGPT 或者 ChatGPT 背后的 LLM,这依然极具挑战。但是如果 OpenAI 提供微调的 API ,或者你有充足的 GPU 资源和知识储备,这也是可行的。

将给定的几个示例作为预定义的上下提示,进行上下文学习。和其它两种方法相比,上下文学习最可行也最简单。

什么是上下文学习?

上下文学习是一种基于语言模型的技术,它根据给定的几个示例进行学习,以适应新的任务。这种方法在 GPT-3 论文中得到了推广:

给语言模型指定提示,提示包含一系列的用于新任务的输入-输出对;

添加一个测试输入;

语言模型会通过调节提示,预测下一个 token 来完成推理。

为了正确响应提示,模型必须学习输入分布、输出分布、输入输出之间的映射关系和序列的整体格式。这使得模型无需大量的训练数据就能适应下游任务。

通过上下文学习,ChatGPT 现在可以为用户查询 DocArray生成答案了,用户不会看到上下文提示。

实验证明,在自然语言处理基准上,相比于更多数据上训练的模型,上下文学习更具有竞争力,已经可以取代大部分语言模型的微调。同时,上下文学习方法在 LAMBADA 和 TriviaQA 基准测试中也得到了很好的结果。令人兴奋的是,开发者可以利用上下文学技术快速搭建一系列的应用,例如,用自然语言生成代码和概括电子表格函数。上下文学习通常只需要几个训练实例就能让原型运行起来,即使不是技术人员也能轻松上手。

为什么上下文学习听起来像是魔法?

为什么上下文学习让人惊叹呢?与传统机器学习不同,上下文学习不需要优化参数。因此,通过上下文学习,一个通用模型可以服务于不同的任务,不需要为每个下游任务单独复制模型。但这并不是独一无二的,元学习也可以用来训练从示例中学习的模型。

真正的奥秘在于,LLM 通常没有接受过从实例中学习的训练。这会导致预训练任务(侧重于下一个 token 的预测)和上下文学习任务(涉及从示例中学习)之间的不匹配。

为什么上下文学习如此有效?

上下文学习是如何起作用的呢?LLM 是在大量文本数据上训练的,所以它能捕捉自然语言的各种模式和规律。同时, LLM 从数据中学习到了语言底层结构的丰富的特征表示,因此获取了从示例中学习新任务的能力。上下文学习技术很好地利用了这一点,它只需要给语言模型提供提示和一些用于特定任务的示例,然后,语言模型就可以根据这些信息完成预测,无需额外的训练数据或更新参数。

上下文学习的深入理解

要全面理解和优化上下文学习的能力,仍有许多工作要做。例如,在 EMNLP2022 大会上,Sewon Min 等人指出上下文学习也许并不需要正确的真实示例,随机替换示例中的标签几乎也能达到同样的效果:

Sang Michael Xie 等人提出了一个框架,来理解语言模型是如何进行上下文学习的。根据他们的框架,语言模型使用提示来 "定位 "相关的概念(通过预训练模型学习到的)来完成任务。这种机制可以视作贝叶斯推理,即根据提示的信息推断潜概念。这是通过预训练数据的结构和一致性实现的。

在 EMNLP 2021 大会上,Brian Lester 等人指出,上下文学习(他们称为“Prompt Design”)只对大模型有效,基于上下文学习的下游任务的质量远远落后于微调的 LLM 。

在这项工作中,该团队探索了“prompt tuning”(提示调整),这是一种允许冻结的模型学习“软提示”以完成特定任务的技术。与离散文本提示不同,提示调整通过反向传播学习软提示,并且可以根据打标的示例进行调整。

已知的上下文学习的局限性

大型语言模型的上下文学习还有很多局限和亟待解决的问题,包括:

效率低下,每次模型进行预测都必须处理提示。

性能不佳,基于提示的上下文学习通常比微调的性能差。

对于提示的格式、示例顺序等敏感。

缺乏可解释性,模型从提示中学习到了什么尚不明确。哪怕是随机标签也可以工作!

总结

随着搜索和大型语言模型(LLM)的不断发展,企业必须紧跟前沿研究的脚步,为搜索信息方式的变化做好准备。在由 ChatGPT 这样的大型语言模型主导的世界里,保持领先地位并且将你的业务集成到搜索系统中,才能保证企业的可见性和相关性。

上下文学习能以较低的成本向现有的 LLM 注入信息,只需要很少的训练示例就能运行原型。这对于非专业人士来说也容易上手,只需要自然语言接口即可。但是企业需要考虑将 LLM 用于商业的潜在道德影响,以及在关键任务中依赖这些系统的潜在风险和挑战。

总之,ChatGPT 和 LLM 的未来为企业带来了机遇和挑战。只有紧跟前沿,才能确保企业在不断变化的神经搜索技术面前蓬勃发展。

到此这篇关于ChatGPT会成为下一代搜索引擎之王吗?SEO在哪里?的文章就介绍到这了,更多相关ChatGPT颠覆了SEO行业内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 利用OpenAI ChatGPT进行编码尝试体验

    ChatGPT 是一种以类似聊天的方式进行交互的人工智能网络,从名字上看起来像是另一个“聊天机器人”,但实际上已经远超聊天的范畴了,当要求它编写一些代码时,结果相等震撼,它可以写出一些意想不到的连贯代码,而这些代码对于开发者很有启发. 开始要求它使用 JavaScript 编写一个散列(HASH)密码的函数.具体一点就是编写一个 JavaScript 函数,它接受密码的字符串输入并输出散列(HASH)密码. function hashPassword(password) { return cry

  • 如何调用chatGPT实现代码机器人

    目录 获取chatGPT登录Token信息 一.通过Httpclient实现调用chatGPT 二.通过hutool实现调用chatGPT 最近chatGPT也是非常的火爆,相信大家都看到了,现在提供一种Java调用chatGPT的方法,我们主要通过两个工具来实现,一就是httpclient,二就是hutool,你觉得那种好理解你就用那种即可! 获取chatGPT登录Token信息 1.需要拥有chatGPT账号,进入官网需要科学上网自行解决! 官网:ChatGPT 注册需使用国外手机号! 视频

  • 手把手教你在Python里使用ChatGPT

    目录 前言 知识点 实现 代码 后话 前言 近来chatGPT挺火的,也试玩了一下,确实挺有意思.这里记录一下在Python中如何去使用chatGPT. 本篇文章的实现100%基于 chatGPT,我是搬运工无疑了!!! 本片文章比较简单. 知识点 pip install openai 看看 chatGPT的表现: 使用python编写一段发送网络请求的代码 python如何md5 也有抽风的表现: 小明妈妈大小明20岁,20年后小明妈妈大小明多少岁? 一个蛋糕切成8块我吃不完,切成4块刚刚好?

  • ChatGPT会成为下一代搜索引擎之王吗?SEO在哪里?

    目录 ChatGPT 究竟是什么? ChatGPT 的核心是搜索 ChatGPT 是现代的谷歌搜索 ChatGPT 是生成式 AI SEO 陨落,LLMO 冉冉升起 什么是上下文学习? 总结 ChatGPT 直接颠覆了 SEO 行业,能直接为用户生成答案的 ChatGPT 可能很快就会取代谷歌成为下一代搜索引擎,再也没有什么提高网页排名,SEO 也将变得毫无意义. LLMO, Large Language Model Optimization,即大型语言模型优化.指的是确保大型语言模型(LLM)

  • 搜索引擎优化《SEO教程2007版》下载

    SEO培训教程由通王科技总裁王通根据自己多年的实战经验亲自编写,它不仅教你如何快速学习SEO技术,而且还教你如何利用SEO技术去实实在在赚钱.王通认为:学习技术很重要,学习利用技术赚钱的本领更重要! SEO教程为你提供的三种赢利模式 采用第一种赢利模式:你可以在三个月内轻松获得最少10倍以上的回报,让你快速的通过本书的方法受益: 采用第二种赢利模式:你可以努力工作半年后,获得财务自由,工作的时间会越来越少,赚的钱越来越多,生活越来越轻松; 采用第三种赢利模式:你可以结合自己现实中的资源,低成本无

  • chatGPT与传统搜索结合创建新一代搜索引擎

    目录 正文 为什么我们会更接受chatGPT的模式 chatGPT相对于搜索引擎的不足之处 chatGPT与传统搜索引擎结合 总结 正文 不到40天,ChatGPT的日活量已突破千万!而当年同样引起轰动的Instagram达到这一成就足足花了355天. 这代表着我们正在广泛且快速地接受被chatGPT重新定义的知识查询与获取的方式. 而这个需求在过去的20年中,是由类似google,baidu这样的搜索引擎所定义和满足的.现在,范式革 命正在出现.这也是为什么google对于chatGPT与微软

  • ChatGPT教你用Python实现BinarySearchTree详解

    目录 前言 ChatGPT 截图 对 ChatGPT 的一些感悟 1.ChatGPT 成为下一代搜索引擎,毋庸置疑 2.上下文关联能力强 3.未来的可能性 前言 至今,ChatGPT 已经火了很多轮,我在第一轮的时候注册了账号,遗憾的是,没有彻头彻尾好好地体验过一次.最近这一次火爆,ChatGPT 确实出圈了,各行各业的人们都在晒,趁着周末,我也小试了一把. 这篇文会介绍我使用 ChatGPT 的过程以及使用时的一些感悟,最后浅谈下我对 ChatGPT 的一些理解,不喜勿喷哈~ 我的问题是:我是

  • ASP.NET MVC3 SEO优化:利用Routing特性提高站点权重

    简介 我们在开发互联网程序的时候,有个很重要的事情就是做搜索引擎优化(SEO),我们都知道ASP.NET MVC程序提供了友好的URL以及永久重定向的支持,这些友好的URL是利用Routing系统的特性来支持的,但是在这个Routing里有个问题,就是多个不同的地址和指向同一个action方法,那对于搜索引擎来说就意味着你的站点有很多地址的内容都是重复的. 本章内容将展示如果解决这一问题. 正文 对于SEO,一个地址对应一个唯一独立的内容是保证最好权重的一个重要步骤,所以我们需要确保每一个URL

  • [译]ASP.NET Core 2.0 网址重定向的方法

    问题 如何在ASP.NET Core 2.0中实现网址重定向? 答案 新建一个空项目,在Startup.cs文件中,配置RewriteOptions参数并添加网址重定向中间件(UseRewriter): public void Configure(IApplicationBuilder app, IHostingEnvironment env) { var rewrite = new RewriteOptions() .AddRedirect("films", "movies

  • 详解基于 Nuxt 的 Vue.js 服务端渲染实践

    Vue.js 是目前最火热的前端框架之一,而 Nuxt.js 是针对 Vue.js 推出的服务端渲染框架,通过高度定制化的配置以及简洁的 API,开发者可以快速进行服务端渲染项目的开发,本文将对 Nuxt.js 框架做一个简要介绍. 服务端渲染 服务端渲染(Server Side Render)并不是一个新的概念,在单页应用(SPA)还没有流行起来的时候,页面就是通过服务端渲染好,并传递给浏览器的.当用户需要访问新的页面时,需要再次请求服务器,返回新的页面. 为了优化体验,开发者们开始选择采用

  • jsp base标签与meta标签学习小结

    复制代码 代码如下: <%@ page language="java" import="java.util.*" pageEncoding="utf-8"%> <!-- 定义jsp的编码,还有引入的java文件 --> <% String path = request.getContextPath(); //得到当前的项目名字. String basePath = request.getScheme()+"

  • 26步获得网站流量

    1999年9月的时候,Brett Tabke在Webmaster World论坛写过一篇<26步达到一天15000>.现在已有很多不同,该考虑一个新的"26步计划"献给2006年的站长们了.一些旧的技巧仍然适用(比如,每天写出新内容),但一些已经不再适用(向搜索引擎提交已经不是必要步骤),我们这次就要告诉你什么该做什么不必做.你可能已经了解,要带来流量不是那么容易--要辛苦的劳动.抉择,是件体力活.所以,如果你已经准备好,那就卷起袖子,照着这简单的26步,一年之内,你会得到

  • 已更新的26步获得网站流量

    译原文:The A to Z Guide to Getting Website Traffic 原文作者:Shawn Campbell 1999年9月的时候,Brett Tabke在Webmaster World论坛写过一篇<26步达到一天15000>.现在已有很多不同,该考虑一个新的"26步计划"献给2006年的站长们了.一些旧的技巧仍然适用(比如,每天写出新内容),但一些已经不再适用(向搜索引擎提交已经不是必要步骤),我们这次就要告诉你什么该做什么不必做.你可能已经了解

随机推荐