前言
在进行 SEO 优化时,对网站的爬虫错误进行监控会非常有用,可以及时发现并修复这些错误,以提高网站的排名。
本文介绍了一个使用 npm 包 get-google-crawl-errors
监控网站爬虫错误的方法。该包可以方便地获取谷歌搜索控制台上的爬虫错误信息。
本文不仅介绍了该包的使用方法,还对其中的一些原理进行了解析,有助于更好地理解其工作原理。
什么是 get-google-crawl-errors
?
get-google-crawl-errors
是一个可在 Node.js 中使用的 npm 包,它可以从谷歌搜索控制台获取网站的爬虫错误信息。它可以帮助网站所有者快速发现和解决网站爬虫错误,并提高网站的 SEO 表现。
get-google-crawl-errors
的使用方法
步骤1: 安装
首先,在你的项目中安装 get-google-crawl-errors
:
npm install get-google-crawl-errors
步骤2:授权谷歌搜索控制台 API
要使用 get-google-crawl-errors
,您需要授权谷歌搜索控制台 API。具体步骤如下:
打开 Google API Console 并登录您的 Google 帐户。
创建新的 Google 云端项目。您可以将其命名为与您的网站相关的名称。
在该项目中启用搜索控制台 API。要实现这一点,单击左侧菜单中的“API和服务”,然后单击“启用API和服务”。
搜索该 API 并为其创建凭据。在“启用API和服务”页面上,使用“搜索所有API”框中的搜索框查找“Search Console API”。找到该 API 后,单击“启用”。
在凭据菜单中,单击“创建凭据”。在此页面上,选择“OAuth 客户端 ID”。将“应用类型”设置为“Web 应用程序”,然后将“授权重定向 URI”设为
http://localhost:3000/auth/google/callback
(注意:此处的 URI 必须与后文代码中的回调 URI 相同)。单击“创建”。在页面上,将“客户端ID”和“客户端密钥”复制到你的 Node.js 项目的配置文件中。
步骤3:使用
- 首先,导入并设置
get-google-crawl-errors
的配置。您需要设置 Google 身份验证信息和您要监控的网站的 URL。
const getCrawlErrors = require('get-google-crawl-errors') const config = { clientId: "<you_client_id>", clientSecret: "<your_client_secret>", redirectUri: "http://localhost:3000/auth/google/callback", siteUrl: "<your_site_url>", }
- 接下来,使用
get-google-crawl-errors
的getErrors()
方法来获取网站的爬虫错误列表。
const crawlErrors = await getCrawlErrors.getErrors(config) console.log(crawlErrors)
get-google-crawl-errors
工作原理
get-google-crawl-errors
利用了谷歌搜索控制台 API 来获得网站的爬虫错误信息。
当您调用 getErrors
方法时,它将采用以下步骤:
- 发送第一个请求去获取授权码。
const authUrl = `https://accounts.google.com/o/oauth2/v2/auth?client_id=${config.clientId}&response_type=code&scope=https%3A%2F%2Fwww.googleapis.com%2Fauth%2Fwebmasters.readonly&redirect_uri=${config.redirectUri}`
- 使用授权码来获取访问令牌
const data = { code, client_id: config.clientId, client_secret: config.clientSecret, redirect_uri: config.redirectUri, grant_type: "authorization_code", }; return axios.post("https://oauth2.googleapis.com/token", data);
- 通过访问令牌获取网站的爬虫错误信息。
const errorsUrl = `https://webmasters.googleapis.com/v3/sites/${siteUrl}/urlCrawlErrorsSamples` //使用访问令牌来进行访问
通过这些步骤,您可以方便地使用 get-google-crawl-errors
在 Node.js 环境中监控您的网站爬虫错误。
结语
使用 get-google-crawl-errors
,您可以轻松地监控您网站的爬虫错误,并及时修复这些错误,提高您的网站的 SEO 表现和排名。
了解 get-google-crawl-errors
的工作原理可以帮助您更好地理解其使用方法和优势。
希望这篇文章对您有所帮助,谢谢!
来源:JavaScript中文网 ,转载请注明来源 https://www.javascriptcn.com/post/6005690781e8991b448e4adb