搜索
algolia
有两种方案来配置 algolia。
-
让 Docsearch(准确来说是 Algolia Crawler) 每周一次爬取你的网站(也可自行爬取),前提是项目开源,否则收费,好处是无需额外配置,申请比较繁琐(本博客目前采用的方式)
-
自己运行 DocSearch 爬虫,可以随时爬取,但需要自行去注册账号和搭建爬虫环境,或者使用 Github Actions 来帮我们爬取。
方案一:邮件申请详述
-
申请地址:
-
收到官网邮件:
-
-
回复对方邮件:
-
-
获取配置信息:
-
-
以上就是邮件申请获取搜索内容了。
方案1
关于申请 Algolia DocSearch 在文档中有详细介绍,主要是要申请麻烦,需要等待邮箱,并且还需要回复内容给对方进行确认。所以免费托管的 DocSearch 条件是,比较苛刻的,但申请完几乎是一劳永逸,也是我非常推荐的。如果申请成功后就可以在 Crawler Admin Console 中查看
然后将得到 algolia 的 appId,apiKey,indexName 填写到 docusaurus.config.js
中即可。
algolia: {
appId: 'GV6YN1ODMO',
apiKey: '50303937b0e4630bec4a20a14e3b7872',
indexName: 'wenhao',
}
爬取完毕后还会定时发送到你邮箱
方案2
Run your own | DocSearch (algolia.com)
因为方案1是真的难申请,极大概率会失败,无奈只能采用方案2。
首先去申请 Algolia 账号,然后在左侧 indices 创建索引,在 API Keys 中获取 Application ID 和 API Key(注意,有两个 API KEY)
填入到 docusaurus.config.js
中的 API KEY 是 Search-Only API Key
themeConfig: {
algolia: {
apiKey: "xxxxxxxxxxx",
appId: "xxxxxxxxxxx",
indexName: "wenhao",
},
}
系统我选用的是 Linux,在 Docker 的环境下运行爬虫代码。不过要先 安装 jq 我这里选择的是 0install 进行安装(安装可能稍慢),具体可以查看文档,然后在控制台查看安装结果
[root@kzserver wenhao.cn]# jq --version
jq-1.6
接着在任意目录中创建 .env
文件,填入对应的 APPID 和 API KEY(这里是Admin API Key
,当时我还一直以为是 Search API Key 坑了我半天 😭)
APPLICATION_ID = YOUR_APP_ID;
API_KEY = YOUR_API_KEY;