项目简介
Perplexica[1] 是一个开源的 AI 驱动搜索引擎,它深入互联网寻找答案。受到 Perplexity AI 的启发,Perplexica 不仅仅搜索网络,而且理解用户的问题。
项目使用先进的机器学习算法,如相似性搜索和嵌入技术,来优化结果并提供清晰的答案,并注明来源。

项目特点
使用场景
Perplexica 可以作为一个替代传统搜索引擎(如谷歌或必应)的工具,用于搜索互联网、理解查询、提供相关性高的结果,同时保护用户的隐私。
项目适用于需要最新信息、学术研究、写作辅助、YouTube 视频搜索、Wolfram Alpha 数据分析查询和 Reddit 讨论搜索等多种场景。
功能特点
-
本地大型语言模型(Local LLMs):可以使用 Ollama 等本地大型语言模型。 -
两种主要模式:Copilot 模式(开发中)和普通模式。 -
专注模式:有六种专注模式,针对不同类型的查询提供更好的答案。 -
最新信息:使用 SearxNG 作为元搜索引擎获取结果,确保信息的时效性。
即将推出的功能
-
完善 Copilot 模式。 -
添加设置页面。 -
支持本地大型语言模型。 -
引入发现和历史保存功能。 -
引入各种专注模式。
使用方法
使用 Docker 安装 (推荐方式)
-
确保系统上安装并运行了 Docker。
-
克隆 Perplexica 仓库:
git clone https://github.com/ItzCrazyKns/Perplexica.git
-
克隆后,导航到包含项目文件的目录。
-
将
sample.config.toml
文件重命名为config.toml
。对于 Docker 设置,只需要填写以下字段:
-
OPENAI
: OpenAI API 密钥。只有当你想使用 OpenAI 的模型时才需要填写这个。 -
OLLAMA
: 你的 Ollama API URL。按照http://host.docker.internal:PORT_NUMBER
的格式输入。如果在端口 11434 上安装了 Ollama,使用http://host.docker.internal:11434
。对于其他端口,请相应调整。只有当你想使用 Ollama 的模型而不是 OpenAI 的模型时才需要填写这个。 -
GROQ
: 你的 Groq API 密钥。只有当你想使用 Groq 的托管模型时才需要填写这个。
注意:可以在启动 Perplexica 后,从设置对话框中更改这些。
-
进入包含 docker-compose.yaml
文件的目录,并执行:
docker compose up -d
-
等待几分钟让设置完成。可以通过在网页浏览器中输入 http://localhost:3000 来访问 Perplexica。
非 Docker 安装
-
克隆仓库,并将根目录中的
sample.config.toml
文件重命名为config.toml
。确保填写了这个文件中的所有必填字段。 -
将
ui
文件夹中的.env.example
文件重命名为.env
并填写所有必填字段。 -
填写完配置和环境文件后,在
ui
文件夹和根目录中运行npm i
安装依赖。 -
安装依赖后,在
ui
文件夹和根目录中执行npm run build
。 -
最后,在
ui
文件夹和根目录中运行npm run start
启动前端和后端。
注意:推荐使用 Docker,因为它简化了设置过程,特别是管理环境变量和依赖。
更多信息,如将其暴露在网络中等,请查看 安装文档[2]。
注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。
欢迎关注&点赞&在看,感谢阅读~
项目地址: https://github.com/ItzCrazyKns/Perplexica
[2]
安装文档: https://github.com/ItzCrazyKns/Perplexica/tree/master/docs/installation
原文始发于微信公众号(AIGC创想者):Perplexica:3.8K+ Star!一款开源的AI搜索引擎,支持网络搜索,使用先进的机器学习算法提供清晰答案,并注明来源
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/315473.html