OpenAI最近推出了OpenAI GPTs,随后LangChain开拓了类似的开源工具OpenGPTs。
OpenGPTs是一款低代码的开源框架,专用于构建定制化的人工智能
由于Redis具有高速和稳定性的优点,以是LangChain选择了Redis来作为OpenGPTs的默认向量数据库。

虹科分享 | 一文教你构建定制化的人工智能机械人_向量_数据库 绘影字幕

如何利用OpenGPTs和Redis构建一个智能AI代理?

一、OpenGPTs简介

通过几个配置步骤,我们可以用OpenGPTs构建一个精通Redis的机器人,名为“RedisGuru”。

以下是我们选择的LLM、系统和工具的示例,包括DuckDuckGo搜索、维基百科搜索,以及通过Kay.ai访问的公共***稿。

配置并支配RedisGuru后,可以测试代理如何运行:

此外,我们还可以查询有关Redis数据构造的问题。
可以看到,RedisGuru记住了我的名字:

我们构建的这个RedisGuru代理只是一个运用示例。
你也可以构建各种运用,比如电子邮件文案编辑器、智能研究助理、代码审查员等。

二、Redis在OpenGPTs中的浸染

在这个OpenGPTs演示的背后,Redis供应了一个强大且高性能的数据层,是 OpenGPTs 技能栈不可或缺的一部分。

Redis可以持久化用户谈天会话(线程)、代理配置和嵌入式文档块,并用于向量数据库检索。

用户谈天会话:为了在对话中坚持“状态”,Redis为OpenGPTs供应了用户与AI代理间的持久谈天线程。
这些谈天会话也被输入到LLM中,以供应当前对话状态的高下文信息。
代理配置:为了支持多租户代理架构,Redis为OpenGPTs供应了一个远程的、低延迟的存储层。
当运用程序启动时,它从Redis读取指定的代理设置,然后开始处理要求。
向量数据库用于RAG:为了让对话基于实际情形,OpenGPTs许可我们上传“知识”源,以便LLM将其与天生的答案结合。
通过一种称为检索增强天生(RAG)的过程,OpenGPTs将上传的文档存储在Redis中,并供应实时向量搜索,以检索与LLM干系的高下文。

这些功能是Redis平台的一部分,通过我们的LangChain + Redis集成融入到运用程序中。

Redis与LangChain的OpenGPTs集成带来了更高的灵巧性、可扩展性以及实时处理和搜索能力。
处理多样化数据构造的能力是Redis成为OpenGPTs影象功能的首选办理方案。

三、在本地利用OpenGPTs

如果想亲自体验OpenGPTs,你可以在项目的README文件中找到更详细的指南。
以下是一个快速概述:

1. 安装后端依赖:克隆项目仓库,然后导航到后端目录并安装必要的Python依赖项。

cd backend

pip install -r requirements.***

2. 连接Redis和OpenAI:OpenGPTs利用Redis作为LLM的影象库,利用OpenAI进行LLM的天生和嵌入。
设置环境变量REDIS_URL和OPENAI_API_KEY,以连接到您的Redis实例和OpenAI账户。

export OPENAI_API_KEY=your-openai-api-key

export REDIS_URL=redis://your-redis-url

3. 启动后端做事器:在本地机器上运行LangChain做事器,供应运用程序做事。

langchain serve --port=8100

4. 启动前端:在前端目录中,利用yarn启动开拓做事器。

cd frontend

yarn

yarn dev

5. 在浏览器中打开http://localhost:5173/,与您确当地OpenGPTs支配进行交互。

四、在云端利用OpenGPTs

如果希望在没有本地设置的情形下利用OpenGPTs,可以考试测验在谷歌云上支配。
其余,你还可以访问由LangChain、LangServe和Redis支持的托管预览支配。
这种支配展示了OpenGPTs的可定制性和易用性。

五、Redis与LangChain赋能创新

Redis企业版作为一款企业级的低延迟向量数据库,在支持天生性AI项目方面具有独特上风。
其不仅供应向量搜索,还供应多功能数据构造,能有效知足LLMs的运用状态需求。
这个强大的平台供应了精良的可扩展性和性能,Redis借此成为天生式AI领域的主要工具。