前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >测试答疑助手:从需求文档到设计文档、测试用例的完整测试过程

测试答疑助手:从需求文档到设计文档、测试用例的完整测试过程

原创
作者头像
霍格沃兹测试开发Muller老师
发布2024-05-09 11:55:32
860
发布2024-05-09 11:55:32
举报

本文将基于 LangChain 实现一个 mini 的实战案例。这次实战主要完成的任务,就是设计一个测试答疑助手,这个测试答疑助手的主要功能为基于本地的文档和数据,回答给出的自然语言问题,比如一些数据的统计,查找、组合。

示例使用数据

  • 测试用例文档

<!---->

  • 设计文档

<!---->

  • 需求文档

实践演练

实战设计思路
安装依赖

安装依赖 chromadb,chromadb是一个简单快捷的向量数据库,为了减少对embedding模型的请求次数,设置数据保存的物理位置,这样多次运行代码也不会重复请求模型转换向量:

代码语言:bash
复制
pip install chromadb
  • embedding:相当于一个“桥梁” —— 翻译:把图片,文字,视频以及音频全部转换为数字,并且包含了数据的信息,使得大模型都能”懂“,能利用这些数字去做训练和推理。
  • 向量:向量本身是一组数字,但是在几何上,向量的各个数字组成了多维的数组空间,向量的每个维度代表该空间的·一个不同的特征或者属性。
  • 向量数据库:专门用于存储和管理向量数据的数据库,能对向量数据进行高效的操作。
代码实现
  1. 通过环境变量设置API Token,以及相关依赖的导入:
代码语言:python
复制
# 一些LangChain的依赖导入  
from langchain.chat_models import ChatOpenAI  
from langchain.embeddings import OpenAIEmbeddings  
from langchain.text_splitter import MarkdownHeaderTextSplitter  
from langchain.vectorstores import Chroma  
# 加载openai 的 API Tokenfrom utils.data_load import get_auth  
# 通过环境变量设置API Token,因为代码中的部分模型调用实例无法直接传递参数,需要通过环境变量设置的方式将token传递给自动构建的OpenAI请求  
import os  
os.environ['OPENAI_API_KEY'] = 'open_ai_token'
os.environ['OPENAI_API_BASE'] = 'open_ai_url'

2.处理源文档,将其切片处理:

代码语言:python
复制
# 定义一个函数,用于加载本地文件中的文本  
def load_text_from_file(path: str) -> str:  
    return open(path, encoding='utf-8').read()  
#  根据测试用例文档中的结构,定义一个MarkdownHeaderTextSplitter实例,用于将markdown文档切分为文本片段,方便后续embedding处理和向量数据库的构建  
testcase_splitter = MarkdownHeaderTextSplitter(headers_to_split_on=[("##", "模块名称"), ("###", "用例名称")])  
docs = testcase_splitter.split_text(load_text_from_file(path="docs/测试用例.md"))  
# 同样处理设计文档,因为设计文档中的结构与测试用例文档不一致,所以要新定义一个MarkdownHeaderTextSplitter实例  
design_splitter = MarkdownHeaderTextSplitter(headers_to_split_on=[("##", "功能名称"), ("###", "模块名称")])  
docs += design_splitter.split_text(load_text_from_file(path="docs/设计文档.md"))  
# 同理,处理需求文档  
prd_splitter = MarkdownHeaderTextSplitter(headers_to_split_on=[("###", "功能名称")])  
docs += prd_splitter.split_text(load_text_from_file(path="docs/需求文档.md"))  
# 将切分后的文本片段输出,可以查看切分结果,和里面附带的数据信息  
for doc in docs:  
    print(doc)  

3.如果数据存在,则加载使用,如果不存在,则写入:

代码语言:python
复制
persist_directory = 'chroma'
# 读取数据
if os.path.isdir(persist_directory):  
    vectordb = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())  
else:  
    # 将切分后的数据,通过OpenAIEmbeddings实例,转换为向量数据,
    # 并保存到向量数据库中,持久化到本地指定目录下  
    vectordb = Chroma.from_documents(  
        documents=docs,  
        embedding=OpenAIEmbeddings(),  
        persist_directory=persist_directory  
    ) 

4.将向量数据库中检索到的文本片段以及提示词组成为 prompt,向大模型获取返回信息:

代码语言:python
复制
# 设定最终提出的问题  
question = "问题:请统计出用户注册用例中,用到的所有用户名、密码、电子邮箱数据,并将它们列成一个表格"  
# 从向量数据库中找到相似度最高的k条文本片段数据  
answer_docs = vectordb.similarity_search(query=question, k=4)  
# ChatGPT3.5大模型调用实例  
llm = ChatOpenAI(temperature=0.0)  
# 将向量数据库中检索到的文本片段组装成字符串,作为输入的数据源  
resource_doc = "".join([chunk.page_content for chunk in answer_docs])  
# 将数据源字符串和问题组装成最终请求大模型的字符串  
final_llm_text = f"{resource_doc} {question}"  
# 通过大模型获取字符串的回答信息  
response = llm.call_as_llm(message=final_llm_text)  
print(f"回答结果:\n{response}")
运行结果示例

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 示例使用数据
  • 实践演练
    • 实战设计思路
      • 安装依赖
        • 代码实现
          • 运行结果示例
          相关产品与服务
          向量数据库
          腾讯云向量数据库(Tencent Cloud VectorDB)是一款全托管的自研企业级分布式数据库服务,专用于存储、检索、分析多维向量数据。该数据库支持多种索引类型和相似度计算方法,单索引支持千亿级向量规模,可支持百万级 QPS 及毫秒级查询延迟。腾讯云向量数据库不仅能为大模型提供外部知识库,提高大模型回答的准确性,还可广泛应用于推荐系统、自然语言处理等 AI 领域。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
          http://www.vxiaotou.com