2025-12-18 14:37:39 +08:00
|
|
|
|
# wiki_crawler
|
|
|
|
|
|
|
2025-12-30 16:19:58 +08:00
|
|
|
|
本仓库主要用于存放wiki_crawler的代码
|
|
|
|
|
|
|
|
|
|
|
|
核心依赖 `firecrawl` 和 阿里百炼 的api支持
|
|
|
|
|
|
|
|
|
|
|
|
完成wiki网页爬取和向量化与知识库查找
|
|
|
|
|
|
|
|
|
|
|
|
## 当前状况
|
|
|
|
|
|
|
2026-01-13 11:29:14 +08:00
|
|
|
|
1. chunk分段逻辑:根据返回的markdown进行分割,按照#、##进行标题的分类,增加JSONB格式字段meta_info,有下面两个字段,分别可以用于数据库查询和LLM上下文认知资料来源
|
|
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
|
# 源数据 (headers)
|
|
|
|
|
|
headers = {"h1": "产品介绍", "h2": "核心功能", "h3": "多语言支持"}
|
|
|
|
|
|
|
|
|
|
|
|
# 生成数据 (header_path)
|
|
|
|
|
|
# Python 代码逻辑: " > ".join(headers.values())
|
|
|
|
|
|
header_path = "产品介绍 > 核心功能 > 多语言支持"
|
|
|
|
|
|
```
|
|
|
|
|
|
2. 量化指标以及测试:目前存入的数据较少,测试结果可能偏差较大
|
|
|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
|
"p_at_1": [], # Precision@1: 首位精确率
|
|
|
|
|
|
"hit_at_5": [], # HitRate@5: 前5命中率,即返回的前五个(目前设置只返回5个)是否符合问题
|
|
|
|
|
|
"mrr": [], # Mean Reciprocal Rank: 倒数排名分数,正确答案排得越靠前,分数越高
|
|
|
|
|
|
"latency": [] # 响应耗时
|
|
|
|
|
|
```
|
|
|
|
|
|
3. 搜索逻辑和问题分类:目前参考一些主流的做法,用户输入后先过一个LLM对问题进行拆分和分类,然后传入对应的知识库参数task_id进行对应的检索
|
|
|
|
|
|
4. RAG逻辑:混合检索,使用向量和关键词混合检索,此处进行粗筛,数据层返回后在业务层调用 gte-rerank 模型进行重排,最后返回请求
|
|
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
|
vector_score = (1 - self.db.chunks.c.embedding.cosine_distance(query_vector))# 计算向量相似度
|
|
|
|
|
|
keyword_score = func.ts_rank(self.db.chunks.c.content_tsvector, keyword_query) # 计算关键词相似度
|
|
|
|
|
|
final_score = (vector_score * 0.7 + func.coalesce(keyword_score, 0) * 0.3).label("score")# 计算最终分数
|
|
|
|
|
|
```
|
|
|
|
|
|
5. 产品面向:爬虫获取完整wiki(可无视robots.txt),当前知识库存入和爬虫绑定强,依赖markdown格式存入
|
|
|
|
|
|
|
|
|
|
|
|
|
2025-12-30 16:19:58 +08:00
|
|
|
|
|
|
|
|
|
|
切割逻辑,准确率定义,归结资料,测试设计,mcp服务调用,搜索逻辑,问题分类,流程架构设计,场景假设
|
|
|
|
|
|
|
|
|
|
|
|
整理dify报错,
|
|
|
|
|
|
|
|
|
|
|
|
包装mcp server
|