AI Agents(智能体)是什么能做什么

      Agents从去年大模型火后就开始爆发,特别是今年2025又被成为Agents元年,像是要无处不存在Agents似的。Agent是什么,直译过来就是代理,但在国内人工智能领域通常被译为智能体。从智能体这个名字可以大概想象出这个Agents可能与智能相关,此概念出现已经有相当长时间了。随着

大模型微调—海南小百科(一)

      语言大模型是通过大规模数据集训练而来可以帮我们进行文本生成、内容总结,但对于一些小众知识、内部数据模型不一定知道怎么回答,这时候可能会胡言乱语。目前要想在特定领域小众知识或私密数据时模型能够表现出比较好的水平目前主要有两种方式可以实现:模型微调、外挂知识库也就是RAG模式,RAG模式之前

RAG知识库之构建知识库图谱

      前面几篇文章谈了多种针对RAG的优化如多表示索引(Multi-representation indexing)、Raptor等但其都是存储在向量库中的,这里将介绍一种新的存储模式,图数据库,适合存储数据高度相关的数据。其存储实体与实体间的关系,存储着丰富的关系类型数据,能给RAG知识库带

RAG应用之针对长文档的Raptor索引

      在现有的朴素RAG应用中其只是简单的对文档进行分块后存储的向量库中,然后在使用是根据 提问问题 从查询向量库中查询相识度较高的文档快作为问题上下文提交到LLM让其根据上下文去回答用户所提问的问题。对于小文本可以直接将整个文档作为上下文或使用上篇文章所提到的**多表示索引(Multi-re

小林同学智能AI大模型语音助手

      闲来无事,想起吃灰的树莓派拿来做点什么,貌似去年还专门买了个麦克风还没怎么用过。正好拿来做个类似小爱智能语音助手的小林同学,现在智能助手不接入大模型都不好意思说出来,当然小林同学没有小爱同学的米家生态功能,后续如果加入多模态图片识别貌似会更有点意思。       智能助手涉及到的技术主要

RAG知识库优化之Rerank应用

      前面几篇文章介绍了最基本的RAG实现,也了解了RAG的基本原理。最基本的RAG 流程为用户Query问题,RAG应用在向量库查询出Context,然后将Query与 Context喂到LLM,LLM生成满足Query的Response答案。       从这里可以存在三元组: Query

RAG知识库的可靠性评估(二)

        上篇文件介绍了RAG优化与评估的基本概念,以及使用TruLens-Eval在没有Ground-truth的情况下评估RAG应用。本篇文件主要是使用Ragas对RAG应用进行评估;         使用了Gagas生成合成测试数据集,在只有知识库文档并没有Ground-truth(真实

RAG知识库的可靠性评估(一)

    在开发基于LLM的RAG应用并准备将其上线应用时,都会比较关注RAG的性能、质量、可靠性其回答的结果准确性到底如何,甚至可以说RAG的质量可靠性其重要性要大于性能,RAG“调好了”看上去效果不错,有没有什么方法去量化度量RAG应用的质量也至关重要,下图为RAG应用度量质量指标分布图。 何为

使用Langchain与ChatGLM实现本地知识库(二)

  大语言模型也只是将用户提供的大规模数据集训练而来,也并非万能的什么都知道,特别是一些小众知识、内部数据或私密的个人数据等,此时ChatGLM3肯定会胡乱回答就是ChatGPT4也不一定能给出满意回答;不少公司、个人都有自己的知识库或日志等此时如有可将这些数据以某种方式挂在大模型上此时在知识库存在

使用LangChain与ChatGLM实现本地知识库(一)

  本篇主要内容为介绍ChatGLM3的安装使用,后续才会涉及到使用LangChain实现本地知识库的内容;   ChatGLM为智谱与清华大学开源的一个大语言模型,支持多轮对话、内容创作等,ChatGLM3-6B为ChatGLM3系列中门槛相对较低的一个,本地部署提供兼容OpenAI的API;  
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×