浅看浅谈浅体验DeepSeek-R1模型

      DeepSeek-V2.5的时就有听说过,直到 V3出来时开始使用已经体验了一个多月,说实话效果没那么惊艳会莫名从中文会话突然吐出英文。用的官方Web网页稍微多点,Api接口也有在使用其性价比比较高,价格性能相对于其他模型比较便宜,目前注册就送十块钱使用额度。       V3推出时就已

AI Agents(智能体)是什么能做什么

      Agents从去年大模型火后就开始爆发,特别是今年2025又被成为Agents元年,像是要无处不存在Agents似的。Agent是什么,直译过来就是代理,但在国内人工智能领域通常被译为智能体。从智能体这个名字可以大概想象出这个Agents可能与智能相关,此概念出现已经有相当长时间了。随着

大模型微调—海南小百科(一)

      语言大模型是通过大规模数据集训练而来可以帮我们进行文本生成、内容总结,但对于一些小众知识、内部数据模型不一定知道怎么回答,这时候可能会胡言乱语。目前要想在特定领域小众知识或私密数据时模型能够表现出比较好的水平目前主要有两种方式可以实现:模型微调、外挂知识库也就是RAG模式,RAG模式之前

海南话语音识别——模型训练(一)

      上篇文章已经介绍了语料数据的预处理,对数据集中的音频数据分别做了重采样、静音切除、降噪以及在Fbank和MFCC中特征提取方式中选择了Fbank对音频数据进行特征提取的方法;在经过上面的处理后已经可以将提取出的音频数据Fbank丢到Transformer中进行训练,但还漏了一个比较重要的

海南话语音识别模型——数据预处理

      现在很多语音助手比如小爱同学、小度等都有支持方言语音识别,开源模型也有不少中文的ASR(自动语音识别)预训练模型可做到开箱即用。方言的ASR模型比较少特别是海南话ASR模型更是没有。这几篇文章主要是基于Transformer从0开始训练一个海南话语音识别模型,当然效果可能不会特别好,这也

RAG知识库之知识库图谱应用

      上篇文章介绍了使用大模型构建生成知识图谱,其实也可不用大模型用其他方式构建生成知识图谱,但RAG要结合知识图谱使用关键还是怎么把图谱的内容查询出来;简单来说可以先查出Chunk集在关联查出每个Chunk所关联的实体Entity再查询出实体之间的的关系集;这里说的RAG结合知识图谱和微软开

RAG知识库之构建知识库图谱

      前面几篇文章谈了多种针对RAG的优化如多表示索引(Multi-representation indexing)、Raptor等但其都是存储在向量库中的,这里将介绍一种新的存储模式,图数据库,适合存储数据高度相关的数据。其存储实体与实体间的关系,存储着丰富的关系类型数据,能给RAG知识库带

RAG应用之针对长文档的Raptor索引

      在现有的朴素RAG应用中其只是简单的对文档进行分块后存储的向量库中,然后在使用是根据 提问问题 从查询向量库中查询相识度较高的文档快作为问题上下文提交到LLM让其根据上下文去回答用户所提问的问题。对于小文本可以直接将整个文档作为上下文或使用上篇文章所提到的**多表示索引(Multi-re

RAG知识库之多表示索引

      在朴素RAG中通常会对文档、文本进行分块后进行文档嵌入,对所有文件、文本都没有经过采用Chunk方法可能有时候效果不是和好,尽管有着各种分块策略有针对大文件的、针对小文件的策略,但都难免可能会造成上下文语义丢失。       分块通常有两个非常重要的参数chunk_size、chunk_

RAG知识库优化之Rerank应用

      前面几篇文章介绍了最基本的RAG实现,也了解了RAG的基本原理。最基本的RAG 流程为用户Query问题,RAG应用在向量库查询出Context,然后将Query与 Context喂到LLM,LLM生成满足Query的Response答案。       从这里可以存在三元组: Query
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×