LangChain RAG 上册 -
一切都要从这张图开始说起,这是RAG的经典图 涵盖了Question->Translation->Routing->Construction->DB(VectorStore)->Indexing->Documents->Retrieval->Generation->Answer 今天我们就来一起学习、拆解这张图,经过这次的学习,你会对RAG有深刻的理解。 参考资料 https://youtube.com/playlist?list=PLfaIDFEX
AI小白使用Macbook Pro安装llama3与langchain初体验 -
1. 背景 AI爆火了2年有余,但我仍是一个AI小白,最近零星在学,随手记录点内容供自己复习。 上次在Macbook Pro上安装了Stable Diffusion,体验了本地所心所欲地生成各种心仪的图片,完全没有任何限制的惬意。今天想使用Macbook Pro安装一个本地大语言模型体验一下,刚好在2024年4月18日,Meta在官网上宣布公布了旗下最新大模型Llama 3,并开放了80亿(8b)和700亿(70b)两个小参数版本,据说能力显著提升。遂开干。 为什么部署本地大模型 学习方便,私有
LangChain之各个输出解析器的使用 -
highlight: androidstudio theme: cyanosis Model I/O 在LangChain中,Model I/O被称为:模型的输入与输出,其有输入提示(Format)、调用模型(Predict)、输出解析(Parse)等三部分组成。 1.提示模板: LangChain的模板允许动态选择输入,根据实际需求调整输入内容,适用于各种特定任务和应用。 2.语言模型: LangChain 提供通用接口调用不同类型的语言模型,提升了灵活性和使用便利性。 3.输出解析: 利用 L
LangChain-SearXNG配置文件热加载方案介绍 -
theme: juejin 👋 大家好,前面两篇文章介绍我最近开源的LangChain-SearXNG搜索引擎 基于SearXNG+LangChain的实现的AI搜索引擎 基于SearXNG+LangChain的实现的AI搜索引擎(2) 从本期开始针对LangChain-SearXNG项目细节进行深度剖析,分享一些项目经验给大家 今天就以最近更新 配置文件热加载 功能来介绍一下是如何实现 一.uvicorn热更新 Python Uvicorn 是一个快速的 ASGI(Asynchronous Serve
AI菜鸟向前飞 — LangChain系列之八 - 深入浅出LCEL与Chain(下篇) -
温馨提示:为了看懂本篇,务必要仔细阅读上、中篇的内容 AI菜鸟向前飞 — LangChain系列之六 - 深入浅出LCEL与Chain(上篇) AI菜鸟向前飞 — LangChain系列之七 - 深入浅出LCEL与Chain(中篇) 前言 开篇一张图,等读完本篇后,你就知道它是怎么来的了 当Chain“遇到”Runnable 程序 from langchain_community.chat_models import ChatOllama from langchain_core.prompts impor
AI|谁都能懂的LangChain解读指南 -
LangChain是帮助开发者利用大模型进行APP开发的脚手架,那么,究竟什么是LangChain,为什么大模型APP开发需要LangChain?读完这篇文章,你就懂了。 1.LLM大语言模型 LLM(large language model)大语言模型随着ChatGPT的横空出世而一炮走红,相信点进这篇文章的各位对于ChatGPT都不陌生(以下介绍由ChatGPT生成): ---------------ChatGPT生成-------------- ChatGPT是一个基于最新的自然语言处理技术的聊
【可能是全网最丝滑的LangChain教程】九、LangChain进阶之Chat Model -
系列文章地址 【可能是全网最丝滑的LangChain教程】一、LangChain介绍 - 掘金 (juejin.cn) 【可能是全网最丝滑的LangChain教程】二、LangChain安装 - 掘金 (juejin.cn) 【可能是全网最丝滑的LangChain教程】三、快速入门LLMChain - 掘金 (juejin.cn) 【可能是全网最丝滑的LangChain教程】四、快速入门Retrieval Chain - 掘金 (juejin.cn) 【可能是全网最丝滑的LangChain教程】五、快速入门
AI菜鸟向前飞 — LangChain系列之七 - 深入浅出LCEL与Chain(中篇) -
开篇 EL简单实现,原理初探 AI菜鸟向前飞 — LangChain系列之六 - 深入浅出LCEL与Chain(上篇) 上一篇文档给大家介绍的Expression Language 特别提到了, 每个运行对象(即:Runnable)通过"|"(管道)连接组成了Chain,可以通过更快速书写且更易读的方式带来了很好的体验效果,在文章中的最后,我给大家展示了每一个Runnable对象的输入/输出Schema,可能有些小伙伴还是有点懵,这样我通过一个简单的实例,自己来实现一个Pipeline 程序实现 class
快速体验 Llama3 的 4 种方式,本地部署,800 tokens/s 的推理速度真的太快了! -
北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama1、Llama2和CodeLlama之后的第三代模型,Llama3在多个基准测试中实现了全面领先,性能优于业界同类最先进的模型,你有没有第一时间体验上呢,这篇文章就分享下如何在Groq上以超过 800 tokens/s 的魔鬼推理速度体验Llama3,会同时分享Web端、移动端、API方式以及集成到LangChain中4种体验方案。 我的新书《LangChain编程从入门到实践》 已经开售!推荐正在学习AI应用开发的朋友购买
下滑推荐(鼠标滚轮下滑)