LLM 专题

32 篇文章,按时间倒序展示。

别让 AI 废掉你的编程内功

LLM 降低了开发门槛,但也带来了技能萎缩的风险。文章指出,通过刻意练习保持技术深度,并成为具备跨领域知识的 T 型人才,才能在 AI 驱动的代码生产时代建立差异化优势。

TechFoco
别让 AI 废掉你的编程内功

LLM 头脑风暴:从提问者到采样引导者

本文介绍了 Lucas Beyer 提出的人与 LLM 协作进行头脑风暴的方法论,核心是将人类角色从提问者转变为采样算法的引导者,通过延迟同步、跨越概率盆地等原则,结合人类直觉与 AI 的穷举能力,实现突现式创新。

TechFoco
LLM 头脑风暴:从提问者到采样引导者

Vector RAG 系统构建流程详解

本文系统梳理了构建 Vector RAG 系统的九个核心步骤,包括数据采集、文本切分、向量嵌入、存储检索、流程编排、模型生成、监控与优化,并列举了各环节的常用工具与技术选型。

TechFoco
Vector RAG 系统构建流程详解

MCP Client for Ollama:本地 LLM 工具调用新方案

MCP Client for Ollama 是一款专为本地大语言模型开发者设计的命令行工具,它通过连接多台 MCP 服务器,简化了工具调用与工作流自动化的流程,并提供了现代化的交互界面与安全控制机制。

TechFoco
MCP Client for Ollama:本地 LLM 工具调用新方案

构建 GenAI 应用的“汉堡”架构模型

本文借鉴“汉堡”的类比,系统阐述了构建生成式 AI 应用所需的基础设施、模型、数据集成、逻辑与前端五层核心架构,并探讨了可观测性、安全校验等关键非功能需求。

TechFoco
构建 GenAI 应用的“汉堡”架构模型