LLM 架构演进图谱:收敛还是分裂LLM架构设计趋同(MoE、QK-Norm成标配),但技术路线分裂(MLA、Mamba、线性注意力混搭),核心是优化长上下文计算成本。2026年03月19日•TechFocoLarge Language ModelsLLM ArchitectureAttention Mechanism
重复提示词:大模型性能提升的零成本技巧重复提示词可显著提升大模型表现,原理是让每个token都能看到完整上下文,弥补单向注意力缺陷。2026年01月25日•TechFocoLarge Language ModelsPrompt EngineeringAttention Mechanism
医疗 AI 临床决策 稳定性 挑战医疗AI决策不稳定:模型建议分歧大,同一问题回答一致性仅60%。需多模型对比验证,医生承担最终责任。2025年11月05日•TechFocoLarge Language ModelsClinical Decision SupportMedical AI
ARQ 新推理方法 解决 LLM 幻觉问题ARQ新推理法开源,结构化JSON强制模型逐步检查关键信息,解决LLM幻觉问题,成功率90.2%超CoT。2025年10月26日•TechFocoLarge Language ModelsHallucination ReductionReasoning Methods