LLM 架构演进图谱:收敛还是分裂LLM架构设计趋同(MoE、QK-Norm成标配),但技术路线分裂(MLA、Mamba、线性注意力混搭),核心是优化长上下文计算成本。2026年03月19日•TechFocoLarge Language ModelsLLM ArchitectureAttention Mechanism
超越标准 LLM 的新兴架构解析新兴LLM架构:线性注意力提升长序列效率,文本扩散加速生成,代码世界模型探索结构理解,小型递归变换器轻量高效。2025年11月09日•TechFocoLLM ArchitectureLinear AttentionDiffusion Models