所有标签

#AI

共 14 篇文章

OpenAI Symphony 解读:用 Issue Tracker 重新定义 Agent 编排

15 分钟

Issue 不是会话的替代品,是更接近工作本身的工作单元。OpenAI 开源的 Symphony 把 Linear 当编排层,三个月内让部分团队的 PR 增量达到 500%。本文解读它的核心设计、SPEC.md 的思路、以及对软件工程范式的影响。

AI Agent OpenAI Codex 解读

Karpathy's AutoResearch 解读:AI 驱动的自动化 ML 实验循环

26 分钟

AutoResearch 是一个自我驱动的 ML 实验框架,AI 智能体自主写代码、跑训练、看数字、决定下一步,整个过程无人值守。凌晨两点那条不肯下降的训练曲线,可能很快就能交给 AI 去折磨了。

AI 机器学习 翻译

Responses API 的 WebSocket 改造:如何让 Agent 工作流提速 40%

9 分钟

解读 OpenAI 工程博客的 Responses API WebSocket 设计:为什么 HTTPS 请求会成为瓶颈、WebSocket 持久连接如何消除冗余开销、以及在保持 API 兼容性的同时实现 40% 端到端延迟优化的工程决策。

AI Agent OpenAI 解读

给 Agent 写评估:Anthropic Evals 方法论解读

19 分钟

解读 Anthropic 工程博客的 Agent 评估方法论:为什么 Agent 比传统软件更难测、三类评分器如何组合、不同 Agent 类型的测试差异,以及从 0 到 1 构建一套可靠 eval 的关键决策。

AI Agent Anthropic 解读

【π】agent 记忆的形状:append-only 树、压缩与分支

27 分钟

packages/coding-agent 用一棵永不删除的 append-only 树,把 session、compaction 和 extension 系统编织成持久化的记忆。

AI Agent

Managed Agents 设计解读:如何让 Agent 系统不被模型迭代淘汰

12 分钟

解读 Anthropic 工程博客文章,探讨如何通过虚拟化 agent 核心组件(session、harness、sandbox),设计出一个能适应模型能力持续提升的 agent 系统架构。

AI Agent Anthropic 解读

【π】一次 LLM 调用,如何变成完整的 Agent Run?

21 分钟

从一次 LLM 调用到一次完整的 agent run,中间需要几层抽象?pi-mono 的 packages/ai 和 packages/agent 分别做到什么边界,EventStream 如何桥接两层,双重 while 循环如何驱动多个 turn。

AI Agent

【π】一个生产级 Coding Agent Harness 长什么样

13 分钟

从 600 行教学级 mini-coding-agent 出发,介绍 pi-mono 四层架构的全貌:packages/ai、packages/agent、packages/coding-agent、packages/tui 各承担什么职责,一次请求如何穿过这四层。

AI Agent

Harness 设计解读:Anthropic 如何让 Agent 自主完成六小时全栈开发

15 分钟

解读 Anthropic 工程师分享的多 Agent 架构实践:为什么单个 Agent 做不好长任务,如何借鉴 GAN 的思路设计生成-评估分离架构,以及模型变强之后 harness 应该怎么演化。

AI Agent Anthropic 解读

从 MiniMind 出发:一个 token 进入 MoE 之后发生了什么?

16 分钟

一个 token 如何被 router 打分、分配到 top-k expert、最后被加权合并——Top-K 路由与负载均衡的设计逻辑,以及训练与推理路径的差异。

AI 机器学习

从 MiniMind 出发:Attention 拿到上下文之后,MLP 还在做什么

17 分钟

Attention 把上下文聚合回来之后,MLP 为什么还要再加工一次?SwiGLU 激活函数的设计逻辑,以及它如何自然地引向了 MoE 的路由机制。

AI 机器学习

从 MiniMind 出发:Attention 注意力机制到底在计算什么

21 分钟

Q / K / V 各负责什么,shape 为什么一路变化,多头注意力各自看到了什么,KV Cache 解决了什么问题——顺着 Attention.forward 把这些点真正接起来。

AI 机器学习

从 MiniMind 出发:LLM 训练代码最小闭环到底在做什么

16 分钟

语料如何变成 input_ids,hidden_states 如何流成 logits,最终又如何得到 loss——Pretraining、SFT、DPO 三阶段分别在做这件事的哪个环节。

AI 机器学习

解码 Prompt Caching:从 PagedAttention 原理到降本实践

6 分钟

介绍 Prompt Caching 的工作原理,解释 vLLM PagedAttention 的分块与哈希链机制,并给出提高缓存命中率的实操建议。

AI